en el foco Por qué es machista y racista la Inteligencia Artificial: la opinión (y soluciones) de las expertas

Las máquinas piensan por nosotros, pero también como nosotros. Para corregir sesgos y prejuicios, los intérpretes de la inteligencia artificial exigen reescribir el algoritmo y empezar por el principio.

Esta imagen ha sido creada con el programa de inteligencia artificial Midjourney. / imagen generada por Nicolás Loira

noelia fariña

«El hombre es al programador informático lo que la mujer es a...». En 2016, un grupo de investigadores de la Universidad de Boston retó al algoritmo Word2vec a despejar la ecuación. Educado a partir de una cantidad ingente de noticias y textos de Internet, este pionero modelo de lenguaje, obra de Google, estaba demostrando una capacidad única de aprender y relacionar palabras. Simplificándolo mucho, podría decirse que poseía capacidad semántica.

Conseguía identificar sinónimos o establecer analogías de palabras en función a las probabilidades estadísticas de aparecer juntas o separadas en un discurso: hombre y mujer, padre y madre, rey y reina, programador y ¿programadora? Hubiese sido lo lógico, pero el algoritmo insistía en que la respuesta correcta era «ama de casa». Resulta que Word2vec no sólo es capaz de comprender nuestro idioma a medida que lo aprende, también reproduce los sesgos y prejuicios que habitan en él.

Se trata de una deficiencia que continúa revelándose en las herramientas de inteligencia artificial generativas que le han precedido. Ask Delphi, un chat creado por científicos para ofrecer consejos éticos –y estudiar, en realidad, sus limitaciones en la computación–, acabaría emitiendo juicios de valor machistas y racistas. En las últimas semanas, OpenAI también ha tenido que corregir ChatGPT tras desmelenarse contando chistes sexistas y homófobos. ¿Pero tiene la IA la autonomía suficiente para rebelarse o es tan solo un reflejo de nuestras sombras?

Todas las inteligencias artificiales trabajan con datos y el reto es que reflejen con la mayor veracidad la realidad. Para Cristina Aranda, experta en lingüística computacional y cofundadora de BigOnion y WomanTech, se producen sesgos en diferentes áreas que debemos hackear. Por un lado, están en los datos generados por las propias personas, en los que influyen factores como la brecha digital o la representación de los grupos sociales más vulnerables. Pone de ejemplo los contenidos de la Wikipedia, en los que apenas un 12% son mujeres. Por otro lado, habría que sumarle los sesgos de los propios trabajadores de las inteligencias artificiales .

Imagen creada con el programa de IA Midjourney. / imagen generada por Nicolás Loira

«No tienen un código deontológico para tratar esos datos ni una regulación muy estricta –es más tedioso lanzar un juguete al mercado que una IA capaz de quedarse con nuestros datos e infringir la privacidad–. La mayoría de los trabajadores basan sus decisiones de entrenamiento algorítmico, en virtud de lo que el psicólogo Daniel Kahneman conoce como sistema 1: un sistema de intuiciones, rápido e inconsciente, basado en todo nuestro sistema de creencias. Si además, le sumamos que los grupos de trabajo se componen en su mayoría de hombres blancos, heterosexuales, judeoscristianos, educados en los mismas universidades, igual no tienen en cuenta que el mundo es más diverso».

Para corregirlo, el primer paso que propone Aranda es «parar y auditar»: qué datos se están utilizando, cómo se están trabajando, si los algoritmos están siendo justos o si los datos están equilibrados. «Imagina que tenemos que entrenar un sistema de selección de personal y solo utilizamos perfiles de hombres. Las máquinas no tienen sesgos, se basan en patrones y, si no hemos equilibrado los datos o, simplemente, eliminado esa variable de género, es probable que descarte el currículum de cualquier mujer brillante».

Es lo que ocurrió con el célebre sistema de reclutamiento de Amazon. Como se basaba en los archivos de la compañía de los últimos 10 años, en los que la gran mayoría de candidatos a puestos técnicos y, en consecuencia de contratados, era masculina, comenzó a penalizar a las candidatas. Aunque tomaron medidas para corregirlo en cuanto lo descubrieron, la desconfianza les hizo abandonar el proyecto.

Look del desfile de Rick Owen.

«El potencial y la aspiración de los algoritmos de inteligencia artificial es que nos ayuden a superar las deficiencias de las decisiones humanas», reflexiona Nuria Oliver, directora Científica y cofundadora de la Fundación ELLIS Alicante, en donde están investigando cómo inventar algoritmos con un concepto de justicia algorítmica, capaces de mitigar los patrones de discriminación y tomar decisiones más igualitarias. Oliver coincide en que, abordando las tres grandes etapas del diseño del algoritmo, se podría alcanzar una equidad: en el uso de datos, con técnicas que permitan detectar y aplacar los sesgos; durante el aprendizaje algorítmico, introduciendo componentes que garanticen matemáticamente que tome decisiones justas; y por último, evaluando las decisiones que proponen. «Hay que tener presente que nadie nos obliga a hacer lo que nos mandan».

Para la experta, el auténtico reto es la falta de diversidad en la propia disciplina, en especial, en materia de género, con apenas un 14% de mujeres expertas en IA. «Está en el corazón de la cuarta revolución industrial y va a transformar la sociedad y el mercado laboral. Si sabemos que va a haber cientos de empleos en este campo, pero estamos siendo incapaces de inspirar a que las niñas y adolescentes estudien carreras tecnológicas, nos podemos encontrar con que se produzca un gran desigualdad social». La experta destaca el potencial estratégico y económico de estas disciplinas y señala la importancia de llevar acciones de desmitificación para despojarla de los estereotipos, y, en especial, de invertir en educación a todos los niveles, «para que podamos decidir que tipo de tecnología queremos».

Amparo Alonso, catedrática de Ciencias de la Computación e Inteligencia Artificial de la Universidade da Coruña y, de 2013 a 2021, presidenta de la Asociación Española de Inteligencia Artificial, destaca el carácter multidisciplinar de la IA. «Cuanto más diversos sean los equipos, y no solo en género, mejor es su forma de trabajar. También es importante reflejar la parte humanística de la inteligencia artificial: necesitamos el concurso de filósofos, psicólogos, sociólogos o lingüistas para la parte del lenguaje natural. De hecho, dependiendo de cómo desarrolles una pregunta, ChatGPT puede responderte de una forma u otra».

Reconoce la catedrática que se trata de un proceso muy complejo y celebra la decisión de la Unión Europea de legislarla. Una regulación pionera en la que llevan más de dos años trabajando y que ha hecho que EE.UU. o China se replanteen seguir sus pasos. «Habrá unos sellos de calidad para los sistemas IA que englobarán todo: desde que exista una supervisión y responsabilidad humana en todo el proceso, a que se cumplan una serie premisas primordiales, como la ética, la sostenibilidad, el derecho al olvido, las normas de licencia...».

Desfile de Balmain.

Aranda coincide en que son buenos propósitos, aunque reclama más detalles técnicos, mientras que Nuria Oliver pone el foco en su impacto. « La IA está en todas partes, pero interaccionamos con ella de manera invisible: los algoritmos deciden qué información vemos, qué compramos, qué amigos tenemos... No se trata tanto de regular la tecnología, sino garantizar que no nos va a pasar nada malo si la utilizamos».

El mejor ejemplo lo encontramos en su capacidad de crear imágenes falsas increíblemente realistas. Hay quien las usa para construir universos preciosistas e increíbles y quién opta por convertir a las mujeres que conoce en protagonistas de pornografía no consentida. Para ser exactos, según datos de la empresa de ciberseguridad Sensity, constituyen el 96% de las fotos generadas por IA. La cantante Rosalía ha sido la víctima más conocida de este revenge porn virtual, a cargo de un reggetonero con ansia de notoriedad.

«La gran diferencia de los algoritmos respecto a las tecnologías anteriores es su escalabilidad. No podemos desplegarlos libremente sin analizar que tipo de limitaciones o peligros conlleva –matiza Oliver–. La inteligencia artificial nos va ayudar a abordar los retos de este siglo, pero debemos apelar a la responsabilidad y colocar a las personas en el centro para evitar las consecuencias no deseadas». ¿La buena noticia? En palabras de Alonso, « es más fácil educar a un sistema de inteligencia artificial que educarnos a nosotros socialmente».

Temas

Ciencia

20 de enero-18 de febrero

Acuario

Con el Aire como elemento, los Acuario son independientes, graciosos, muy sociables e imaginativos, Ocultan un punto de excentricidad que no se ve a simple vista y, si te despistas, te verás inmerso en alguno des sus desafíos mentales. Pero su rebeldía y su impaciencia juega muchas veces en su contra. Ver más

¿Qué me deparan los astros?