la conversación Carissa Véliz, profesora de ética digital en Oxford, nos alerta sobre los peligros de ChatGPT: «La inteligencia artificial es un retroceso social, por mucho que sea un desarrollo tecnológico»

En sólo tres meses ChatGPT ha revolucionado el sector tecnológico y planteado numerosos dilemas filosóficos. Hablamos con la experta en ética de la inteligencia artificial de Oxford, para identificar los desafíos que plantea y también sus soluciones.

Carissa Véliz, experta en ética de la inteligencia artificial de Oxford. / dr

Ixone Díaz Landaluce
Ixone Díaz Landaluce

«En vez de hacer un ensayo clínico, imagínate que una farmaceútica probara sus medicamentos en ciudadanos de a pie, sin informar ni de los riesgos ni de los beneficios. Nos tratan como a conejillos de indias», explica Carissa Véliz . Habla, por supuesto, de ChatGPT , la archifamosa aplicación basada en inteligencia artificial capaz de resolver preguntas enciclopédicas mejor que Wikipedia, y también de escribir código de programación, cartas de recomendación, correos electrónicos diplomáticos, poesías o capítulos de series famosas en un lenguaje tan eficaz como inquietantemente humano.

«Son sistemas construidos para la manipulación, para imitar al ser humano. La cuestión es si deberíamos construir máquinas que inviten a ese tipo de engaño», se pregunta la profesora del Instituto de Ética en la Inteligencia Artificial de la Universidad de Oxford (Reino Unido).

Desde que el pasado diciembre la empresa norteamericana Open AI presentara la tecnología al mundo, el chatbot ha superado exámenes universitarios, ha sido prohibido en colegios y universidades, ha redactado cientos de entrevistas y reportajes, y amenazado con dejar en el paro a gremios enteros, desde profesores y periodistas a programadores e ingenieros.

También ha sacudido los cimientos de la industria tecnológica: mientras Google activaba el «código rojo» por temor a perder su omnipotencia en la red, Microsoft invertirá 10.000 millones en la herramienta. Con más de 100 millones de usuarios, ChatGPT se ha convertido ya en la aplicación con un crecimiento más exponencial de la historia de Internet.

Los grandes peligros de ChatGPT y la inteligencia artificial

La primera vez que Carissa Véliz utilizó ChatGPT, su reacción, más que de asombro por sus capacidades, fue de alarma. «Te das cuenta de que es fácil engañarle o hacerle caer en fallos. Comete muchos errores en problemas matemáticos sencillos, pero también tiene una gran habilidad para fabricar información falsa. Y lo más sorprendente de todo es que sus respuestas son perfectamente plausibles. Un investigador le preguntó cuáles eran los beneficios de comer vidrio y ChatGPT se inventó una historia sobre por qué puede ser bueno para la salud», explica.

Para la experta, el desafío más evidente que plantea es, precisamente, su capacidad para fabricar noticias falsas a escala masiva y en un lenguaje extremadamente convincente. Véliz utiliza una analogía para explicar la dimensión del problema. «Todas las sociedades tienen el problema del dinero B, ¿verdad? Pero, mientras haya más dinero A que B, el sistema funciona. En el momento que eso cambia, el sistema se quebranta. Y gracias a herramientas como ChatGPT podemos alcanzar un punto en el que la información falsa sea mayoritaria. Así es muy difícil que una democracia liberal funcione o que unas elecciones sean íntegras. ¿Qué pasará, por ejemplo, si no somos capaces de saber si los mensajes dirigidos a presionar a un gobernante proceden de ciudadanos o de bots?», se pregunta.

Carissa Véliz, experta en ética de la inteligencia artificial de Oxford.

El otro gran reto es impedir que los sesgos del algoritmo escriban la narrativa. O reescriban la historia. «No utiliza solo fuentes científicas o precisas, sino también información procedente de foros donde, por ejemplo, puede abundar el machismo. Eso convierte el sexismo o el racismo en la verdad. Elon Musk ya ha dicho que ChatGPT no debería corregirlo y que le gustaría desarrollar un sistema similar sin ese tipo de restricciones», explica la experta, autora del ensayo de referencia 'Privacidad es poder'.

Aunque la utilidad de herramientas como ChatGPT resulta innegable, si contribuye al progreso o al retroceso es todavía una pregunta abierta. «Depende de nosotros. Hay tanta inteligencia artificial que es sexista y racista que, a todos los efectos, está siendo un retroceso social, por más que sea un desarrollo tecnológico. El desafío es asegurarnos de que el desarrollo tecnológico vaya unido a un progreso social, político y cultural».

Por eso, Véliz cree que hay que mirar con suspicacia a cualquier empresa (y también a cualquier gurú tecnológico) capaz de plantear ese tipo de desafíos sin medir las consecuencias. Eso, que antes afectaba a corporaciones como Microsoft, Google o Facebook, ahora apunta directamente a OpenAI.

«Una herramienta tan poderosa y popular puede tener efectos sistémicos. Tenemos que pensar con cuidado qué tipo de vida y qué tipo de sociedad queremos construir. A veces, los seres humanos nos movemos por inercia. Aceptamos algunas cosas como si fuéramos sonámbulos...». ¿Un ejemplo de esta actitud? «Los coches que funcionan a base de petróleo –apunta Veliz–. En 1930, había tantos coches de gasolina como coches eléctricos en la ciudad de Nueva York. El coche de gasolina se impuso por razones contingentes: había petróleo en Estados Unidos, la empresa más grande de coches eléctricos tuvo problemas de gestión... Si hubiéramos decidido que el coche eléctrico era la mejor opción, ahora tendríamos un panorama mucho más optimista con respecto al cambio climático».

«Hay que ser realistas y pensar en todo lo que puede salir mal, pero debemos mantener el optimismo porque nos jugamos muchísimo»

Pero antes del debate filosófico, hay que resolver los problemas prácticos. Por ejemplo, cómo afectará una tecnología como ChatGPT (que Microsoft ya ha insinuado que podría introducir en programas como Word) a la educación. Colegios y universidades tendrán que repensar cómo enseñan y cómo evalúan los contenidos que imparten.

«Las presentaciones orales podrían ser una alternativa, pero eso no resuelve el problema de fondo. Hablar no es lo mismo que escribir. Escribir no es solamente expresar ideas, es aprender a pensar. Uno piensa mientras escribe. No está claro qué tipo de habilidades podemos estar perdiendo si sacamos un elemento tan importante como ese de nuestra educación o cómo podemos reemplazarlo para que sea igual de valioso para el pensamiento crítico», razona Véliz.

La creatividad es otra capacidad humana que la inteligencia artificial ya está poniendo en entredicho. Y no es sólo (aunque también) una cuestión de copyright o derechos de autor. «De momento, es una pregunta empírica, pero una hipótesis es que la creatividad va en declive. Recientemente, un estudio publicado en Science afirmaba que cada vez habrá menos avances científicos. Y eso podría deberse a que dependemos mucho de sistemas que realizan análisis estadísticos de estudios que ya se han publicado. Si terminamos adoptando esos clichés, es posible que cada vez seamos menos capaces de pensar de una manera original».

No es la única que expresa públicamente sus reservas. En febrero, Mira Murati, jefa tecnológica de OpenAI, concedía su primera entrevista a la revista Time. Admitía que la empresa no había anticipado el impacto de ChatGPT, defendía la necesidad de regular su propia tecnología y pedía ayuda. «Estamos en un momento único en el que podemos influir en cómo una tecnología moldea la sociedad. Y esto va en ambos sentidos: la tecnología nos moldea y nosotros la moldeamos. Hay muchos problemas difíciles de resolver. ¿Cómo conseguir que el modelo haga lo que uno quiere que haga y cómo asegurarse de que está en consonancia con la intención humana y, en última instancia, al servicio de la humanidad? Hay un montón de preguntas sobre su impacto social, muchas cuestiones éticas y filosóficas que tenemos que considerar. Por eso, es importante que filósofos, científicos sociales, artistas y humanistas participen de este debate», explicaba Murati.

Carissa Véliz, experta en ética de la inteligencia artificial de Oxford.

Según Véliz, la clave no está en regular una tecnología en particular, sino en garantizar los derechos asociados a ella: la libertad de expresión, la igualdad o el derecho a la no discriminación. Pero, ¿cómo se hace eso? Mientras los gobiernos no sean capaces de legislar a la misma rapidez vertiginosa a la que la industria tecnológica desarrolla sus aplicaciones, la ética podría ser una herramienta útil. «La medicina vuelve a ser un gran ejemplo: los códigos éticos de los hospitales no tienen categoría de ley, pero se cumplen con muchísima seriedad», explica la experta.

Pero el debate también afecta a los propios límites de la inteligencia artificial, que los expertos suelen situar en la conciencia humana. Carissa Véliz lo explica así: «La inteligencia artificial no puede tener conciencia sin tener experiencias corporales. La conciencia forma parte de tener una experiencia real en el mundo, de probar lo que se siente al comer una manzana, al sentir placer y sobre todo, al sentir dolor o dañar a otra persona. Lo que sí resulta preocupante es que los sistemas sean suficientemente convincentes para aparentar conciencia, creando un nivel de confusión gigantesco en los seres humanos».

En 'La privacidad es poder', la profesora de Oxford, que no usa plataformas como Google o WhatsApp y prefiere otras más respetuosas con los datos de sus usuarios como DuckDuckGo, ProtonMail o Signal, ya advertía que la economía de datos y sus reglas salvajes podían, incluso, costar vidas humanas.

«Ahora mismo vivimos en una especie de salvaje oeste. Las anteriores generaciones tuvieron que regular sus industrias, ya fuera la automovilística, la alimentaria o la farmacéutica. El desafío de nuestra generación es regular a las grandes tecnológicas y a las empresas que diseñan la inteligencia artificial. La pregunta es: ¿seremos capaces de avanzar hacia esa conciencia lo suficientemente rápido como para evitar desastres catastróficos?», se pregunta. Le pido que defina «desastre catastrófico». «Que la estructura de vigilancia sea tan invasiva que surja un régimen autoritario contra el que sea muy difícil luchar porque sabe lo que estás buscando o con quién te estás comunicando antes de que puedas hacer nada o salir a protestar. Eso podría llevarnos a desastres que ya hemos vivido antes: genocidios, regímenes dictatoriales...».

Sin embargo, no hace falta ceder a visiones apocalípticas ni asumir mensajes derrotistas. La profesora de Oxford apuesta, en su lugar, por ser optimista en la voluntad, pero pesimista en el razonamiento. «Creo que hay que ser realistas y pensar en todo lo que puede salir mal, pero que debemos mantener el optimismo porque nos jugamos muchísimo. Es nuestro deber pensar en cómo dejar este mundo igual a como nos lo encontramos. Si podemos, un poquito mejor».