TECNOLOGÍA

El salvaje oeste de la IA: por qué la inteligencia artificial vive sumida en el caos

En febrero, Francia acogerá una Cumbre Mundial sobre inteligencia artificial que aspira a poner un poco de orden en el caos. Los expertos nos explican por qué 2025 podría marcar el futuro de la IA. Para bien o para mal.

La falta de regulación ha sumido a la IA en el caos. / ilustración: Carmen GARCÍA HUERTA.

Ixone Díaz Landaluce
Ixone Díaz Landaluce

Nada ha vuelto a ser igual desde aquel 6 de noviembre de 2022. OpenAI, la empresa tecnológica fundada por Sam Altman, eligió un domingo cualquiera de finales de año para presentar Chat GPT al mundo, sin sospechar que estaban encendiendo la mecha de una revolución social con pocos precedentes en la historia moderna. La demostración empírica y al alcance de cualquiera de los superpoderes de la inteligencia artificial ha convertido a esta tecnología, en desarrollo desde los años 50, en el perefil de absolutamente todas las salsas.

A la misma velocidad, el fenómeno tecnológico ha derivado en una realidad caótica en la que mientras unos predican sobre su increíble potencial para cambiar el mundo, otros (y no otros cualquiera) alertan sobre peligros existenciales y los más listos, como siempre, tratan de hacerse más ricos todavía.

«Es el salvaje Oeste. Para empezar, porque aún no sabemos lo que es la IA o cómo funciona al nivel más fundamental. Los ingenieros de software son capaces de diseñar esos modelos de lenguaje, pero ni siquiera saben por qué los chatbots dicen y hacen algunas cosas. Por eso, todo el mundo parece tener su propia opinión sobre si estamos cerca de una inteligencia artificial que podría poner en peligro a la raza humana o si lo que tenemos son sólo asistentes inteligentes que no suponen ningún peligro en absoluto», resume el periodista norteamericano Mathew Ingram. Especializado en tecnología, Ingram es una firma habitual de prestigiosos medios como Fortune o Business Insider.

Pero no se trata solo de una impresión. Todos los expertos coinciden. «Es cierto que estamos viviendo un momento de caos. Sobre todo, en lo que a los mensajes sociales que recibimos se refiere. Por un lado, hay cierta sobreexcitación sobre lo que la inteligencia artificial será capaz de hacer; por otro, está el juego geopolítico. China tiene una idea más centrada en la monitorización de una población grande y cerrada al exterior. En Estados Unidos, las multinacionales están ejerciendo un monopolio tecnológico sobre qué se desarrolla y qué no. Y Europa está intentando hacer un esfuerzo regulatorio para poner un poquito de visión ética en esta tecnología», explica Amparo Alonso, catedrática de Ciencia de la Computación e Inteligencia Artificial de la Universidad de A Coruña y miembro del Consejo Asesor de Inteligencia Artificial del Ministerio de Economía y Transformación Digital.

Para Carissa Velíz , experta en ética de la inteligencia artificial de la Universidad de Oxford, potencias políticas como China y EE.UU. se perciben a sí mismas en una carrera similar a la nuclear o la espacial. «Y eso tiene implicaciones importantes sobre cómo se piensan, cómo se diseñan y cómo se implementan estas herramientas. Aunque en Europa se esté haciendo un mejor trabajo que en otras partes del mundo, mientras Estados Unidos no la regule, y de momento no parece que haya indicios de ello, vamos a tener muchos problemas asegurándonos de que la IA respete derechos y sea una fuente de apoyo para la democracia y no justo lo contrario», opina la filósofa, cuya principal preocupación es la privacidad .

Pero también la autonomía personal. «Ya estamos viendo cómo la IA influye en las oportunidades: desde lo que vemos y lo que no vemos online hasta la vida profesional o la personal, por ejemplo a través de las apps de citas. Ya afecta a casi todas las áreas de la vida», apunta.

Poner orden en el caos de la IA

Efectivamente, Europa lleva la delantera en lo que a la regulación se refiere. En agosto, entró en vigor la Ley de Inteligencia Artificial de la UE, la primera regulación internacional de este tipo. La norma, que establece hasta cuatro niveles de riesgo diferentes, exige que modelos de IA generativa, como ChatGPT, sean más transparentes sobre cómo son entrenados sus algoritmos, pero también limita el reconocimiento facial en espacios públicos.

O, incluso, escenarios distópicos propios de la ciencia ficción. Por ejemplo, las actuaciones policiales predictivas (como ya avanzaba Spielberg en su película de 2002 Minority Report) o el reconocimiento de las emociones en el lugar de trabajo.

Los frentes abiertos son, efectivamente, innumerables. Y ninguno es menor. «Son cuestiones relacionadas con los derechos humanos: desde los sesgos no deseados, los algoritmos con problemas de privacidad y los deep fakes hasta los ataques a las democracias y la manipulación de grandes masas», ilustra Amparo Alonso. Pero también el desarrollo de una IA más sostenible. «La cantidad de energía que usa es brutal. Hay compañías que quieren poner en marcha centrales nucleares para alimentar sus algoritmos. Eso debe impactarnos. Como no vemos lo que consume ni lo que ocupa o cuántos litros de agua se necesitan para refrigerar un centro de datos, parece que todo es gratis. Y no es así, claro».

Para poner orden en todo ese caos, Francia acogerá en febrero una Cumbre Mundial sobre inteligencia artificial convocada por el presidente Emmanuel Macron. «Podemos esperar fuegos artificiales y algunas declaraciones tan grandilocuentes como probablemente vacías de Donald Trump o Elon Musk . No creo que el nuevo presidente norteamericano sepa o entienda nada sobre IA, solo busca atención y capital político. Con Biden parecía que Estados Unidos cooperaría con Europa para regularla, pero no creo que eso vaya a ocurrir ahora. Muchos de los asesores de Trump son multimillonarios tecnológicos, como Elon Musk, y está claro que empujarán para que haya cuanta menos regulación posible», opina Ingram.

Para Carissa Véliz el peligro está en que este tipo de cumbres terminen siendo las nuevas cumbres del clima, con muchas expectativas, pero escasos resultados. «Se corre el riesgo de que solo sea una oportunidad para hacerse la foto. Al mismo tiempo, nunca alcanzaremos un consenso sobre buenas prácticas globales sin reuniones diplomáticas. Estas cumbres ofrecen condiciones necesarias, pero no suficientes para avanzar en la nueva gobernanza de la IA. Que sean suficientes depende de que haya voluntad política, de que los líderes sean valientes y no dejen que las grandes compañías tecnologías dicten la agenda. Por eso, es preocupante observar la alianza entre Trump y Musk, que controla sistemas de infraestructuras como los satélites de Starlink mientras demuestra un comportamiento bastante errático», reflexiona.

Elon Musk. / contacto photo

Elon Musk y la inteligencia artificial

Musk, además, mantiene una relación compleja con la tecnología. El hombre más rico del mundo ha apoyado leyes estatales para regularla, ha alertado sobre el «riesgo existencial» que supone para la humanidad, ha dicho que se quedará con todos nuestros trabajos y que eso no es necesariamente una mala noticia, y ha explicado que la IA es su «mayor temor».

Al mismo tiempo, ha fundado una empresa ( xAI) dedicada a desarrollarla, ha conseguido 50.000 millones de dólares de financiación para ponerla en marcha y, echando mano de su habitual fanfarronería, ha prometido que será «la inteligencia artificial más potente del mundo». «No creo que Musk se uniera a las advertencias porque realmente le preocuparan los peligros. Creo que lo hizo para frenar a sus competidores mientras construía su propia IA. Y creo que probablemente utilizará su relación con Trump para seguir haciéndolo», opina Mathew Ingram sobre el papel del multimillonario en todo esto.

Efectivamente, el magnate ha entrado en una guerra abierta con OpenAI, la misma empresa que ayudó a fundar en 2015, pero cuyo accionario dejó tres años después por diferencias de criterio con Sam Altman. El caos interno en el que la principal compañía de inteligencia artificial del mundo está sumida desde hace dos años (con salidas de ejecutivos tan influyentes como Mira Murati y movimientos empresariales que han despertado muchas suspicacias) es también muy indicativo de la marejada que vive el sector tech.

«En su inicio, OpenAI fue una empresa sin ánimo de lucro, pero ahora mismo son prácticamente Microsoft. Por tanto, el lucro está en su ánimo, desde luego», explica Amparo Alonso sobre cómo lo que empezó siendo un laboratorio de investigación para convertir a la IA de código abierto en el estándar de la tecnología, ha terminado convirtiéndose en una empresa como otra cualquiera. Bueno, como otra cualquiera no: después de su multimillonaria alianza con Microsoft, está valorada en más de 157.000 millones de dólares. Y firma contratos con empresas armamentísticas.

Las advertencias de Geoffrey Hinton

«Hay expertos como Geoffrey Hinton, que creen que el peligro es real, y otros como Yann LeCun, de Meta, que no lo creen en absoluto. Ese es también el debate que se estaba teniendo en OpenAI. Había importantes diferencias de opinión entre Altman, que quería ir a toda máquina, y quienes preferían ser cautos», analiza Ingram.

Sam Altman, fundador de Open AI. / contacto photo

Considerado uno de los padres de la tecnología, en mayo de 2023 Hinton abandonó su puesto en Google para ocupar los titulares de prensa. Lo hizo, según explicó, para poder hablar con libertad de lo que él considera un «riesgo existencial» para la humanidad.

A mediados de diciembre, Hinton recibió el Nobel de Física. Pero el reconocimiento no ha moderado su discurso. Todo lo contrario. «Es probable que, en algún momento de los próximos 20 años, la IA se vuelva más inteligente que nosotros. Necesitamos preocuparnos por lo que vendrá después», explicaba recientemente mientras alertaba de los recursos limitados de los gobiernos para regular una tecnología que avanza a una velocidad mucho más vertiginosa que cualquier maquinaria burocrática. La pelota, para él, está en el tejado de las tecnológicas. No todo el mundo está de acuerdo.

«Por definición, las empresas, no importa las buenas intenciones que tengan, no se pueden autorregular. Eso tiene que venir de fuera. Lo raro sería que, en la historia, todas las industrias se hayan regulado menos esta», opina Carissa Véliz. El problema, con tantos actores implicados, tantos intereses creados y tantas maneras de entender el futuro, es quién asumirá el papel del sheriff. Y quizá la respuesta no esté ni en los gobiernos ni en las tecnológicas. Véliz confía más en nosotros. «Cada vez hay más empresas, como Protonmail o Signal, que protegen la privacidad de sus usuarios. Y cada vez hay más personas que se están dando cuenta de que el virtual es, en el mejor de los casos, un fantasma del mundo analógico. Que estemos más concienciados sobre el valor de la privacidad o de los peligros de la tecnología digital es un motivo para el optimismo». Y para confiar, más que nunca, en la inteligencia puramente humana.