Entrevista

Melanie Mitchell: "La idea de que la inteligencia artificial es extremadamente poderosa es marketing empresarial"

El Parlamento Europeo aprueba definitivamente la ley que regulará la IA

La científica estadounidense Melanie Mitchell, autora del libro 'IA: Guía para seres pensantes'

La científica estadounidense Melanie Mitchell, autora del libro 'IA: Guía para seres pensantes' / Kate Joyce

Carles Planas Bou

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

Melanie Mitchell (Los Ángeles, Estados Unidos, 55 años) lleva más de media vida centrada en estudiar la inteligencia artificial. Desde que se doctoró en Informática en 1990, esta laureada científica estadounidense, catedrática de Complejidad en el Instituto Santa Fe, ha escrito o editado seis libros y decenas de artículos académicos en los que investiga sobre IA, redes neuronales, ciencia cognitiva y sistemas complejos.

Su último libro, Inteligencia Artificial: Guía para seres pensantes (Capitán Swing), salió hoy a la venta en España. En motivo de su publicación, EL PERIÓDICO ha podido conversar mediante videollamada con Mitchell.

¿Por qué nos ha sorprendido tanto la irrupción de la IA como ChatGPT?

Cualquier sistema que imite la capacidad de generar lenguaje humano parece muy inteligente porque es la forma que tenemos de comunicarnos y entendernos. ChatGPT se puso a disposición del público en un formato fácil de usar y todo explotó. Ha sido muy sorprendente porque antes no existía algo así.

Estamos viendo el poder de usar grandes cantidades de datos. Solo en la última década hemos tenido acceso a publicaciones en Internet, libros digitalizados, vídeos... Las capacidades generativas de la IA han explotado gracias al gran volumen de datos con los que se entrena, pero también gracias a las nuevas arquitecturas de redes neuronales que se han desarrollado y las enormes cantidades de potencia informática.

La generación de lenguaje lleva a muchos usuarios a creer que la IA nos entiende. ¿Estamos confundiendo comprensión con simulación?

Es una pregunta muy filosófica que la comunidad académica está debatiendo. Para empezar, no tenemos una definición clara de qué es la comprensión. La principal premisa del test de Turing es que no se puede determinar si las máquinas piensan porque no hay diferencia entre el pensamiento y su simulación. Muchos expertos no están de acuerdo con esa lectura y creen que se debe distinguir.

¿En qué fallan los modelos de IA?

El problema más conocido son las 'alucinaciones', cuando a veces genera respuestas plausibles pero falsas, que se solapan con la realidad. Eso ha metido en problemas a muchas personas que utilizan esos sistemas porque no comprobaron si se lo habían inventado o no. No están programados para el razonamiento, no entienden totalmente los datos con los que trabajan ni muchas cosas sobre el mundo, pero son extremadamente impresionantes.

Textos falsos generados por IA se están convirtiendo en parte del ecosistema informativo de Internet y eso puede propagar desinformación a gran escala

Melanie Mitchell

Cada vez más grandes compañías como Microsoft o Google integran sistemas de IA que generan información falsa. ¿Contaminarán el ecosistema informativo?

Ya está ocurriendo. Ha habido personas que han usado ChatGPT para generar artículos de noticias, el resultado ha sido algo falso y luego cuando se busca información de ese tema en Google se presenta esa falsedad como verdad. El texto generado por IA se está convirtiendo en parte del ecosistema de Internet y no hay forma de saber su origen, lo que puede propagar la desinformación a mayor escala que la humana.

¿Qué peligros comporta que las empresas estén adaptando el lema muévete rápido y rompe cosas de Mark Zuckerberg al campo de la IA?

Hay muchos riesgos. Los sistemas de IA no son necesariamente fiables y pueden introducir sesgos de raza o género. Cada vez más se usan para la contratación laboral, en la universidad y en lugares donde los prejuicios son muy peligrosos. También estamos viendo sistemas de reconocimiento facial falibles y sesgados en manos de la polícia, en aeropuertos y controles fronterizos. Eso ya está dando lugar a detenciones falsas o a denegar erróneamente la entrada de alguien a un país. Además, hay riesgos para la privacidad, pues para entrenar esas IA se han usado sin consentimiento unos datos personales que luego pueden ser extraídos.

Silicon Valley impulsa un discurso utópico y el apocalíptico sobre la IA: será la panacea contra el cambio climático o extingirá la humanidad. ¿Se están exagerando tanto sus oportunidades como sus riesgos?

Sí, sin duda. Este tipo de predicciones increíblemente optimistas y pesimistas han ocurrido desde los inicios de la IA. En cierto modo, ese discurso de alboroto y fatalidad está influenciado por la imaginación de las novelas y películas de ciencia ficción. Afirman que la IA curará el cáncer, detendrá el cambio climático y erradicará la pobreza, pero está claro que es una exageración, igual que la idea de que matará a todos los humanos. Son especulaciones sin base alguna. Y es lamentable que estas narrativas estén condicionando la regulación de la IA.

¿Falta conocimiento técnico entre los legisladores?

La comunidad académica está muy polarizada sobre cuál debe ser la narrativa y hay gente respetable en ambos bandos y en el medio. ¿Cómo saben los legisladores a quién creer? Los grupos de presión están concentrando sus esfuerzos, especialmente los que tratan de impulsar la idea que la IA supone un riesgo existencial, y están ganando influencia.

¿Es esa narrativa una cortina de humo para ocultar otros problemas como la concentración de poder o el impacto climático de la IA?

Hay parte de razón en eso. La narrativa de que la IA es extremadamente poderosa es buen marketing empresarial, pero también hay gente genuinamente preocupada por ello. Una de las grandes luchas en el mundo comercial es si la IA debe abrirse al mundo con código abierto o si debe estar controlada por un puñado de grandes empresas tecnológicas. A estas les beneficia limitar el código abierto porque supondrá una amenaza competitiva y la narrativa apocalíptica de la IA va en esa dirección.

A las grandes empresas tecnológicas les beneficia limitar el código abierto porque supondrá una amenaza competitiva para sus sistemas de IA

Melanie Mitchell

Casi cada semana tenemos a un Elon Musk o a un Sam Altman asegurando que la Inteligencia Artificial General, la idea de que las máquinas superarán la inteligencia humana, está a la vuelta de la esquina.

Este tipo de predicción no es nueva. Ya en 1970, Marvin Minsky, uno de los pioneros de la IA, aseguró que en una década habría máquinas del mismo nivel que los humanos o superior. Entonces, se creía que para que un ordenador jugase al ajedrez como un gran maestro necesitaría una inteligencia como la humana. No fue así. Ocurrió lo mismo con la traducción automática y ocurre ahora con los chatbots.

La noción de AGI no está clara, pues ha ido cambiando. Minsky imaginaba robots haciendo lo mismo que los humanos: plegar la ropa, arreglar las tuberías... Sin embargo, eso es mucho más difícil de lograr que un sistema que chatee. La historia de la IA nos ha demostrado que la inteligencia humana es mucho más compleja de lo que creíamos. Así que soy escéptica. Conseguir que los ordenadores alcancen nuestro nivel será mucho más difícil de lo que se piensa.

Su mentor, el científico y filósofo Douglas Hofstadter, aseguró que le aterraba la idea de que la inteligencia, la creatividad o las emociones puedan replicarse en máquinas, lo que, dijo, "destruiría mi idea de lo que es la humanidad". ¿Lo comparte?

La conclusión a la que llegué con el libro es que en realidad estamos muy lejos de eso. Hofstadter decía que las máquinas podían utilizar trucos baratos para replicar todo esto tan profundo y complejo que nos hace humanos. En cierto sentido, pensaría que ChatGPT es un truco barato. Todo lo que hace es ser entrenado para predecir la siguiente palabra en un texto, chatear con nosotros y parecer muy humano. Nuestra propia inteligencia está ligada a nuestras emociones, interacciones sociales y autoconsciencia, cosas que estas máquinas no tienen y que serán mucho más difíciles de replicar. Él sigue pensando que los humanos se quedarán en la cuneta y que nos convertiremos en especies inferiores. No creo que eso vaya a ocurrir pronto.

¿Qué rumbo seguirá la IA en los próximos años? ¿Será posible alumbrar sistemas con vista, tacto y oído capaces de entender el mundo que les rodea?

No en los próximos dos años, probablemente. Una de las grandes diferencias entre los sistemas de IA y los humanos es que las máquinas se entrenan de forma muy pasiva, se limitan a procesar los datos que les dan los humanos. Mientras que los humanos, como los bebés, son muy proactivos. Están en el mundo, interactuan con otras personas y deciden qué quieren aprender. Esa curiosidad y capacidad de exploración podría ser esencial para que la IA entienda el mundo, pero todavía es difícil.

Una de las grandes diferencias entre IA y humanos es que las máquinas se entrenan de forma muy pasiva, se limitan a procesar los datos que les damos

Melanie Mitchell

Desde el punto de vista científico, ¿qué falta para llegar a ese punto?

No estoy segura. Una de las cosas que falta es la capacidad de formarse tus propios objetivos, tener motivación, querer algo. La filósofa de la IA Margaret Boden ha dicho que los robots no se apoderarán del mundo porque simplemente no les importa. Quizá tener motivación forme parte de alcanzar la inteligencia. Conseguir que las máquinas tengan iniciativa puede ser más difícil que conseguir que actúen de forma inteligente.

¿Qué le parece la ley que regulará la IA en la Unión Europea?

Es un buen comienzo, es una ley muy buena que adrece las cosas correctas. Es mejor que las leyes estadounidenses, pero la tecnología avanza muy deprisa y la legislación muy despacio, así que a los legisladores les va a resultar difícil seguir el ritmo. Habrá que hacer mucho más. Es un proceso continuo que tiene que cambiar con la tecnología.