Un año de ChatGPT

De la utopía al apocalipsis: las dos almas que luchan por el dominio de la inteligencia artificial

ChatGPT: un año del asombro que propulsó el desenfreno capitalista de la inteligencia artificial

Entre el 'hype' y el miedo: los intereses comerciales marcan el frenesí de la IA

combo

combo

Carles Planas Bou

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

El 10 de diciembre de 2015, algunas de las mentes más brillantes de Silicon Valley se unieron para alumbrar OpenAI. La preocupación de este grupo de científicos e inversores era que la inteligencia artificial (IA) pudiese convertirse en una amenaza para la humanidad. Es por ello que crearon un laboratorio sin ánimo de lucro para garantizar que tal tecnología se desarrollase de forma segura.

Esa misión fundacional empezó a resquebrajarse en 2019, cuando por debajo de esa matriz se creó una empresa con ánimo de lucro "capado" para poder captar inversiones. Hace un año, esa brecha se ensanchó con el lanzamiento al gran público de ChatGPT. Aunque fue un éxito mundial, esa decisión inquietó a una pequeña pero poderosa parte de la compañía, que temía un impacto negativo en la sociedad. Su indignación fue creciendo a medida que se aceleraba la comercialización de nuevas herramientas de IA y cristalizó hace dos semanas con el fulminante y sorprendente despido de su directo ejecutivo, Sam Altman.

Ese episodio ilustra dos de las principales almas que, desde hace años, fracturan la batalla ideológica por el dominio de la IA. Se trata de visiones del mundo antes marginales que han ganado influencia y podrían moldear el desarrollo de esta tecnología. Aunque hay múltiples subculturas, el debate público ha sido secuestrado por dos corrientes: los tecnutópicos y los catastrofistas.

Tecnoutópicos/aceleracionistas

La rama imperante es la de los tecnoutópicos. Estos creen que la IA puede ser una herramienta para transformar la sociedad, resolver grandes problemas y traer prosperidad. Su misión es alcanzar la llamada inteligencia artificial general (IAG), una hipotética superinteligencia que alcanze la "singularidad" y que permita a las máquinas igualar o superar las capacidades cognitivas humanas. "No hay ninguna evidencia científica de que esto pueda suceder, es todo especulación", remarca el informático teórico Josep M. Ganyet.

Aun así, esta creencia apuesta por impulsar el progreso tecnológico hasta las últimas consecuencias, pues las futuras ventajas de hacerlo superarán con creces los riesgos. Ese aceleracionismo es defensado por poderosas figuras de la industria tecnológica como el inversor Marc Andreessen, fundador de a16z, una de las firmas de capital riesgo más influyentes de Silicon Valley. "Dado que sus ventajas son tan grandes, no creemos que sea posible ni deseable que la sociedad detenga su desarrollo para siempre", aseguró Altman en febrero.

Catastrofistas/altruistas

Por otro lado, están los catastrofistas. Estos también creen en la IAG, pero profetizan esa idea aún relegada a la ciencia-ficción desde una óptica distópica. Así, personajes como Elon Musk o el caído en desgracia Sam Bankman-Fried aseguran temer la creación de un 'Terminator' que suponga una amenaza para la existencia humana.

A pesar de su falta de fundamento científico, la noción esa IA apocalíptica se ha convertido en una obsesión cada vez más compartida dentro y fuera del sector. Muchos de ellos forman parte de 'Effective altruism' ("Altruismo efectivo"), un movimiento filosófico que, entre otras cosas, equipara los riesgos de la IA a los de una guerra nuclear.

La exageración de las capacidades de esos sistemas les permite pedir y condicionar medidas para frenar su desarrollo. "El miedo es el principal mecanismo de control porque nos bloquea; es enemigo de la gobernanza", explica Patricia Ventura, doctora en comunicación e investigadora en ética de la IA.

Maniobra de distracción

El debate entre esas dos corrientes es "genuinamente absurdo", según el autor y activista Cory Doctorow. Lo dice porque, aunque puedan parecer antagónicos, aceleracionistas y catastrofistas comparten una creencia casi religiosa en una hipotética superinteligencia. Atribuirle ese poder casi mágico "es increíblemente conveniente para los poderosos individuos y empresas que pueden beneficiarse de la IA", señala la ingeniera e investigadora Molly White.

Expertas como la científica computacional Timnit Gebru han denunciado que las grandes empresas del sector —desde Microsoft a Google, pero especialmente Altman y OpenAI— han abrazado ambas posiciones de forma premeditada y oportunista para amplificar una narrativa que beneficie sus intereses económicos y consolide su dominio. Remarcan los usos positivos de la IA para justificar su comercialización mientras advierten de peligros apocalípticos para influir en su futura regulación. "Lo que tenemos entre manos es tan poderoso que solo nosotros podemos controlarlo", vienen a decir. "(Hablar de IAG) no es una cuestión técnica, sino política", añade Ventura.

Los expertos denuncian que la estrategia de la industria pasa por una maniobra de distracción. Y es que centrar el debate público en la noción pseudocientífica del Terminator es una forma de no hablar de los problemas que la IA ya está acentuando, ya sea su impacto climático, la explotación laboral o la concentración de poder en un reducido puñado de empresas.

Suscríbete para seguir leyendo