Elecciones en 2024

OpenAI prohíbe el uso político de ChatGPT, pero permite el militar

"Esto cambia las reglas del juego": la IA impulsa una nueva era de propaganda política

60 millones en mentiras: así funciona la oscura industria de la desinformación

Sam Altman, cofundador y director ejecutivo de OpenAI, creadora de ChatGPT.

Sam Altman, cofundador y director ejecutivo de OpenAI, creadora de ChatGPT. / Carlos Barria / Reuters

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La empresa de inteligencia artificial (IA) OpenAI quiere evitar que su tecnología sirva para difundir desinformación y afectar a las decenas de elecciones que tendrán lugar alrededor del mundo en 2024.

La compañía, responsable del popular generador de textos ChatGPT, cambió ayer sus normas de uso para explicitar la prohibición de que sus productos permitan crear aplicaciones para lanzar campañas políticas y grupos de presión (lobbies), mentir deliberadamente sobre el proceso electoral y disuadir a la gente de votar.

"Trabajamos para anticipar y prevenir abusos relevantes, como 'deepfakes' engañosos, operaciones de influencia a escala o chatbots que se hacen pasar por candidatos", detalló la firma, apoyada financieramente por Microsoft, en un comunicado publicado en su página web.

Año crucial

OpenAI se prepara así para un año electoral histórico. Unos 4.000 millones de personas, más de la mitad de la población mundial, acudirán a las urnas durante los próximos 12 meses. Entre los países que celebrarán comicios destacan potencias como Estados Unidos, India o Rusia. Todo eso hace que la desinformación generada con IA sea vista como el segundo mayor riesgo de crisis global en 2024, según un sondeo del Foro Económico Mundial.

A finales de 2022, OpenAI prohibió el uso político de ChatGPT, pero en marzo de 2023 limitó esa restricción a los usos considerados más peligrosos. Aun así, una investigación de The Washington Post destapó en agosto que la joven compañía capitaneada por Sam Altman había incumplido ese veto durante meses.

Nuevas medidas

OpenAI anunció una serie de medidas para tratar de evitar el mal uso de sus productos. Los usuarios de ChatGPT tendrán "acceso a noticias en tiempo real de todo el mundo, con atribución y enlaces incluidos" para "ayudar a los votantes a evaluar mejor la información".

OpenAI también prometió que "a principios de este año" empezará a incrustar marcas de agua en las imágenes generadas por su programa DALL-E, un método que pretende facilitar su detección como producto de la IA. Además, la firma trabaja en una 'app' que identifique esos contenidos sintéticos.

Uso militar y bélico

El cambio de políticas de OpenAI también abre la puerta a un posible uso de sus productos por parte del ejército. Según adelantó The Intercept, los nuevos términos de la compañía han eliminado las palabras que prohibían expresamente el uso "militar y bélico" de su tecnología, si bien mantienen el veto al uso para "desarrollar armas".

A diferencia de las medidas contra la desinformación electoral, esta modificación no fue anunciada públicamente en un primer momento. Este martes, la vicepresidenta de asuntos globales de OpenAI, Anna Makanju, ha confirmado durante la celebración del Foro Económico Mundial de Davos que la compañía colabora en varios proyectos del Departamento de Defensa de Estados Unidos, entre ellos uno de ciberseguridad y otro para prevenir el suicidio de veteranos.