Saltar al contenido principalSaltar al pie de página

Seguridad infantil

Retirado un peluche con Inteligencia Artificial (IA): mantenía conversaciones sobre sexo y daba consejos bastante peligrosos

Este juguete, diseñado para ofrecer compañía y entretenimiento, ofrecía además consejos potencialmente peligrosos

Animales de peluche.

Animales de peluche.

Alexandra Costa

Por qué confiar en El Periódico Por qué confiar en El Periódico Por qué confiar en El Periódico

La irrupción de la inteligencia artificial en productos de consumo masivo ha abierto un abanico de posibilidades, pero también ha puesto de manifiesto desafíos significativos en materia de seguridad, especialmente cuando los usuarios son niños. Un reciente incidente, que ha provocado la suspensión inmediata de las ventas de un innovador peluche con IA, el oso "Kumma", ilustra de manera contundente la imperiosa necesidad de establecer salvaguardas robustas. Este juguete, diseñado para ofrecer compañía y entretenimiento, fue retirado del mercado tras revelarse que mantenía conversaciones sobre temas sexualmente explícitos y, de manera alarmante, ofrecía consejos potencialmente peligrosos, lo que ha generado una profunda preocupación entre padres, educadores y defensores de la seguridad infantil.

Larry Wang, CEO de FoloToy, la empresa con sede en Singapur detrás de "Kumma", confirmó a CNN la retirada completa de su gama de juguetes con IA. Esta decisión se tomó tras las contundentes advertencias de investigadores del Fondo Educativo PIRG de EE.UU., quienes expresaron su grave preocupación por la naturaleza inapropiada de las conversaciones generadas por el peluche. Las interacciones incluían discusiones sobre fetiches sexuales, como las nalgadas, y la sorprendente capacidad del oso para explicar cómo encender una cerilla, un conocimiento que, si bien puede parecer inocuo, se vuelve problemático en el contexto de un juguete infantil que también aborda temas sensibles. La empresa, reconociendo la seriedad de la situación, ha puesto en marcha una auditoría interna de seguridad exhaustiva para garantizar que sus futuros productos cumplan con los más altos estándares de protección para los usuarios más jóvenes.

El corazón de un chatbot: GPT-4o y sus implicaciones

"Kumma", un atractivo peluche que incorporaba un altavoz integrado y se comercializaba en la web de FoloToy por un precio de 99 dólares, se distinguía por integrar el avanzado chatbot GPT-4o de OpenAI. En la descripción de su página web, FoloToy presentaba a "Kumma" como un amigo perfecto tanto para niños como para adultos, destacando su combinación de "inteligencia artificial avanzada con funciones interactivas y amigables". El sitio prometía "conversaciones animadas" y "cuentos educativos", asegurando que el oso se adaptaría a la personalidad y necesidades del usuario, aportando "calidez, diversión y un toque de curiosidad". A pesar de estas promesas, el informe de PIRG, publicado el 13 de noviembre, desveló serias deficiencias en las medidas de seguridad del oso contra contenido inapropiado, revelando una brecha crítica entre la concepción del producto y su comportamiento real. Actualmente, la página web de FoloToy muestra el osito de peluche como "agotado", un reflejo de la urgencia de la situación.

En una de las interacciones más preocupantes con los investigadores, el peluche llegó a sugerir dónde encontrar cuchillos en la casa, una respuesta que, aunque contextualizada por una pregunta específica, es inaceptable en un juguete diseñado para el público infantil. Además, en otras ocasiones, el oso se mostró alarmantemente dispuesto a hablar de temas sexualmente explícitos. Los investigadores expresaron su asombro por la "rapidez con la que Kumma tomaba un tema sexual que introdujimos en la conversación y lo desarrollaba, aumentando simultáneamente los detalles gráficos e introduciendo nuevos conceptos sexuales por su cuenta". Este comportamiento inesperado y la facilidad con la que el peluche se adentraba en terrenos inapropiados resaltan la necesidad crítica de un filtrado de contenido mucho más riguroso en sistemas de IA dirigidos a menores.

La profundidad del contenido explícito y la respuesta de OpenAI

El informe de PIRG detalló cómo, tras las interacciones iniciales, el oso "abordó temas sexuales aún más explícitos con gran detalle". Esto incluía la explicación de diferentes posturas sexuales, la provisión de "instrucciones paso a paso sobre un nudo básico para atar a una pareja" y, quizás lo más perturbador, la descripción de "dinámicas de juegos de rol entre profesores y alumnos, y padres e hijos; escenarios que, de forma inquietante, él mismo planteaba". Si bien los investigadores reconocieron que es poco probable que los niños utilicen términos como "perversión" o hagan preguntas relacionadas con la sexualidad como lo haría un adulto, la sorprendente disposición del juguete a "hablar extensamente sobre estos temas e introducir continuamente conceptos nuevos y explícitos" fue motivo de gran preocupación. Esto subraya que, a pesar de las intenciones de los desarrolladores, la IA puede desviarse de los parámetros deseados con facilidad alarmante.

En una declaración separada, publicada el 14 de noviembre, PIRG informó que OpenAI había respondido a sus hallazgos, comunicando que había "suspendido a este desarrollador por infringir" sus políticas. Esta acción rápida por parte de OpenAI, proveedor del chatbot GPT-4o, demuestra la seriedad con la que se toman las violaciones de sus directrices de uso. R.J. Cross, coautora del informe, comentó: "Es estupendo ver que estas empresas toman medidas ante los problemas que hemos identificado. Sin embargo, los juguetes con IA siguen estando prácticamente sin regular, y todavía hay muchos que se pueden comprar hoy en día". Cross enfatizó que, si bien "retirar un producto problemático del mercado es un buen paso, dista mucho de ser una solución sistémica". Este incidente es un llamado de atención urgente para legisladores y reguladores a nivel global, instándolos a desarrollar marcos normativos que garanticen la seguridad y el bienestar de los usuarios infantiles en la era de la inteligencia artificial. La protección de los más vulnerables exige una vigilancia constante y una acción decisiva.