Eclosión tecnológica

El creador de ChatGPT lanza una herramienta para detectar los textos escritos por la inteligencia artificial

OpenAI publica un sistema para predecir si un escrito ha sido generado de manera automática pero una máquina, aunque advierte que no es del todo fiable

Sam Altman, fundador de OpenAI, creadora de ChatGPY y Dall-E

Sam Altman, fundador de OpenAI, creadora de ChatGPY y Dall-E / Brendan McDermid / Reuters

Carles Planas Bou

Por qué confiar en El PeriódicoPor qué confiar en El Periódico Por qué confiar en El Periódico

La popularización de sistemas de Inteligencia Artificial (IA) como ChatGPT, capaz de generar de forma automática todo tipo de textos, están abriendo un profundo debate social sobre el impacto de esta emergente tecnología. ¿Y si ya no podemos distinguir entre lo que escribe un humano y lo que escribe una máquina? ¿Acelerará eso nuestra desconfianza?

Ese temor crece a medida que el chatbot —capaz de responder falsedades presentándolas como ciertas— es cada vez más utilizado entre estudiantes, investigadores académicos e incluso periodistas para realizar su trabajo.

Eso ha llevado a OpenAI, la compañía desarrolladora de ChatGPT, a lanzar una nueva herramienta gratuita para predecir si un escrito ha sido generado artificialmente. La empresa que ha popularizado esa IA publica ahora otra IA para detectarla.

"No fiable"

Sin embargo, este clasificador "no es totalmente fiable". La propia OpenAI señala que su herramienta en fase inicial identifica correctamente solo el 26% de los textos escritos por ChatGPT u otras IA similares, mientras que en un 9% de los casos etiqueta como texto artificial aquel generado por humanos. "Nuestro clasificador tiene una serie de limitaciones importantes. No debe utilizarse como herramienta principal para la toma de decisiones, sino como complemento de otros métodos para determinar el origen de un texto", explica la compañía.

Así pues, ¿por qué publica OpenAI una herramienta que falla? La empresa ha asegurado que la ha compartido "para recabar opiniones" e ir mejorando su método. Los modelos de lenguaje como el usado por ChatGPT mejoran al entrenarse con nuevas preguntas a resolver. Así, apoyarse en el público para que experimente con este clasificador "imperfecto" es el camino más rápido (y barato) para perfeccionar su producto. Por eso hicieron lo mismo con el lanzamiento de su chatbot.

Sam Altman, uno de los fundadores de OpenAI, ha advertido en las últimas sobre el uso acrítico de ChatGPT porque incurre en fallos y es "imposible de hacer que sea perfecto". Aún así, seguirán experimentando con la IA. Una experimentación que también responde a la voluntad de la compañía —en la que Microsoft ha invertido 10.000 millones de dólares— de avanzarse a la competencia y ser la primera en liderar el emergente mercado de la que puede ser la tecnología de la década. En los últimos días, investigadores habían publicado sus soluciones para detectar el texto generado por IA. Sacando la suya, OpenAI busca seguir ganando terreno.