Eclosión tecnológica
El creador de ChatGPT lanza una herramienta para detectar los textos escritos por la inteligencia artificial
OpenAI publica un sistema para predecir si un escrito ha sido generado de manera automática pero una máquina, aunque advierte que no es del todo fiable
Carles Planas Bou
Periodista
Periodista tecnológico entre el mundo digital y la política internacional. Centrado en capitalismo de plataformas, IA, vigilancia y derechos digitales. Excorresponsal en Berlín durante más de cuatro años, cubrió los gobiernos de Merkel, la crisis de los refugiados y el auge de la extrema derecha. También ha trabajado en Europa Central y en Canadá. Graduado en Periodismo por la URL y máster en Relaciones Internacionales por la UAB. Ha colaborado con TV3, TVE, Deutsche Welle, Catalunya Ràdio, El Orden Mundial o El Salto.
Carles Planas Bou
La popularización de sistemas de Inteligencia Artificial (IA) como ChatGPT, capaz de generar de forma automática todo tipo de textos, están abriendo un profundo debate social sobre el impacto de esta emergente tecnología. ¿Y si ya no podemos distinguir entre lo que escribe un humano y lo que escribe una máquina? ¿Acelerará eso nuestra desconfianza?
Ese temor crece a medida que el chatbot —capaz de responder falsedades presentándolas como ciertas— es cada vez más utilizado entre estudiantes, investigadores académicos e incluso periodistas para realizar su trabajo.
Eso ha llevado a OpenAI, la compañía desarrolladora de ChatGPT, a lanzar una nueva herramienta gratuita para predecir si un escrito ha sido generado artificialmente. La empresa que ha popularizado esa IA publica ahora otra IA para detectarla.
"No fiable"
Sin embargo, este clasificador "no es totalmente fiable". La propia OpenAI señala que su herramienta en fase inicial identifica correctamente solo el 26% de los textos escritos por ChatGPT u otras IA similares, mientras que en un 9% de los casos etiqueta como texto artificial aquel generado por humanos. "Nuestro clasificador tiene una serie de limitaciones importantes. No debe utilizarse como herramienta principal para la toma de decisiones, sino como complemento de otros métodos para determinar el origen de un texto", explica la compañía.
Así pues, ¿por qué publica OpenAI una herramienta que falla? La empresa ha asegurado que la ha compartido "para recabar opiniones" e ir mejorando su método. Los modelos de lenguaje como el usado por ChatGPT mejoran al entrenarse con nuevas preguntas a resolver. Así, apoyarse en el público para que experimente con este clasificador "imperfecto" es el camino más rápido (y barato) para perfeccionar su producto. Por eso hicieron lo mismo con el lanzamiento de su chatbot.
Sam Altman, uno de los fundadores de OpenAI, ha advertido en las últimas sobre el uso acrítico de ChatGPT porque incurre en fallos y es "imposible de hacer que sea perfecto". Aún así, seguirán experimentando con la IA. Una experimentación que también responde a la voluntad de la compañía —en la que Microsoft ha invertido 10.000 millones de dólares— de avanzarse a la competencia y ser la primera en liderar el emergente mercado de la que puede ser la tecnología de la década. En los últimos días, investigadores habían publicado sus soluciones para detectar el texto generado por IA. Sacando la suya, OpenAI busca seguir ganando terreno.
- Sumergir los pies en vinagre, la nueva tendencia que arrasa: estos son sus beneficios
- Rosalía disfruta de una cena familiar en un famoso restaurante del Born
- Illa replica a Aragonès y Puigdemont: "El uso del catalán ha retrocedido en una década de gobiernos de Junts y ERC
- Un final bochornoso en el Bernabéu
- El gran secreto para acabar con los pececillos de plata
- Olvídate de freír el huevo en la sartén: esta es la fórmula para hacer los mejores huevos fritos
- Álex ya está en casa: "Las Fuerzas Armadas nunca dejan a nadie atrás
- Este es el pueblo de Catalunya que participará en Grand Prix este verano