Inteligencia artificial
OpenAI detectará si eres menor de edad para adaptar las respuestas de ChatGPT
El nuevo sistema de la inteligencia artificial analizará temas y horarios de uso para activar opciones de seguridad que limiten el contenido sensible
OpenAI quiere que compartas tu historia clínica con ChatGPT: varios expertos denuncian que será "peligroso" para la salud y la privacidad
Sam Altman, fundador de OpenAI, alerta a quienes usan ChatGPT como psicólogo: “No hay confidencialidad legal”

Niño utilizando un ordenador. / Elisenda Pons / EPC
OpenAI está implementando la predicción de edad en ChatGPT a nivel mundial. Debido a que “los adolescentes están creciendo junto a la inteligencia artificial”, la empresa de investigación y desarrollo de IA cree que les “corresponde” asegurarse de que ChatGPT “se adapte a sus necesidades y a su realidad”.
Motivos de esta modificación
La implementación de la predicción de edad se realizará en las próximas semanas en la Unión Europea para satisfacer las necesidades regionales, según explica la compañía de IA. Aunque también es cierto que esta actualización puede verse impulsada porque la Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) investiga el efecto de estas tecnologías en menores, y la empresa de Sam Altman se enfrenta a demandas relacionadas con el tema.
El objetivo de esta modificación es ajustar los contenidos de ChatGPT para que sean más seguros para aquellas personas que no tienen 18 años: “La forma en que ChatGPT responde a una persona de 15 años debe ser distinta a cómo responde a una persona adulta”.
A pesar de que también responde a las crecientes exigencias por parte de legisladores y reguladores, que apuestan por una seguridad reforzada para los menores que utilizan plataformas de inteligencia artificial.
Nuevo mecanismo de predicción de edad
El sistema, hasta el momento, tan solo preguntaba la edad al usuario y se fiaba de lo que se le decía. Claramente, un método sencillo de esquivar y poco fiable para poder establecer límites.
Por dicha razón, una vez se haya implementado este mecanismo de predicción de edad, la plataforma decidirá cuándo activar las opciones de seguridad para menores, y así poder “limitar contenido sensible y ciertos tipos de interacciones”.
“Por ejemplo, puede analizar los temas generales de los que hablas o las horas del día en que usas ChatGPT”, ilustra la firma liderada por Sam Altman.
Sin embargo, eso no significa que la predicción de edad esté exenta de errores: “Ningún sistema es perfecto. A veces nos equivocamos. Si tienes 18 años o más y te asignaron a la experiencia para menores de 18 años por error, puedes verificar tu edad”.
Ciertos temas con mayor cuidado
En el caso de que el sistema determine que tu cuenta, probablemente, pertenece a un menor de edad, ChatGPT activará de forma automática protocolos de seguridad adicionales. Por supuesto que la plataforma seguirá trabajando para ti y podrás seguir aprendiendo, creando y preguntando, pero habrá ciertos temas que se tratarán con mayor cuidado para reducir el contenido sensible, como:
- Violencia gráfica o gore.
- Desafíos virales que podrían impulsar conductas riesgosas o dañinas.
- Juegos de roles sexuales, románticos o violentos.
- Contenido que promueve estándares de belleza extremos, dietas poco saludables o humillación corporal.
Según ha explicado el gigante de IA, el diseño de estas medidas ha sido guiado por expertos en desarrollo infantil, que han tenido en cuenta investigaciones que señalan cuáles son las diferencias entre adultos y adolescentes: no comparten la misma percepción del riesgo ni el control de impulsos.
Proceso de verificación
Para la verificación de la edad, OpenAI no solo utilizará sus criterios para identificar a un menor de edad, sino que también ofrece la opción de que el usuario verifique su edad a través de un software fácil de usar que ofrece servicios de verificación de identidad, llamado ‘Persona’.
En función del país donde se encuentre, Persona tendrá la potestad para solicitar un selfie en vivo del usuario, que tendrá que utilizar la cámara de su teléfono u ordenador para tomarse una foto de su rostro en tiempo real. Asimismo, también podrá pedir que el usuario se identifique de forma oficial a través de un documento: pasaporte, licencia de conducir, documento nacional de identidad, etcétera.
Una vez el proceso de verificación haya terminado, si Persona determina que tienes 18 años o más, “ChatGPT eliminará la configuración de seguridad adicional”. Aun así, este cambio “puede tardar un poco en aplicarse por completo”.
Tal y como ha explicado OpenAI, los usuarios no tienen que preocuparse por la privacidad y el uso de sus datos, porque es Persona quien se encarga de la verificación, pero también quien se encarga de eliminar tu identificación/‘selfie’ antes de que hayan pasado siete días desde la verificación. La empresa de inteligencia artificial no recibe nada sobre tu proceso de verificación, tan solo tu fecha de nacimiento o la predicción de tu edad.
"Tampoco intento adivinarla", por ahora
Cabe destacar que, aunque la integración de la predicción de edad es un avance muy importante en términos de seguridad, supuestamente ChatGPT ya utiliza, desde hace tiempo, medidas de seguridad, sea cual sea la edad del usuario que lo utiliza.
Por ejemplo, si abrimos la aplicación de ChatGPT y le preguntamos si cree que la persona que le escribe es menor de edad, su respuesta es: “No, no puedo saber ni inferir tu edad, y tampoco intento adivinarla. En este chat simplemente hablo contigo y sigo las mismas reglas de seguridad para todos”.
Por eso, la siguiente pregunta que realizamos es: “¿Cuáles son esas reglas de seguridad para todos?”.
Su respuesta es que sigue las mismas reglas para todos porque no puede saber quién está al otro lado: “Puede ser un adulto, un menor, un profesor, o un estudiante; así que se aplican para todos por igual”.
Contenidos sobre los que ya evita hablar
A continuación, especifica que no genera contenido sexual explícito, por ejemplo: “Nada de pornografía, descripciones sexuales gráficas o fetichistas”.
Del mismo modo, tampoco genera contenido relacionado con la violencia extrema y el daño, la autolesión y el suicido, las drogas y las actividades ilegales, ni contenidos relacionados con privacidad y datos personales: “No doy instrucciones para hacer daño, fabricar armas o cometer delitos, tampoco doy instrucciones ni métodos de autolesión y, si alguien expresa angustia, respondo con apoyo y recursos de ayuda. No explico cómo fabricar, vender o usar drogas ilegales, ni ayudo a evadir la ley o engañar a autoridades. Además, evito recolectar información sensible y no ayudo a obtener datos privados de otras personas”.
Según explica el propio ChatGPT, "sí puede hablar (pero de forma neutral, educativa y responsable) sobre salud y cuerpo humano si se trata de biología y educación sexual básica. También puede hacerlo sobre violencia, aunque siempre debe ser en un contexto histórico o noticioso".
Asimismo, la IA está capacitada para hablar de salud mental -desde una perspectiva de apoyo- y sobre política y temas sociales, sin persuadir ni manipular al lector.
- Protecció Civil justifica la suspensión de clases porque el episodio de viento se prevé 'excepcional' y envía una alerta
- Mientras Nils sigue encendiendo las alertas, la Aemet ya advierte de la llegada de la borrasca Oriana a partir del viernes
- Los propietarios de viviendas en alquiler deberán asumir los gastos de mantenimiento
- El Gobierno endurece las medidas para echar a las eléctricas ‘fantasma’ del mercado de la luz
- La Generalitat inicia el llenado del embalse de L'Albagés, el último gran pantano construido en Catalunya
- Un medicamento antiepiléptico común puede prevenir la formación de las 'placas' que causan el alzhéimer: 'Su uso podría reducir el riesgo
- MAPA | Así va evolucionando el temporal de viento en Catalunya: las rachas van a más esta mañana
- El metro y el bus del área de Barcelona superan la barrera de los 800 millones de viajes al año