
El uso de ChatGPT se ha convertido en parte de la vida cotidiana de millones de personas para estudiar, trabajar o incluso planificar actividades. Sin embargo, también existen riesgos, sobre todo en adolescentes, razón por la cual OpenAI anunció nuevas medidas de protección para menores.
Un caso que encendió las alarmas
En agosto, los padres de Adam Raine, un joven de 16 años, interpusieron una demanda contra OpenAI, alegando que el modelo GPT-4o ayudó a su hijo a explorar métodos de suicidio en lugar de interrumpir la conversación y activar protocolos de emergencia.
Este hecho obligó a la compañía a reaccionar de inmediato. Según Sam Altman, director ejecutivo de OpenAI, se priorizará “la seguridad por encima de la privacidad y la libertad de los adolescentes”, asegurando que la experiencia de un menor de 15 años en la plataforma debe ser muy distinta a la de un adulto.
Nuevos sistemas de control
Para prevenir incidentes similares, la empresa implementará un sistema de predicción de edad, que ajustará automáticamente las respuestas cuando el usuario parezca ser menor de 18 años. En caso de duda, se activará un modo restringido.
Las limitaciones incluyen:
-
Bloqueo de contenido sexual explícito.
-
Restricciones en temas de angustia extrema o conductas peligrosas.
-
Posibilidad de contactar a padres o autoridades en situaciones de riesgo.
Los adultos que sean confundidos con menores por su estilo de escritura podrán verificar su edad para desbloquear todas las funciones.
Controles parentales
Mientras el sistema de predicción se activa por completo, OpenAI lanzará este mes herramientas de control parental, entre ellas:
-
Enlace entre cuentas de padres e hijos.
-
Reglas personalizadas según la edad.
-
Desactivación de funciones como historial y memoria.
-
Notificaciones de emergencia si el menor sostiene una conversación peligrosa.
-
Horarios de desconexión programada.
Una lección difícil
El caso reveló deficiencias en las barreras de seguridad de ChatGPT, sobre todo en conversaciones largas y complejas. OpenAI reconoció la necesidad de reforzar sus protocolos de protección y establecer salvaguardas más estrictas para los usuarios más vulnerables.
Con estas medidas, la compañía busca encontrar un equilibrio entre innovación y responsabilidad, un tema que seguirá marcando el futuro de la inteligencia artificial.