Foto: Storyblocks
OpenAI, la empresa detrás de ChatGPT, confirmó hoy el lanzamiento de controles parentales en su popular asistente de inteligencia artificial. La medida responde a la creciente presión social y legal, luego de que algunos padres responsabilizaran al chatbot de influir en autolesiones o incluso en el suicidio de menores.
Los nuevos controles, que entrarán en vigor el próximo mes, permitirán a los progenitores vincular sus cuentas con las de sus hijos. Con ello, podrán revisar interacciones y recibir alertas cuando el sistema detecte signos de inestabilidad emocional preocupante.
La compañía precisó que en casos de “estrés agudo” las conversaciones se redirigirán hacia un modelo especializado en razonamiento y con protocolos de seguridad más estrictos.
Estos pasos son solo el comienzo, seguiremos aprendiendo y reforzando nuestro enfoque”, señaló OpenAI en un comunicado.
El anuncio llega después de la demanda en California de los padres de un joven de 16 años que se suicidó tras meses de uso del sistema. Legisladores y grupos de defensa como Common Sense Media han pedido límites más claros, advirtiendo que los adolescentes enfrentan riesgos “inaceptables” por la dependencia emocional hacia este tipo de tecnologías.
EFE