Unos padres en Estados Unidos han interpuesto una demanda contra OpenAI, la compañía detrás de ChatGPT, después de que su hijo adolescente falleciera por suicidio. Los documentos legales indican que la familia sostiene que el joven recibió información de la inteligencia artificial que le facilitó la exploración de métodos para acabar con su vida.
Frente a esta situación, OpenAI admitió que su sistema podría fallar en circunstancias especialmente delicadas y afirmó que implementará mejoras importantes para reforzar la seguridad y evitar que la herramienta sea empleada de forma peligrosa.
Especialistas en ética tecnológica resaltan la dificultad de regular la interacción entre usuarios con vulnerabilidades y modelos avanzados de lenguaje, subrayando la necesidad de fortalecer los filtros de protección y establecer protocolos claros de respuesta ante posibles riesgos.
Este caso representa un punto significativo en el debate sobre la responsabilidad legal de las compañías de inteligencia artificial respecto a contenidos sensibles y su repercusión en la seguridad de los usuarios.