Los Ángeles, California, Estados Unidos, a 27 de agosto 2025.- La empresa OpenAI, reconoció que su herramienta de inteligencia artificial (IA), ChatGPT comete fallos en casos “sensibles” y prometió cambios tras recibir una demanda por la responsabilidad de su tecnología en el suicidio de un menor de edad en California, Estados Unidos.
El pasado 26 de agosto, los padres de un joven de 16 años que se quitó la vida tras interactuar por meses con el chatbot, demandaron a la compañía tecnológica y a su dueño, Sam Altman.
En el recurso legal, los demandantes argumentaron que la versión GPT-4o, no aplicó medidas de seguridad pese a reconocer las intenciones suicidas del joven.
Como respuesta, OpenAI, publicó una entrada de blog titulada “Ayudar a la gente cuando más lo necesitan” y, si bien no hizo referencia a la demanda, indicó que ChatGPT está entrenado para recomendar a aquellos usuarios que “expresen intención suicida” el contacto de organizaciones de ayuda profesional.
Sin embargo, reconoció que pese a tener ese y otros mecanismos de seguridad para cuando detecte que “alguien es vulnerable y puede estar el riesgo”, los sistemas de su herrmaienta de IA “se quedan cortos” y el chatbot “no se comportó como debía en situaciones sensibles”.








