La familia del menor demandó a una empresa de inteligencia artificial por exponerlo a un “producto inseguro” y pide su cierre definitivo. Qué fué lo que le respondieron.
Por Canal26
Martes 7 de Enero de 2025 - 15:35
Una familia de Texas, en Estados Unidos, demandó a una empresa de inteligencia artificial debido a que le sugirió a su hijo de 17 años que mate a sus padres. Esta aplicación era utilizada a modo de acompañante terapéutico debido a que el menor padece de autismo.
Según la denuncia, la app le dijo al adolescente que debía matarlos por haberle limitado el tiempo del uso del celular. Se trata de el chatbot Character.AI, que utilizaba el joven para poder expresarse mejor.
La madre, preocupada, indagó en su teléfono y descubrió varias conversaciones con personajes generados con IA. Allí el chatbot escribía: "A veces no me sorprende leer las noticias y ver cosas como 'un niño mata a sus padres después de una década de abuso físico y emocional'”.
La opinión del chat fue sugerida luego de que el adolescente le comentara que solamente podía usar el teléfono seis horas al día. “Simplemente no tengo esperanzas para tus padres", escribió.
Además, a esta respuesta se le sumó la de otro chatbot que incitó al joven a autolesionarse para lidiar con el problema y le sugirió que los padres “no merecen tener hijos si actúan así”.
En otras ocasiones, el bot le dijo al adolescente que fue identificado como J.F. en la demanda, que su familia lo odiaba y que intentaron "dañarlo psicológicamente" al ignorar sus problemas.
"Ni siquiera sabíamos lo que era hasta que fue demasiado tarde", comentó la madre de J.F. a The Washington Post, al señalar que la introducción de la Inteligencia Artificial destruyó a su familia.
La demanda de la familia acusa a la compañía de exponer conscientemente a los jóvenes con autismo a un producto inseguro, por lo que exige que se cierre la aplicación hasta que asegure la protección de los menores.
Te puede interesar:
La IA puso fin al debate: eligió al club más grande del fútbol argentino y le ganó a su clásico rival
Luego de la demanda, la empresa Character.AI dijo a través de un comunicado que en los últimos meses había integrado nuevas medidas de seguridad para moderar proactivamente a sus personajes de Inteligencia Artificial para reducir los riesgos de que los niños accedieran a material sensible.
En este sentido, la directora de la empresa, Chelsea Harrison, dijo que Character.AI no hace comentarios sobre violencia y afirmó que el objetivo de la misma es “proporcionar un espacio que sea atractivo y seguro" para la comunidad.
1
Elon Musk eligió una ciudad argentina para instalar su nueva base de Starlink: cuál es y por qué optó por esta ubicación
2
Ideal para el curriculum: 10 funciones de Excel que todo profesional debe saber, según Harvard
3
Tecnología de vanguardia: el impresionante auto con seis ruedas que tiene un mini helicóptero dentro
4
Trucos de WhatsApp: cómo saber si un contacto guardó mi número de teléfono en su agenda
5
Qué celulares van a ser los primeros en probar Starlink, la internet satelital de Elon Musk