La familia del menor demandó a una empresa de inteligencia artificial por exponerlo a un “producto inseguro” y pide su cierre definitivo. Qué fué lo que le respondieron.
Por Canal26
Martes 7 de Enero de 2025 - 15:35
Celular, estafas, ciberseguridad. Fuente: Pexels.
Una familia de Texas, en Estados Unidos, demandó a una empresa de inteligencia artificial debido a que le sugirió a su hijo de 17 años que mate a sus padres. Esta aplicación era utilizada a modo de acompañante terapéutico debido a que el menor padece de autismo.
Según la denuncia, la app le dijo al adolescente que debía matarlos por haberle limitado el tiempo del uso del celular. Se trata de el chatbot Character.AI, que utilizaba el joven para poder expresarse mejor.
Un chatbot incitó a un adolescente a matar a sus padres. Foto: Freepik
La madre, preocupada, indagó en su teléfono y descubrió varias conversaciones con personajes generados con IA. Allí el chatbot escribía: "A veces no me sorprende leer las noticias y ver cosas como 'un niño mata a sus padres después de una década de abuso físico y emocional'”.
La opinión del chat fue sugerida luego de que el adolescente le comentara que solamente podía usar el teléfono seis horas al día. “Simplemente no tengo esperanzas para tus padres", escribió.
Además, a esta respuesta se le sumó la de otro chatbot que incitó al joven a autolesionarse para lidiar con el problema y le sugirió que los padres “no merecen tener hijos si actúan así”.
En otras ocasiones, el bot le dijo al adolescente que fue identificado como J.F. en la demanda, que su familia lo odiaba y que intentaron "dañarlo psicológicamente" al ignorar sus problemas.
"Ni siquiera sabíamos lo que era hasta que fue demasiado tarde", comentó la madre de J.F. a The Washington Post, al señalar que la introducción de la Inteligencia Artificial destruyó a su familia.
La demanda de la familia acusa a la compañía de exponer conscientemente a los jóvenes con autismo a un producto inseguro, por lo que exige que se cierre la aplicación hasta que asegure la protección de los menores.
Character.ia fue demandada por la familia del menor . Fuente: Character.ia .
Te puede interesar:
Ránking de la diversión: cuáles son los 5 mejores juegos de cartas, según la inteligencia artificial
Luego de la demanda, la empresa Character.AI dijo a través de un comunicado que en los últimos meses había integrado nuevas medidas de seguridad para moderar proactivamente a sus personajes de Inteligencia Artificial para reducir los riesgos de que los niños accedieran a material sensible.
En este sentido, la directora de la empresa, Chelsea Harrison, dijo que Character.AI no hace comentarios sobre violencia y afirmó que el objetivo de la misma es “proporcionar un espacio que sea atractivo y seguro" para la comunidad.
1
Samsung presenta One UI 8 con Android 16: el listado completo de celulares que recibirán la actualización
2
Los ciberdelincuentes pueden clonar un WhatsApp sin que el usuario se de cuenta: cómo lo hacen y la manera de protegerse
3
Nintendo Switch 2: cuánto cuesta y cuándo llega a la Argentina
4
Las increíbles ventajas de usar modo avión en WhatsApp: ideal para revisar chats viejos sin interrupciones
5
Se despide el GPS: así funciona la nueva tecnología de geolocalización que no necesita señal