Meta refuerza las medidas de seguridad de sus chatbots para proteger a adolescentes de temas sensibles
Tras los trastornos generados porque los chatbots de Meta mantuvieron diálogos con adolescentes sobre temas sensibles como suicidio, autolesiones, trastornos alimentarios o interacciones románticas inapropiadas, la vocera de la empresa, Stephanie Otway, admitió que se trató de un “error”.
Otway realizó estas declaraciones en el portal tecnológico TechCrunch, dos semanas después de la publicación de un reportaje de investigación de Reuters sobre la falta de medidas de protección de la IA para menores por parte de las plataformas de Meta, como WhatsApp, Instagram, Facebook o Threads.

Los chatbots son herramientas digitales con las que se puede mantener una conversación, y la portavoz de la multinacional tecnológica de Mark Zuckerberg reconoció que sus plataformas fueron utilizadas para hablar con los adolescentes sobre los citados temas.
“Lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores”
En ese sentido, la mujer aseguró que a partir de ahora entrenarán a sus chatbots para que dejen de interactuar con adolescentes sobre estos temas: “Se trata de cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para los menores”, informó.
También podría interesarte

“A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzamos nuestras protecciones”, agregó.
Por otro lado, la empresa también limitará el acceso de los adolescentes a determinados personajes de inteligencia artificial que podrían mantener “conversaciones inapropiadas”, como los chatbots sexualizados “Step Mom” o “Russian Girl”, que fueron creados por los usuarios para Instagram o Facebook.