Estas fallas en el sistema no son fáciles de resolver y pueden ser difíciles de detectar para el ojo humano.
Por Canal26
Viernes 4 de Agosto de 2023 - 19:35
Chat GPT, tecnología. Foto: Reuters
La Inteligencia Artificial también "alucina" y las aplicaciones como ChatGPT y Bard presentan distintos fallos al crear contenido falso o información que no es real.
Estas anomalías todavía no fueron resueltas por los expertos y la profesora del Laboratorio de Lingüística Computacional de la Universidad de Washington, Emily Bender, advierte que las "alucinaciones" de los chatbots no tienen una solución simple.
Herramientas de IA como ChatGPT, fueron diseñados para “inventar cosas” y debido a la falta de coincidencia entre la tecnología y los casos de uso, pueden generar información falsa y creer que es correcta, señaló la experta.
Introducción a ChatGPT. Foto: Unsplash
En este sentido, Bender aseguró que aunque se ajusten los sistemas para evitar las alucinaciones, la Inteligencia Artificial seguirá con “modos de falla” y es probable que los errores sean difíciles de detectar para los humanos que leen la información.
Te puede interesar:
Ránking de la diversión: cuáles son los 5 mejores juegos de cartas, según la inteligencia artificial
En la actualidad, los chatsbots programados con IA son de gran ayuda para muchas personas, contribuyen a la organización de tareas diarias y a la resolución de tareas. Sin embargo, muchos denuncian que su ética de uso.
Una gran cantidad de usuarios indican que ChatGPT cambio su comportamiento y ya no es tan bueno ni eficientice. Según investigadores de la Universidad de Stanford y UC Berkeley, los modelos del chatbot GPT-3.5 y GPT4 empeoraron "sustancialmente con el tiempo".
Los chatbots usados para organizar tareas. Unsplash
Por un lado, ChatGPT4 presenta problemas para resolver ecuaciones matemáticas y solo es preciso en un 2,4%. Mientras que GPT-3.5 dio mejores resultados, con una precisión del 86,8%.
La investigadora pakistaní de Inteligencia Artificial, MehrunNisa Kitchlew explicó que esto ocurre porqué "Los modelos aprenden los sesgos que se introducen en el sistema” y además, aprenden de los contenidos que ellos mismos generan, amplificando los errores y volviéndose más “tontos”.
1
Samsung presenta One UI 8 con Android 16: el listado completo de celulares que recibirán la actualización
2
Los ciberdelincuentes pueden clonar un WhatsApp sin que el usuario se de cuenta: cómo lo hacen y la manera de protegerse
3
Nintendo Switch 2: cuánto cuesta y cuándo llega a la Argentina
4
Las increíbles ventajas de usar modo avión en WhatsApp: ideal para revisar chats viejos sin interrupciones
5
Fallas en WhatsApp: por qué los audios aparecen en color verde y cómo solucionarlo