Un estudio sugiere que el chatbot de OpenAI está cambiando su comportamiento.
Por Canal26
Lunes 31 de Julio de 2023 - 15:42
ChatGPT, de OpneAI. Foto: Reuters.
Los chatbots como ChatGPT, de OpenAI, ayudan a a millones de personas a ser más eficientes. Desde estudiantes de secundaria a programadores de software, son muchos quienes se apoyan en la Inteligencia Artificial (IA).
Pese a esto, no todo es color de rosas, ya que muchos denuncian que la IA les roba sus ideas creativas y plantean dudas éticas sobre su uso.
En medio de este debate, gran cantidad de usuarios indican que ChatGPT ya no es tan bueno como solía ser. Según investigadores de la Universidad de Stanford y UC Berkeley, dos modelos de este chatbot, GPT-3.5 y GPT4, están cambiando su comportamiento y empeoraron "sustancialmente con el tiempo".
Inteligencia Artificial. Foto: Reuters.
Te puede interesar:
Cuáles son los nombres más feos de Argentina según la Inteligencia Artificial
El estudio comparó el rendimiento de ambos modelos entre marzo y junio de 2023 en cuatro tareas: su capacidad para resolver problemas matemáticos, responder a preguntas sensibles, generar código y razonamiento visual.
ChatGPT4 obtuvo resultados adversos especialmente en la resolución de problemas matemáticos, donde su precisión cayó hasta solo el 2,4% en junio, comparado con el 97,6% que obtuvo en marzo. Por su parte, GPT-3.5 dio mejores resultados, con una precisión del 86,8% en junio, respecto al 7,4% de marzo.
"Los modelos aprenden los sesgos que se introducen en el sistema y, si siguen aprendiendo de los contenidos que ellos mismos generan, estos sesgos y errores se amplificarán y los modelos podrían volverse más tontos", explicó MehrunNisa Kitchlew, investigadora de IA de Pakistán.
Por otro lado, otro estudio realizado por investigadores del Reino Unido y Canadá concluyó que el entrenamiento de nuevos modelos lingüísticos con los datos generados por versiones anteriores hace que "olviden" cosas o cometan más errores, lo que se denomina "colapso del modelo".
OpenAI ChatGPT. Foto: Reuters
"Es una realidad inevitable", afirma Ilia Shumailov, autor principal del artículo e investigador de la Universidad de Oxford, quien explicó también que se trata de un proceso repetido de imprimir y escanear la misma imagen una y otra vez.
Para evitar un mayor deterioro, el experto afirmó que la solución es conseguir datos generados por humanos para entrenar los modelos de IA.
Además, Shumailov insinuó que OpenAI le está dando más importancia a los datos anteriores y sólo introduce pequeños cambios en los modelos ya existentes. "Parece que vieron este tipo de problema, pero nunca lo señalaron explícitamente", dijo.
Te puede interesar:
Lo mejor que vas a ver hoy: ChatGPT presentó fallas este martes y los memes no se hicieron esperar
Ante estas acusaciones, Peter Welinder, vicepresidente de Producto y Asociaciones de OpenAI, tuiteó la semana pasada que "no, no hemos hecho GPT-4 más tonto. Todo lo contrario: hacemos que cada nueva versión sea más inteligente que la anterior".
La hipótesis de Welinder es que cuanto más se utiliza, más problemas se detectan. Pero aunque OpenAI diera más importancia a los datos de entrenamiento anteriores, el "empeoramiento" del rendimiento de GPT4 contradice su afirmación.
1
Samsung presenta One UI 8 con Android 16: el listado completo de celulares que recibirán la actualización
2
Los ciberdelincuentes pueden clonar un WhatsApp sin que el usuario se de cuenta: cómo lo hacen y la manera de protegerse
3
Nintendo Switch 2: cuánto cuesta y cuándo llega a la Argentina
4
Las increíbles ventajas de usar modo avión en WhatsApp: ideal para revisar chats viejos sin interrupciones
5
Se despide el GPS: así funciona la nueva tecnología de geolocalización que no necesita señal