Los expertos analizaron el poder de persuasión de estas IA tras enfrentar a 820 personas a cuatro tipos de debates. A su vez, señalan que las elecciones estadounidenses podrían ser un escenario de experimentación.
Por Canal26
Lunes 15 de Abril de 2024 - 10:48
Inteligencia artificial. Foto: Reuters.
Una investigación llevada a cabo por la Escuela Politécnica Federal de Lausana (EPFL) arrojó resultados sorprendentes sobre el poder de persuasión de los grandes modelos de lenguaje (LMM), como la inteligencia artificial Chat-GPT, en comparación con los humanos durante debates en línea.
Los expertos de la EPFL analizaron cómo estas IA influyen en las opiniones de los participantes en debates en línea. En el estudio participaron 820 personas, quienes se enfrentaron a cuatro escenarios diferentes: debatir contra otro humano con información personal previa, contra otro humano sin información personal, contra una IA informada sobre ellos y contra una IA sin información personal.
Inteligencia artificial. Foto: Reuters.
Los hallazgos revelaron que los participantes que debatieron contra IA con acceso a su información personal mostraron un 81,7 % más de posibilidades de llegar a un acuerdo con su oponente en comparación con aquellos que debatieron con humanos. Además, las IA demostraron una capacidad persuasiva incluso cuando no tenían información personal de su oponente, aunque en menor medida que cuando contaban con dichos datos.
Los investigadores sugieren que esto se debe al procesamiento masivo de datos que permite a los LMM aprender cómo presentar argumentos de manera más efectiva para lograr resultados persuasivos.
Inteligencia artificial. Foto: Reuters.
Te puede interesar:
Cuáles son los nombres más feos de Argentina según la Inteligencia Artificial
El director del Laboratorio de Ciencia de Datos de la EPFL, Robert West, destacó que los LMM no solo pueden aprovechar la información personal para adaptar sus argumentos y persuadir en conversaciones en línea, sino que también lo hacen de manera más avanzada que los humanos.
Respecto a futuras aplicaciones, los expertos señalan que las elecciones estadounidenses podrían ser un escenario de experimentación, ya que algunos intentarán utilizar el poder de los LMM para influir en los votantes. Sin embargo, advierten sobre riesgos potenciales, como el uso de IA para suplantar perfiles reales y propagar desinformación en debates en línea.
West concluyó que el peligro radica en la capacidad de los chatbots y LMM para crear argumentos convincentes y difundir narrativas falsas o engañosas en línea, lo cual representa un desafío considerable en términos de ética y responsabilidad en el uso de estas tecnologías.
1
Samsung presenta One UI 8 con Android 16: el listado completo de celulares que recibirán la actualización
2
Los ciberdelincuentes pueden clonar un WhatsApp sin que el usuario se de cuenta: cómo lo hacen y la manera de protegerse
3
Nintendo Switch 2: cuánto cuesta y cuándo llega a la Argentina
4
Sin precedentes: científicos desarrollaron una "piel" que dota a los robots de un tacto más parecido al humano
5
Fallas en WhatsApp: por qué los audios aparecen en color verde y cómo solucionarlo