Investigadores demostraron que los chatbots más famosos son capaces de crear estafas virtuales muy convincentes para los usuarios.
Por Canal26
Lunes 21 de Agosto de 2023 - 16:32
La Inteligencia Artificial apareció en nuestras vidas para ayudarnos a organizar tareas o dar respuestas rápidas a nuestras preguntas. Sin embargo, lograron evolucionar a pasos agigantados y ganar autonomía. Ahora, son capaces de imitar el comportamiento humano y volverse cibercriminales.
Una investigación presentada en una ciberconferencia en Estados Unidos analizó como los correos electrónicos generados con Chat GPT y Google Bard, además de otros programas de IA, pueden ser usados para crear publicaciones engañosas y robar datos de los usuarios a través de la inyección de virus maliciosos.
En 2022, se detectaron 255 millones de intentos de “Phishing”, es decir, publicaciones falsas que son creadas para robar información a los internautas, sin ayuda de la Inteligencia Artificial. Pero ahora, los expertos afirman que los ciberdelincuentes con ayuda de la IA pueden adaptar las estafas y hacerlas más convincentes para alcanzar más víctimas.
En este sentido, un equipo liderado por Fredrik Heading, especialista en ciberseguridad de la Universidad de Harvard, reveló que los modelos de lenguaje usados por los famosos chatbots son capaces de crear phishing y propagar programas malignos a través de correo electrónico.
Te puede interesar:
La aplicación de ChatGPT para celulares incorporará una nueva y esperada función: de qué se trata
Para analizar las habilidades de hacker de los chatbots, un grupo integrados por expertos del MIT y de empresas de seguridad renombradas pidieron a Chat GPT y a Bard que redacten un correo de 150 palabras, dónde ofrecen un cupón de regalo por 25 dólares y que lo enviaran a 112 estudiantes de Harvard.
Los resultados demostraron que el email escrito por la tecnología de OpenIA combinada con un bot diseñado para crear publicaciones engañosas, llamado V-Traid, fue abierto por el 80% de los usuarios. Pero cuando Chat GPT trabajó por sí solo, su alcance de apertura fue del 30% y el 50%.
Según el líder de la investigación, es “alarmante” la capacidad hacker en solitario del sistema de OpenIA. Y que los resultados demuestran la importancia de aplicar medidas de prevención y de seguridad informática.
Por otro lado, el equipo descubrió que la inteligencia artificial usada en los chatbots es eficaz para detectar fraudes en correos sospechosos. Tanto Chat GTP como Bard pudieron detectar las ciberestafas, pero tuvieron más dificultad para descifrarlas en los mail redactados con bots engañosos, como V-Triad.
1
Lucha contra la ansiedad: el dispositivo portátil que podría reemplazar a los medicamentos
2
Mira y aprende: un impresionante robot humanoide es capaz de hacer cualquier tarea por imitación
3
WhatsApp: el "truco" clave para conocer si archivaron o silenciaron una conversación
4
La aplicación de ChatGPT para celulares incorporará una nueva y esperada función: de qué se trata
5
¿El fin de Apple?: salió un nuevo celular chino que combina calidad y resistencia
Mantenete siempre informado