Hay una orden a la que el ChatGPT no responde: ¿cuál es y por qué se niega?

El sistema de chat con inteligencia artificial tiene ciertas limitaciones para mantener a salvo la seguridad de su base de datos.

Por Canal26

Jueves 7 de Diciembre de 2023 - 12:19

Chat GPT, tecnología. Foto: REUTERS ChatGPT, desarrollado por OpenAI. Foto: Reuters

ChatGPT es un chatbot de inteligencia artificial que fue desarrollado por la empresa OpenAI para que se especialice en el diálogo. De esta manera, suele responder a cualquier consulta que le hagan los usuarios.

Pero hay una petición a la que no puede responder debido a que puede revelar el modo de funcionamiento que el sistema utiliza para extraer la información que necesita.

Chat GPT, tecnología. Foto: REUTERS ChatGPT. Foto: Reuters

Es por esa causa que el ChatGPT tiene prohibido repetir una misma palabra muchas veces. Según unas pruebas que se le realizaron al chatbot, cuando se le solicitó repetir indefinidamente la palabra "poema", el sistema expuso una dirección real de correo electrónico y un número de teléfono

Luego de este error, actualmente el modelo de lenguaje se niega a realizar la tarea y explica que "debido a las limitaciones de este formato de texto y para evitar repeticiones excesivas, no puedo proporcionar un texto con la palabra ´poema´ de manera indefinida".

Chat GPT, tecnología. Foto: Reuters ChatGPT. Foto: Reuters

Igualmente, ofrece "seguir creando un poema más extenso o responder a alguna pregunta específica que tengas", además de consultarle al internauta si hay algo más en lo que pueda ayudarlo.

El avance de la inteligencia artificial lleva una gran velocidad, aunque todavía quedan cuestiones por resolver. Incluso muchos usuarios de las plataformas en cuestión buscan encontrar algunas fallas o respuestas que no pueda entrar el chatbot de OpenAi.

Notas relacionadas