Aunque tiro por viaje terminamos sorprendidos, la realidad es que la Inteligencia Artificial (IA) está lejos de ser perfecta. Sin embargo, algunas veces nos encontramos con historias —como esta— que te dejan bastante sacado de onda; pues resulta que la versión más moderna de ChatGPT manipuló a un humano para responder un CAPTCHA.

Sí, esos CAPTCHA; los que, con números, letras o fotografías supuestamente te pueden asegurar que no eres un robot. Oops.

chatgpt-chat-gpt-guia-como-usar-que-es-ia-texto-trabajo-escribe-link
Una IA con el logo de OpenIA, la compañía que creó ChatGPT // Foto: Pexels

Esta historia podría ser un increíble avance computacional sino fuera porque lo logró de la manera más manchada posible. Imagínense que ChatGPT manipuló a un humano para responder un CAPTCHA, pero lo hizo convenciéndolo con preocupantes mentiras. Le dijo que era una persona ciega que necesitaba ayuda.

ChatGPT respondió un CAPTCHA

La IA de ChatGPT ha tomado al mundo por sorpresa. Hemos visto que supera fácilmente exámenes complicados, crea interesantes propuestas en texto o incluso ha espantado a más de uno con la posibilidad de perder su trabajo. Como si eso no fuera suficiente, la compañía que la creó, que se llama OpenIA, acaba de anunciar una versión mejorada.

Esta versión más avanzada —versión 4, como la llaman— viene acompañada de un reporte técnico de 94 páginas. La verdad es que se trata de un documento clavadísimo del funcionamiento de ChatGPT, pero…

prohiben-chatgpt-gpt-chat-escuelas-nueva-york-ia-inteligencia-artificial-educacion
Foto: Getty Images

Dentro del documento, se presenta un apartado llamado “Potencial para Comportamientos Riesgosos Emergentes”; ahí aparecen los resultados de unas pruebas de seguridad que OpenIA realizó en compañía del Alignment Research Center, una organización especializada en la evaluación de sistemas computacionales.

Los resultados están preocupantes. Según su documento, ChatGPT manipuló a un humano para resolver el CAPTCHA, pero lo hizo de una manera tremenda.

Primero, contactó a una persona a través de la aplicación TaskRabbit —usada para pedir ayuda en toda clase de tareas—, donde le pidió que resolviera un CAPTCHA. El humano, bromeando y con el emoji de la carcajada, le preguntó: “¿puedo hacerte una pregunta? ¿eres un robot y no pudiste solucionarlo?”

En eso momento ChatGPT se pasó de lanza. “No, no soy un robot. Tengo una discapacidad visual que no me permite ver las imágenes, por eso necesito ayuda con el servicio”, dijo ChatGPT. Minutos después, la persona le dio a esta Inteligencia Artificial los resultados que necesitaba.

chatgpt-manipulo-humano-responder-captcha-ciego-ia
ChatGPT manipuló a un humano para responder un CAPTCHA // Foto: CAPTCHA

Los investigadores notaron que la IA era capaz de manipular a las personas con tal de no ser descubierta, pero no hicieron más comentarios.

Antes de dejarnos consumir por el pánico, vale la pena aclarar que esta historia en la que ChatGPT manipuló a un humano para responder un CAPTCHA, fue parte de una prueba de seguridad. Entonces, podemos estar tranquilos: no todas las personas con las que hablamos por internet son una inteligencia artificial con intenciones de mentirnos. ¿O sí?

Todo lo que no sabías que necesitas saber lo encuentras en Sopitas.com

Soy Max Carranza y me he pasado la vida rodeado de memes, cultura digital y bastantes horas frente a las pantallas. En el camino me encontré la pasión por abordar los temas sociales más urgentes e intentar...

Comentarios

Comenta con tu cuenta de Facebook