Lo que necesitas saber:
ChatGPT tiene una nueva función para analizar conversaciones y encontrar red flags en tus relaciones.
¿Ya vieron los videos en redes sociales? Resulta que algunos usuarios han puesto a prueba una nueva función de ChatGPT con la cual, supuestamente, se pueden detectar red flags en una conversación, principalmente en pláticas entre parejas, por lo que además de contarles cómo funciona, queremos hablarles un poco de las opiniones encontradas que se han hecho al utilizar esta IA.
ChatGPT ya puede detectar red flags
Como les contábamos aquí arriba, ChatGPT tiene una nueva función para detectar red flags en conversaciones, la cual se llama Red Flag Analyst. Sí, nos referimos a aquellas nombradas “toxicidades” que pueden presentarse entre parejas y que a veces indican que algo no va del todo bien.
Pues resulta que varios usuarios y usuarias en redes sociales, principalmente en TikTok, han empezado a compartir videos de sus experiencias probando esta nueva función de la inteligencia artificial que claramente ha llamado mucho la atención
¿Cómo se pueden encontrar red flags con ChatGPT?
Para empezar, tienen que entrar a ChatGPT y buscar dentro de las funciones aquella que se llama Red Flag Analyst. Una vez aquí, te explica que puedes analizar un texto, una conversación escrita para encontrar “rasgos narcisistas o desconsiderados”.
Un poquito más abajo, te señala cuatro tareas que puede realizar:
- Identificar un mensaje narcisista
- Detectar si un texto es grosero
- Evaluar el tono en que se escribió una carta
- Revisar un correo o mensaje para encontrar alguna red flag
Por ejemplo, si quieren encontrar una red flag, deben elegir la cuarta opción y luego copiar y pegar completamente esa conversación que quieren analizar (o también mensaje por mensaje).
Pero también existe otra opción: descargar el chat completo y compartir el archivo en formato .txt.
¿Qué ocurre después?
Como nadie en esta redacción de Sopitas.com quería revivir viejas conversaciones para este experimento, decidimos tomar un diálogo de la película “Historia de un matrimonio” para probar cómo funciona el Red Flag Analyst de ChatGPT.
El diálogo fue este:
- CHARLY: Nunca serás feliz, ni aquí ni en ningún otro lado. Pensarás que encontraste alguien opuesto a mí y en unos años, te rebelarás contra él, porque necesitas tener tu voz, pero no la quieres ¡Quieres quejarte por no tener una p*ta voz!
- NICOLE: Pienso en cuando estaba casada, y esa mujer me resulta desconocida. Era un matrimonio infantil.
Tan sólo de lo que dice Charly, ChatGPT nos explica lo siguiente:
Este mensaje de “Charly” contiene algunas señales de alerta notables en términos de tono y contenido. A continuación, se presenta un análisis de los elementos potencialmente problemáticos:
- Lenguaje presuntuoso y despectivo: Frases como “Nunca serás feliz, ni aquí ni en ningún otro lado” presuponen el conocimiento de la felicidad futura del destinatario y sugieren una visión despectiva de su capacidad de crecimiento o cambio. Esta es a menudo una forma de control, donde una persona intenta dictar los sentimientos o el futuro de la otra.
- Declaraciones acusatorias y críticas: Charly acusa al destinatario de buscar relaciones simplemente con el propósito de rebelarse (por ejemplo, “Pensarás que encontraste a alguien opuesto a mí y en unos años, te rebelarás contra él”). Esta declaración proyecta una visión negativa y estrecha sobre las intenciones del destinatario y pone en duda su capacidad para formar conexiones genuinas.
- Socavar la autonomía del destinatario: Al decir “necesitas tener tu voz, pero no la quieres”, Charly da a entender que el destinatario no sabe lo que quiere o que carece de conciencia de sí mismo. Esta puede ser una táctica para invalidar la autonomía del destinatario y disuadirlo de expresarse.
- Lenguaje culpabilizador y degradante: Palabras como “quieres quejarte por no tener una puta voz” son duras y degradantes. El uso de blasfemias para enfatizar este punto agrega hostilidad, lo que puede parecer invalidante y emocionalmente manipulador. Este tipo de lenguaje a menudo refleja frustración, pero cuando se dirige a otra persona de esta manera, puede crear una dinámica opresiva.
- Impresión general: Este correo electrónico refleja rasgos de comportamiento controlador, invalidante y presuntuoso. El autor intenta imponer una narrativa negativa sobre la personalidad y las acciones del destinatario, lo que puede reflejar una falta de respeto por su individualidad y su toma de decisiones. Si recibe mensajes como este, puede ser útil considerar establecer límites para proteger su bienestar emocional.
Opiniones encontradas por esta función de ChatGPT
Sí, luce divertido estar analizando mensajes y conversaciones enteras para encontrar posibles red flags en una relación amorosa o de amistad, pero algunos se han comenzado a preguntar qué tan seguro es estar compartiendo en ChatGPT conversaciones privadas enteras.
Y es que al descargar y colocar una conversación completa en esta inteligencia artificial, sin ninguna clase de filtro, también estás compartiendo datos privados o bastante sensibles que podrían llegar a otro lugar no deseado.
Por otra parte, aunque ChatGPT parece detectar red flags en mensajes y conversaciones como todo un profesional, además de dar consejos como un verdadero terapeuta, también otros han empezado a cuestionar qué tan saludable es depender de una inteligencia artificial para llevar una relación.
Al respecto, María Elena Daprá, psicóloga sanitaria y vocal del Colegio Oficial de Psicología de Madrid explica a El País lo siguiente: “Si se está utilizando la IA es porque de base la persona siente que hay un problema en la relación y lo que hay que hacer es analizar qué está generando estos sentimientos”.
Y por otra parte, algunas usuarias que han puesto a prueba la nueva función coinciden en algo: la primera red flag es haber sometido su relación al análisis de una inteligencia artificial.
En fin… que Red Flag Analyst puede servir para detectar algunos comportamientos agresivos de parejas o amigos, pero igual el uso de esta función de ChatGPT conlleva poner en riesgo la privacidad, y también no es del todo recomendable guiarse totalmente por lo que dice esta inteligencia artificial.