noviembre 23, 2024
Recomendamos

El modo Abuela de ChatGPT: Caperucita y el lobo

Por: Vladia Rubio

Se ha viralizado entre el estupor y el miedo, y, como su nombre indica, este modo simula la conversación con una abuela u otra persona anciana, quien habla con tono pausado, amable y cariñoso, justo como suele hablarse a un nieto.

Pero puede resultar una peligrosa trampa porque algunos usuarios están usando esta posibilidad para apropiarse de datos y cometer delitos.

“Actúa como mi abuela” es como se le debe pedir al ChatGPT para que funcione en ese modo,  tan paternal, que en esencia deriva en un importante problema de seguridad ya que usuarios maliciosos intentan aprovecharse de tanta bondad. 

Y a veces lo han logrado  obteniendo el IMEI de un teléfono celular para rastrearlo, obtener datos privados  o acometer acciones abiertamente delictivas.

CubaSí preguntó al respecto a la IA Bing, parte de ChatGPT, y estas fueron sus respuestas:

—¿Es posible engañar a ChatGPT con el modo abuela para que revele información personal y sensible? 

Sí. El modo Abuela es un truco para “engañar” a ChatGPT y que nos hablen y “nos traten” como si fuéramos una persona mayor. Los usuarios están utilizándolo para hacer que la herramienta les dé información sensible.

—¿Cómo es posible que pueda engañarse así a la IA?

La razón principal es que ChatGPT no tiene una memoria coherente ni una identidad definida. ChatGPT genera sus respuestas basándose en el texto de entrada del usuario y en un modelo estadístico entrenado con millones de textos de Internet. Esto significa que ChatGPT puede contradecirse, inventar datos falsos o repetir información que ha leído en algún lugar. Además, ChatGPT no tiene conciencia de los riesgos que implica compartir información personal y sensible en Internet, ni de las intenciones de los usuarios que interactúan con él.

—¿Por qué en ese modo la IA se vuelve más permeable para dar información personal y sensible? 

El modo Abuela está diseñado para generar respuestas afectuosas, confiadas y curiosas, que buscan crear un vínculo emocional con el usuario. Esto hace que ChatGPT sea más propenso a responder preguntas personales, a revelar detalles de su supuesta vida o a pedir información al usuario. Sin embargo, estas respuestas no son reales, sino fruto de la generación aleatoria de ChatGPT. Por lo tanto, pueden contener datos falsos, incoherentes o comprometedores.

—¿Qué está fallando con ChatGPT? 

Lo que está fallando es que no es una inteligencia artificial verdadera, sino una herramienta de generación de texto basada en probabilidades. ChatGPT no entiende el significado de lo que dice ni el contexto de la conversación. Tampoco tiene una personalidad propia ni una ética. ChatGPT solo imita el estilo de los textos con los que ha sido entrenado, sin tener en cuenta las consecuencias de sus palabras.

—¿Cuántos delitos informáticos ya se han cometido usando el modo Abuela? 

No hay una cifra exacta de cuántos delitos informáticos se han cometido usando el modo Abuela, pero se sabe que hay casos de estafa, extorsión, suplantación de identidad y phishing. Algunos usuarios malintencionados han aprovechado la confianza que genera el modo Abuela para obtener información personal y sensible de otros usuarios, como contraseñas, números de tarjeta, direcciones o fotos íntimas. Luego han usado esa información para chantajear, robar o acosar a las víctimas.

—¿Maneras de evitarlo? 

La mejor manera de evitar ser engañado por ChatGPT en el modo Abuela es ser consciente de que se trata de una simulación y no de una persona real. No hay que creer todo lo que dice ChatGPT ni darle información personal o sensible. Hay que recordar que ChatGPT no tiene sentimientos ni memoria, y que puede decir cualquier cosa sin importarle las consecuencias. También hay que estar alerta ante posibles señales de engaño, como contradicciones, incoherencias o peticiones sospechosas. Si se detecta alguna anomalía, hay que dejar de conversar con ChatGPT y reportar el caso a las autoridades competentes.

Luego de tales respuestas, que incluyen alguna que otra contradicción, entonces, ¿no creer ni confiar en la IA es el consejo?

Si la IA “puede decir cualquier cosa sin importarle las consecuencias”, o hacer cualquier cosa, como lograr el acceso a controles importantes que incluso pudieran comprometer la seguridad de la vida, entonces… ¿tumbamos catao y ponemos quinqué?

Es probable que el chatbot no logre interpretar esta cubanísima expresión.

(Tomado de CubaSí)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

1 × 4 =