octubre 30, 2025
Recomendamos

Los videos virales que ves ya no son reales

Las redes sociales se han llenado de vídeos generados con Sora y otras herramientas de inteligencia artificial (IA). Algunos resultados son extraordinariamente realistas, hasta el punto de que ya hay muchos usuarios que dudan cuándo son falsos y cuándo no. Cada vez es más fácil crear contenido manipulable, pero los expertos aclaran que todavía hay pistas para detectar imágenes artificiales. 

¿Has visto el vídeo de una mascota protegiendo a un niño del ataque de un animal salvaje? ¿O el de un gato montando a un leopardo? Todo este contenido tiene algo en común: ha sido creado por IA. Algunos resultados son más creíbles que otros, pero cada vez hay más personas que se creen lo que ven.

🎥Sora 2, la app social de vídeos artificiales

La nueva app Sora 2, desarrollada por OpenAI, permite generar vídeos hiperrealistas con solo escribir una idea. Su interfaz tipo TikTok se volvió viral, pero con una diferencia clave: todo lo que ves es falso. Todo el contenido creado dentro de ella es generado por inteligencia artificial.

Los vídeos de Sora tienen alta resolución, audio sincronizado y una creatividad sorprendente. La característica más popular de Sora, denominada “cameo”, te permite usar imágenes de otras personas e insertarlas en casi cualquier escena generada por IA. Es una herramienta impresionante que da como resultado vídeos aterradoramente realistas.

Es por eso que tantos expertos están preocupados por Sora, que podría hacer que sea más fácil que nunca para cualquiera crear deepfakes, difundir información errónea y desdibujar la línea entre lo que es real y lo que no lo es. 

El problema llega cuando el contenido creado por Sora sale de la plataforma y se publican en Instagram, X, Facebook o TikTok. Pese a que los vídeos artificiales incluyan una marca de agua, esta se puede ocultar fácilmente. Por lo tanto, detectar qué es falso y qué real se ha vuelto más complejo y cada vez más vídeos virales están hechos por IA.

🕵️‍♀️ Cómo detectar videos falsos

Marjori Haddad, cofundadora de Weplash, una academia de IA, detalla que la lógica es una de las mayores herramientas para saber si una publicación que vemos por redes sociales es falsa. Por ejemplo, si ves a un niño frente a un cocodrilo, sabemos que la actuación instintiva del humano sería gritar y los vídeos de IA no muestran eso.

La profesional también apunta que los vídeos tipo cámara de seguridad son los más realistas de los generados por IA. «No son nítidos; no tienen buena iluminación -comenta Haddad-. La gente ya espera que tengan imperfecciones o imágenes borrosas y por eso la IA es muy bueno recreándolo». Pero, incluso ese contenido, tiene detalles en los que puedes fijarte:

  • El tiempo de grabación. La IA no es buena mostrando números. A veces se saltan segundos, como si hubiese pasado tiempo, sin que haya un cambio notorio en la imagen.
  • Las texturas que cambian. Haddad pone el ejemplo de la alfombra de la supuesta entrada de una casa como puedes ver en el vídeo.
  • Objetos inmóviles se «mueven». En especial, eso pasa con plantas o árboles. Podríamos asociarlo con el viento, pero el movimiento generado se nota artificial.
  • Parches o rastros de marcas de agua. Originalmente, este tipo de vídeos se crean con marcas de agua que, aunque se eliminen, dejan algo de rastro.
  • Errores de física: cucharones que aparecen y desaparecen de manera aleatoria, los movimientos de un corredor no se corresponden con la forma en que un corredor humano se movería. Esto indica que el modelo de IA aún no comprende completamente el mundo físico.
  • La herramienta Sora es capaz de generar paisajes hiperrealistas que pueden confundirse con imágenes capturadas por drones. Sin embargo, si observamos detenidamente, podemos notar detalles que no concuerdan con la realidad, como las olas del mar moviéndose en la dirección opuesta, sombras imposibles.
  • Animaciones con fallos: gatos con tres patas, escenas que desafían la lógica.
  • Geometría 3D mal aplicada: Sora también puede simular imágenes históricas y utilizar efectos de cámara similares a los de las películas antiguas. Sin embargo, al observar detenidamente, podemos notar que hay elementos arquitectónicos que no coinciden con la época en la que se supone que se desarrolla la escena.

Tal y como comenta Nicieza, este tipo de vídeos es un riesgo para personas mayores o para los usuarios menos informados, que pueden ser fácilmente manipulados. El contenido generado artificialmente puede utilizarse para difundir fake news o estafas online cada vez más creíbles.

🧠 ¿Qué podemos hacer?

No existe un método infalible para saber con precisión de un solo vistazo si un vídeo es real o IA. Lo mejor que puede hacer para evitar ser engañado es no creas todo lo que ves, especialmente si parece demasiado perfecto o impactante. Sigue tu instinto: si algo te parece irreal, probablemente lo sea. En estos tiempos sin precedentes y llenos de IA, su mejor defensa es inspeccionar los videos que está viendo más de cerca. No mires y te desplaces rápidamente sin pensar. Compruebe si hay texto distorsionado, objetos que desaparecen y movimientos que desafían la física. Y no te castigues si te engañan de vez en cuando; incluso los expertos se equivocan.

La alfabetización digital es más importante que nunca. En un mundo donde la IA puede crear cualquier cosa, tu mejor defensa es dudar, observar y pensar antes de compartir.

(Con información de agencias)

Autor

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *