Todos los artículos
Inteligencia Artificial Julio 2024 5 min

Los vídeos falsos que parecen reales: la amenaza del deepfake

Con inteligencia artificial se crean vídeos falsos donde famosos o conocidos tuyos dicen cosas que nunca dijeron. Los usan para estafarte o chantajearte.

Ves un vídeo en redes sociales donde un presentador famoso recomienda invertir en una plataforma. Se le ve hablando, moviendo los labios perfectamente. Parece 100% real. Pero es un deepfake: un vídeo generado por inteligencia artificial.

Los deepfakes pueden usarse para estafas de inversión, para crear vídeos humillantes de personas reales, o incluso para suplantar a un familiar en una videollamada. La tecnología es cada vez más accesible.

Señales de alarma

  • El vídeo promociona inversiones o productos milagrosos.
  • Los movimientos de la boca no coinciden perfectamente con el audio.
  • La iluminación de la cara no coincide con el entorno.
  • No encuentras el vídeo en el canal oficial de la persona.

Busca siempre la fuente original. Si un famoso promociona algo, debería aparecer en su perfil oficial verificado. Si solo aparece en anuncios sueltos, probablemente es falso.

¿Qué hacer?

  1. Verifica cualquier vídeo buscando en los canales oficiales de la persona.
  2. No creas en inversiones promocionadas solo por anuncios en redes.
  3. Si recibes un vídeo de un conocido pidiendo dinero, llámale para verificar.
  4. Informa a las plataformas sobre deepfakes fraudulentos.
Ver todos los artículos