El uso de deepfakes se dispara un 900% y se convierte en una herramienta clave en los conflictos bélicos

El uso de deepfakes se dispara un 900% y se convierte en una herramienta clave en los conflictos bélicos

  • El uso de este tipo de manipulaciones, especialmente en el contexto de los conflictos bélicos, puede tener consecuencias catastróficas.
  • Esta amenaza requiere de tecnologías de detección avanzadas, colaboración internacional y una mayor conciencia sobre los riesgos.

Los deepfakes (combinación de “deep learning” y “fake”) plantean, en la actualidad, una seria amenaza. Estas creaciones, que implican la manipulación realista de imágenes y videos, están teniendo un impacto significativo en diversos ámbitos, incluyéndose como armamento de guerra y para distorsionar la percepción pública de los conflictos. De hecho, según datos recopilados por el Foro Económico Mundial, los ataques de deepfake se disparan anualmente un 900%.

La Oficina Federal de Investigación de Estados Unidos (FBI) ya advirtió este verano de su creciente uso con fines delictivos, especialmente, para llevar a cabo estafas y extorsiones. En muchos de los casos, los delincuentes crean grabaciones manipuladas, que difunden en foros y webs pornográficas, con el objetivo de exigir a las víctimas un dinero por eliminarlas.

En el conflicto entre Rusia y Ucrania, existen muchos ejemplos de cómo los deepfakes pueden distorsionar la realidad. De hecho, unos ciberdelincuentes rusos publicaron un video falso del presidente de Ucrania, Volodymyr Zelensky, ordenando la rendición de los soldados ucranianos ante las fuerzas rusas, que se convirtió en el primer uso de desinformación con deepfake como arma en un conflicto militar.

Según Francisco Valencia, director general de Secure&IT los deepfakes se han convertido en una herramienta muy peligrosa en el contexto de las guerras, donde la desinformación puede tener consecuencias catastróficas, debido a las reacciones que puede provocar”. También insiste en que este tipo de manipulación tiene el potencial de socavar la confianza pública y perjudicar mucho el discurso público de los afectados.

De manera similar, en el conflicto entre Israel y Hamás, la inteligencia artificial se está utilizando como “arma” en la guerra de la desinformación, para generar de forma masiva noticias falsas.  Desde que se produjo el asalto de milicianos de Hamás en el sur de Israel, y a pesar de la extensa cobertura mediática que ha recibido el conflicto, las redes sociales están siendo inundadas de rumores y noticias falsas.

Con la tecnología que se utiliza en la actualidad, es cada vez más difícil diferenciar entre fake news y hechos reales. De hecho, algunas televisiones y periódicos se han hecho eco de ellas dándolas por válidas e, incluso, llegado a difundirlas. Es el caso de un vídeo que, supuestamente, muestra un helicóptero del ejército israelí siendo derribado por un soldado de Hamás. Sin embargo, estas imágenes pertenecen al videojuego Arma 3 desarrollado por los estudios Bohemia Interactive.

En este sentido, Francisco Valencia, recalca que la respuesta a esta amenaza requiere tecnologías de detección avanzadas, colaboración internacional y una mayor conciencia sobre los riesgos asociados.

Consejos para detectar un deepfake

Detectar un deepfake puede ser difícil, ya que las tecnologías detrás de ellos están mejorando constantemente. Sin embargo, hay algunos aspectos que pueden ayudar a identificarlos:

  1. Observación de los ojos: En los deepfakes, los ojos a menudo presentan problemas, como movimientos poco naturales, parpadeos irregulares o la falta completa de parpadeo.
  2. Análisis de movimientos labiales y sincronización del audio: Los deepfakes pueden tener dificultades con la sincronización labial. Es importante observar si los movimientos de los labios coinciden con las palabras pronunciadas en el audio.
  3. Evaluación de la calidad de la piel: Los deepfakes pueden mostrar inconsistencias en la piel, especialmente alrededor de los bordes del rostro, el cabello y los hombros.
  4. Iluminación y sombras: Las diferencias en la iluminación y las sombras en el rostro pueden ser indicadores de que se trata de un deepfake.
  5. Verificación de la fuente: Los deepfakes suelen circular con mayor frecuencia por plataformas menos reguladas, por lo que es importante verificar si el contenido proviene de una fuente confiable.
0/5 (0 Reviews)
Facebooktwitterpinterestlinkedinby feather
/ Ciberseguridad, Notas de Prensa