Organizaciones internacionales reportan un incremento significativo de videos generados por IA con fines de desinformación, dificultando la labor periodística y la percepción pública.
La organización internacional Article 19 y diversos observadores digitales reportaron un incremento masivo en la circulación de videos generados por Inteligencia Artificial en el marco del conflicto en Medio Oriente. Los informes indican que se utilizaron herramientas generativas para producir material audiovisual falso sobre operaciones militares.
Especialistas en seguridad digital detectaron que la sofisticación de estos contenidos, conocidos como deepfakes, alcanzó niveles que dificultan la distinción inmediata entre registros reales y simulaciones. Según los reportes, estas piezas mostraron supuestos bombardeos y declaraciones de líderes políticos que no ocurrieron.
La distribución de estos materiales se realizó mediante plataformas de mensajería cerrada y cuentas automatizadas en redes sociales. Ante esta situación, Meta instó a etiquetar de forma clara todo el contenido producido o alterado por IA, recomendando el uso de marcas de agua digitales y metadatos que permitan rastrear el origen de los archivos.
La desinformación afectó a los usuarios y complicó la labor de los periodistas independientes en la zona de conflicto, quienes debieron someter cada video a rigurosos procesos de verificación, lo que demoró la difusión de noticias urgentes.
El informe de ARTICLE 19 señaló que los corresponsales en el terreno enfrentaron dificultades para que sus registros auténticos fueran aceptados como verídicos por la audiencia, generándose un entorno de escepticismo. La organización también puntualizó que el uso de la tecnología incluyó la clonación de voces para emitir órdenes de evacuación falsas, provocando desplazamientos innecesarios de civiles y caos urbano.
