La inteligencia artificial generativa facilita la creación de contenido audiovisual falso, impulsando nuevas modalidades de fraude digital y poniendo a prueba los sistemas de seguridad actuales.
Durante más de dos décadas, la regla general era que un video o un audio constituían una evidencia confiable. Sin embargo, el avance de la inteligencia artificial (IA) generativa ha comenzado a cambiar este paradigma. Crear audios y videos falsos altamente convincentes ya no es una tarea exclusiva de especialistas, sino una herramienta accesible y de bajo costo.
En este contexto, los deepfakes dejaron de ser una curiosidad tecnológica para convertirse en la base de un nuevo modelo de fraude digital. La IA redujo drásticamente las barreras de entrada para producir engaños, permitiendo que la suplantación de identidad funcione como un servicio dentro de mercados ilícitos cada vez más profesionalizados.
Un ejemplo reciente ocurrió en 2025, cuando circuló en YouTube una transmisión falsa que utilizaba un avatar generado con IA para suplantar al CEO de Nvidia, Jensen Huang. El evento, que imitaba una presentación oficial, invitaba a los espectadores a invertir en criptomonedas, alcanzando a miles de usuarios bajo una apariencia de legitimidad.
En Argentina, donde la digitalización avanzó con fuerza en servicios financieros, comercio electrónico y comunicaciones, el impacto es significativo. No se trata solo de un aumento de estafas, sino de una redefinición del riesgo digital. En los últimos meses, se multiplicaron las modalidades que utilizan audios generados con IA o mensajes privados para solicitar transferencias urgentes, movimientos bancarios o información sensible. A esto se suman estafas vinculadas a falsas promociones, descuentos o alquileres turísticos que circulan en redes y plataformas digitales.
Si el contenido audiovisual deja de ser una garantía de autenticidad, muchos sistemas de seguridad diseñados en las últimas dos décadas quedan bajo revisión. Validaciones remotas, autorizaciones basadas en reconocimiento de voz o video, y pruebas digitales parten de una premisa que hoy puede ser cuestionada tecnológicamente.
Frente a este escenario, emergen dos grandes desafíos. El primero es tecnológico: así como la IA potencia herramientas de suplantación, también permite desarrollar sistemas de detección cada vez más sofisticados. La carrera no será solo la expansión del deepfake, sino la velocidad con la que evolucionen los mecanismos para identificar contenido manipulado y autenticar identidades digitales de manera robusta.
El segundo desafío es normativo. Argentina, como gran parte de la región, aún no cuenta con un marco regulatorio específico que contemple la suplantación de identidad mediante IA con la complejidad actual. Si bien existen figuras legales vinculadas al fraude o a la falsificación, el fenómeno actual suma escalabilidad, automatización y anonimato en niveles inéditos. Se vuelve necesario avanzar en estándares técnicos compartidos, protocolos de validación más exigentes y marcos normativos que acompañen la evolución tecnológica sin frenar la innovación.
Es probable que 2026 marque un punto de inflexión, ya que la IA seguirá ampliando sus capacidades y su presencia en todos los sectores. Si bien esta tecnología es una herramienta clave para el crecimiento y la innovación, también redefine la naturaleza de los riesgos. Entender que el deepfake no es solo una amenaza aislada, sino parte de una nueva economía de la suplantación, es el primer paso para construir marcos tecnológicos y regulatorios adecuados.
