San Martín cuenta en primera persona a los alumnos de cuarto grado cómo fue la batalla de San Lorenzo, su planificación, su desarrollo, sus emociones ante la victoria. Es más, les muestra una foto de su heroico sargento Cabral.
A la vez, Lionel Messi envía un saludo personal de cumpleaños a un fan como si fueran amigos de toda la vida. Y en otro video, la vida de una persona transcurre desde la infancia hasta la adultez en apenas segundos. Todo es posible con la irrupción de la inteligencia artificial (IA) en la era digital.
La revolución tecnológica abrió puertas extraordinarias: usos educativos, publicitarios, médicos. Pero también trajo amenazas que ya no pueden ser minimizadas. Entre ellas, las deepfakes, montajes generados mediante aprendizaje profundo capaces de fabricar imágenes, videos o audios que parecen reales.
El problema no es la tecnología en sí, sino el uso indebido. Cuando una deepfake se emplea para manipular a la opinión pública, estafar, extorsionar o dañar la reputación de alguien, el impacto social se vuelve inmediato. Y la enorme accesibilidad a estas herramientas multiplica el riesgo.
“Deepfakes” para delinquir
Los deepfaces, que manipulan rostros, permiten generar caras nuevas, que nunca existieron. Esa identidad sintética ya se usa para fraudes y estafas. Pero la preocupación más grave está en su empleo para fabricar material de explotación sexual infantil.
En 2024, Europa desarticuló una red internacional dedicada justamente a eso: imágenes de menores sexualizados o abusados, generadas por IA y accesibles mediante pago en línea.
Otra modalidad, la face represent, consiste en tomar el rostro de una persona real e injertarlo en el cuerpo de otra. El resultado puede ser devastador.
En 2024, la cantante Taylor Swift lo sufrió cuando imágenes sexualizadas falsas se viralizaron en X, dañando su reputación y su integridad emocional.
En Córdoba, un caso similar fue objeto de investigación penal: un estudiante de un colegio secundario preuniversitario creó fotos deepfakes de sus compañeras sintetizando sus caras y las insertó en el cuerpo desnudo de otras mujeres, para luego subirlas a un sitio de contenido pornográfico.
La maniobra no quedó ahí: en cada imagen colocó el nombre, apellido y contacto de las víctimas, maniobra conocida como doxxing, lo que generó que usuarios de esas plataformas se pusieran en contacto con ellas y les generaran gran temor, angustia y desconcierto.
La causa llegó a juicio por lesiones psicológicas agravadas por violencia de género, cuya reciente reforma a través de la llamada ley Olimpia incorpora el espacio digital como uno de los ámbitos donde la violencia contra la mujer puede ser ejercida.
Los informes psicológicos practicados sobre las menores dieron cuenta del gran impacto emocional que suscitó en ellas este hecho (cuadros de estrés postraumático, ansiedad, aislamiento y vergüenza persistente).
También a través de una deepfake se pueden manipular voces. Se llaman deepvoices y son capaces de clonar la voz de una persona mediante IA con total realismo y hacer que diga cosas que nunca dijo.
En Maryland, EE.UU., un director escolar casi perdió su vida profesional y fue amenazado de muerte por un audio falso con comentarios racistas. Había sido creado por un compañero de trabajo para desprestigiarlo.
No podemos dejar de mencionar los videos manipulados, donde alguien parece decir o hacer algo que nunca ocurrió. Sobran ejemplos: Messi promocionando aplicaciones fraudulentas con ganancias sospechosamente altas e irresistibles, o Elon Musk “regalando” criptomonedas en videos que buscan atraer víctimas.
En política, las deepfakes ya se utilizan para influir en campañas electorales, con candidatos que “admiten” conductas delictivas o poco éticas, e instan al electorado a votar en determinado sentido.
La Cámara Nacional Electoral advirtió sobre la gravedad de la desinformación en el proceso democrático y la importancia de proteger la integridad de las elecciones frente a IA.
Un desafío para el derecho
La evolución y sofisticación de estas técnicas supera por mucho el ritmo de las reformas legales. La tecnología avanza a velocidad vertiginosa; la legislación, no. Por eso, frente a hechos concretos, el sistema jurídico intenta adaptar sus normas existentes para no dejar sin protección a las víctimas.
El Código Penal Argentino ya se usa para encuadrar diferentes comportamientos vinculados a deepfakes.
Una de las posibilidades de encuadramiento legal es el delito de producción o distribución de pornografía infantil del artículo 128 del Código, en caso que se genere material de menores de edad sexualizados o víctimas de abusos sexuales.
Además, puede acudirse a la figura legal de la extorsión por chantaje, si se amenaza a una víctima de difundir alguna deepfake a cambio de dinero.
También pueden aplicarse las amenazas coactivas, cuando se quiera obligar a la víctima, por ejemplo, a continuar en determinada relación de pareja, o por venganza. Y puede ser útil la figura legal de las injurias cuando la finalidad es difamar el honor de la persona que está representada. Y, por último, el delito de lesiones o daños a la salud psíquica de la persona como vimos antes.
No es un marco ideal, pero es lo disponible mientras la academia y los legisladores avanzan hacia normas específicas. Entonces, aun cuando en el derecho vigente tenemos severas lagunas legislativas, no sólo en Argentina sino en el mundo, todo indica que la situación va cambiar con la evolución académica, con la imperiosa necesidad de los proyectos de ley que contemplen estas situaciones.
Un futuro inevitable
Las deepfakes nos colocan frente a un desafío central: cómo proteger datos, identidades, reputaciones, procesos democráticos e integridad emocional en un mundo donde ver ya no garantiza creer.
Hace falta tecnología de detección más robusta, sí. Pero también leyes modernas, educación digital y un compromiso social para no ser parte del problema.
Hasta que ese marco llegue —y llegará— sólo queda actuar con las herramientas disponibles y evitar que las víctimas queden desamparadas ante un fenómeno que ya dejó de ser futurista para instalarse en nuestra vida cotidiana.
Fiscal federal y profesora de Derecho Penal en la UNC y en la UCC
























