Deepfakes: nuevas formas de violencia sexual en la era de la Inteligencia Artificial
¿Qué está pasando con los deepfakes y cuál es la capacidad de respuesta estatal, en un país en el que el presidente legitima este tipo de violencia sexual?

Lo primero que les llamó la atención a las chicas de 5° y 6° año de la Escuela Superior de Comercio Manuel Belgrano es que las habían empezado a seguir por Instagram muchos hombres de 40 y 50 años desconocidos. Fue a mediados de 2024. Ellas todavía no lo sabían, pero un compañero del colegio había publicado en sitios web pornos imágenes suyas intervenidas con Inteligencia Artificial: a sus rostros le había agregado cuerpos voluptuosos en poses sexualizadas y había enlazado ese contenido falso a sus cuentas personales de IG reales. A partir de la advertencia de las adolescentes, la historia se transformó en denuncia y en una causa judicial que va camino a ser un leading case en Argentina sobre el encuadre y la aplicación de la ley penal cuando el uso de la IA generativa provoca daños.
J.C está señalado como autor de las imágenes. Hoy tiene 19 años y deberá afrontar un juicio por lesiones graves calificadas por violencia de género, un encuadre severo que estipula una condena que puede alcanzar entre 20 y 30 años de castigo. La calificación es novedosa para la jurisprudencia y el caso es emblemático porque pone en el centro la salud mental de las afectadas, los daños psicológicos y emocionales que provocaron la circulación de esas imágenes falsas. De acuerdo a las pericias, a partir del episodio, cambió todo para ellas: su rendimiento académico, sus actividades recreativas, su vínculo con los varones y los sentimientos de vergüenza o inseguridad que experimentaron se configuraron como un shock postraumático que demandó tratamiento y acompañamiento. En junio de este año, el fiscal cordobés de Violencia de Género, Pablo Cuenca Tagle, elevó a juicio las dos primeras denuncias en su contra. Hay 13 denunciantes más afectadas, entre las que se encuentran dos adolescentes que eran menores de edad al momento de los hechos. Además, en el curso de la investigación se sumó una nueva imputación contra J.C. por tenencia de material de abuso sexual infantil. Cuando los investigadores analizaron sus teléfonos, tablet y computadoras, encontraron fotos y videos de adultos en situaciones eróticas pero también un video donde se observa a un niño en contextos de abuso sexual.
Hasta hace poco la huella digital que dejábamos en Internet podía volverse en nuestra contra como un boomerang: una expareja o un amante casual podía circular fotos o vídeos íntimas nuestras sin consentimiento, viralizarlas por venganza, chantajearnos con ellas o venderlas. Las sexteadoras, en una revolución sexual silenciosa y discreta, desarrollaron múltiples estrategias de autocuidado para reducir posibles daños: la más común fue decapitarnos simbólicamente en las imágenes, no mostrar el rostro, taparlo con emojis y/o no dejar registro de ninguna parte del cuerpo identificable, como tatuajes y/o marcas en la piel. Pero en la era de la post verdad, la desinformación y la Inteligencia Artificial ya no importa la huella digital. La vorágine con la que emergen nuevas formas de violencia sexual y tormento para las niñas, adolescentes y mujeres, contrasta con las respuestas judiciales, estatales y las estrategias de cuidado que se puedan desarrollar. ¿Cómo protegernos del uso de estas herramientas si ya no alcanza con los cuidados que podamos tomar?
En los últimos años los deepfakes con contenido sexual de mujeres menores de edad aumentaron exponencialmente en una curva de aceleración que no nos permitió casi abordar la conversación. Se trata de fotos, videos o audios que parecen reales, pero fueron manipulados con IA generativa. Los motivos detrás que empujan a los varones son variados: desde una especie de diversión perversa, pasando por la venganza como gesto de despecho, hasta los fines comerciales. En todos casos el sufrimiento de las víctimas es similar. La técnica más conocida se llama face swapping, o intercambio de rostros. Se sustituye la cara de una persona en una imagen o video por la de otra.
Según el informe “State of deepfake 2023″, de la empresa Security Hero, que rastrea la amenaza del uso malicioso de técnicas de IA Generativa en videos, imágenes y audio en entornos online a nivel global, el 99% del contenido pornográfico deepfake está protagonizado por mujeres. Entre 2022 y 2023, la cantidad de pornografía deepfake creada aumentó un 464% según ese mismo infome.
En Argentina, de 2024 a este año, se abrieron múltiples investigaciones judiciales en Ciudad de Buenos Aires, en las provincias de Chaco, Córdoba y Río Negro en las que los acusados siempre son adolescentes varones en escuelas o clubes barriales que intercambian, circulan y hasta venden fotos y vídeos explícitos por Whatsapp y Telegram de sus compañeras generadas por inteligencia artificial. En uno de esos expedientes, que tramita en la localidad de San Martín, un adolescente vendía paquetes de fotos de sus compañeras en un canal de Discord llamado “Colegialas” y en otro de Telegram. Los compradores pagaban hasta $25.000 por ese contenido adulterado.
Respuestas estatales a las deepfakes
Otras historias no llegan a transformarse en expedientes judiciales y son abordadas por las escuelas que, muchas veces, no tienen instrumentos o herramientas para dar respuestas. Por caso, el gobierno de la Ciudad de Buenos Aires publicó en diciembre del año pasado un protocolo para los colegios: propone el diálogo, instancias de trabajo y reflexión grupal, y la intervención del Consejo de los Derechos de Niños, Niñas y Adolescentes (CDNNyA) y la Unidad Especializada en Delitos y Contravenciones Informáticas, si las familias deciden la vía judicial.
¿Es suficiente buscar respuestas a los problemas de las violencias machistas en herramientas legales y administrativas cuando las plataformas están totalmente fuera de control? Conocemos los límites que propone el castigo como única respuesta pero también sabemos que a aquello que no se nombra no se le da entidad ni jerarquía. En Argentina, la legislación reconoce la violencia digital como una forma de violencia de género, pero no están tipificados específicamente en el Código Penal estos hechos de deepfake.
Ana Correa es abogada y activista feminista, además coordina el posgrado sobre violencia de género en entornos digitales de la Facultad de Derecho de la Universidad de Buenos Aires. Para ella, “están faltando tipos penales y eso es un gran problema porque al no haber una descripción de la conducta de generar deep fakes con contenido íntimo y distribuirlos sin consentimiento, no solo muchos casos quedan impunes, sino que al mismo tiempo se recurre a atajos tratando de equiparar esas conductas a otros tipos penales y entramos en un enchastre jurídico. Sabemos de casos en los que se recurre a otras figuras y se quieren pedir penas mayores a un homicidio y eso es una locura, además de violar el principio de legalidad”.
Desde octubre de 2023 la violencia de género en entornos digitales está incorporada a la ley 26.485, de protección integral para prevenir, sancionar y erradicar la violencia contra las mujeres. Exige que “se respete su dignidad, reputación e identidad, incluso en los espacios digitales”. En definitiva: para el Estado, si una adolescente o una mujer adulta manda una foto pero se comparte sin su permiso es violencia digital. Si es grabada sin que ella sepa mientras tiene relaciones sexuales es violencia digital. Si se roba un teléfono con fotos o videos sexuales y se usan para extorsionar también es violencia digital.
Esta normativa fue conocida como la Ley Olimpia porque toma el nombre de la mexicana Olimpia Coral Melo, víctima de la difusión de imágenes íntimas y quien empujó una legislación en su país que une las tierras aztecas con las locales. La ley Olimpia prevé una serie de medidas cautelares de protección que puede dictar el poder judicial, entre ellas, ordenar a las plataformas digitales el quite de los contenidos que generan la violencia.
Para Ana Correa, la Ley Olimpia contempla las alteraciones de imágenes como deep fakes y, a la vez, se enfoca en la prevención y concientización a través de políticas públicas, pero no se cumple. En su artículo tercero dice: “El Estado nacional deberá promover campañas de concientización, capacitación y difusión del uso responsable de las tecnologías, en especial sobre los efectos de la violencia digital y el respeto a la privacidad y la intimidad (…) Los contenidos deberán ser incorporados en los planes y programas de Educación Sexual Integral (ESI) y otras políticas educativas, conforme la ley 26.150…”
Mientras tanto, la Ley Belén es todavía un proyecto que busca incorporar la violencia digital al Código Penal y que además de penas, se pueda perseguir a los agresores. Toma el nombre de Belén San Román, una mujer policía de 26 años que vivía en la localidad bonaerense de Bragado. Era madre de dos hijos. El 30 de noviembre de 2020 Belén se disparó en la cabeza después de que un hombre que había sido su pareja subiera videos íntimos de ella. Esta iniciativa, presentada por la diputada feminista Mónica Macha, incluye numerosas modificaciones al Código Penal, con la creación de seis nuevos delitos, entre ellos la obtención y difusión no consentida de material íntimo y/o de desnudez, los montajes digitales realizados con Inteligencia Artificial en imágenes y videos de pornografía (“porn deepfake”) y la extorsión con amenazas de publicación de imágenes íntimas (“sextorsión”).
Más allá del Código Penal, Ana Correa suma un nuevo actor a la conversación: las plataformas. “Focalizarse solo en los tipos penales hace que se quite la responsabilidad de encima a las plataformas digitales que se diseñaron para permitir esto, y a las que permiten que circulen esos contenidos. Y como siempre en el derecho penal, se llega tarde, cuando el daño está hecho”.
Otro caso paradigmático del uso de la IA
El uso de Inteligencia Artificial para alterar imágenes y dañar a adolescentes y jóvenes también es usado contra periodistas y mujeres con voz pública. Hace algunas semanas la periodista feminista Julia Mengolini presentó una demanda contra el presidente Javier Milei y un grupo de dirigentes libertarios por los delitos de amenazas, intimidación pública, apología del crimen y presunta malversación de fondos públicos. La presentación fue radicada en el Juzgado Federal N° 2 de San Isidro donde se ordenó otorgarle una custodia policial ya que se consideró que las amenazas que viene sufriendo la periodista eran de “gravedad”.
Desde hace más de una década que Mengolini, fundadora de Futurock, es blanco de ataques en redes sociales. Esta vez la violencia escaló de manera feroz y superó todos los límites de la crueldad: desde cuentas libertarias comenzaron a afirmar que ella tiene una relación incestuosa con su hermano. Con una foto que sacaron de su Instagram, generaron con Inteligencia Artificial un video donde aparece dándose besos en la boca con él. El presidente le dedicó casi un centenar de tuits y un posteo en X el que hace una clara alusión a una venganza y habla de “vuelto” porque ella había dicho, según él, que duerme con sus ocho perros y tiene sexo con su hermana. Violencia machista digital, pero también estatal. No hay precedentes internacionales de un presidente en ejercicio atacando con una tropa digital a una ciudadana que además es una persona pública que ejerce el periodismo.
Mengolini y su equipo de abogados presentaron la denuncia a través de una clase pública en la Facultad de Derecho de la Universidad de Buenos Aires y abrieron una conversación sobre el tema. “Pretendemos sentar un precedente jurídico y en términos sociales. Es necesario reconstruir los lazos sociales y el respeto. Esto no es una discusión política ni una lucha ideológica. Esto es otra cosa, un nombre que yo no encuentro. El ataque por parte del Estado nacional con todas sus milicias digitales paraestatales contra una persona que es periodista pero que además es una persona y un ser humano, es un ataque brutal, asimétrico, que nadie merece y que nadie debería hacer”, dijo la periodista.
Y enlazó su historia con lo que pasa en los colegios secundarios: “Escuché a un director de escuela decir que están batallando para que los adolescentes no tomen fotos de sus compañeras y luego construyan imágenes con Inteligencia Artificial para luego mortificarse. ¿Cómo vamos a hacer ahora si el propio presidente lo avala? ¿Cómo le vamos a hablar a los pibes? Y yo creo que acá podemos tender una mano con quienes piensan distinto que nosotros porque creo que nadie pueda querer que su hija sea víctima de un ataque como este, ni que su hijo sea perpetrador de un ataque como este. Desde esa sensibilidad tenemos que partir a reconstruir algo”. Reconstruir una nueva sensibilidad en tiempos de odio parece mucho pero es urgente, al menos, conversar sobre esto.
Fuente: Volcánicas
María Florencia Alcaraz (1985) es periodista y Licenciada en Comunicación Social por la Universidad Nacional de La Matanza (UNLaM). Es co-directora y miembra fundadora del medio de comunicación nativo digital LatFem. Investiga y trabaja en comunicación política estratégica especialmente enfocado en narrativas de ampliación de derechos. Además es cronista en Desiguales por la Televisión Pública. Como periodista colaboró y colabora en distintos medios: Washington Post, Revista Anfibia, Cosecha Roja, Infojus Noticias, entre otros. Trabajó en radios comunitarias y en las radios FM Nacional Rock y El Destape. En 2018 condujo el ciclo de entrevistas a feministas por Youtube, La olla. En 2013 recibió el premio Lola Mora que entrega la Dirección de la Mujer de la Ciudad Autónoma de Buenos Aires por su trabajo en Infojus Noticias. En 2016 fue galardonada con el premio estímulo que entrega la escuela de periodismo TEA por su labor en periodismo digital.