En la superficie de internet –frente a la mirada de todos- se propaga una epidemia de aplicaciones comerciales que recurren a la Inteligencia Artificial (IA) para generar imágenes de desnudos no consentidos. Aunque algunos gobiernos impulsan medidas legales para bajar sus persianas, millones de personas siguen accediendo a estos surtidores y sus promotores obtienen ganancias millonarias.
El contenido explícito generado por estas plataformas de deepfake, al que desde lo jurídico se las denomina como abuso de imágenes íntimas no consensual (AIIC), se transformó en una forma creciente y sofisticada de violencia digital.
Este fenómeno, considerado como un daño colateral de los avances de IA generativa, dio lugar a un ecosistema oscuro compuesto por sitios web de “nudificación”, algoritmos y bots diseñados para producir imágenes artificiales sin el consentimiento de las víctimas.
Estas tomas explícitas, antes reservadas a quienes poseían conocimientos técnicos avanzados, hoy están al alcance de cualquiera gracias a plataformas que automatizan estos procesos. En unos pocos clics, modifican la ropa, la forma del cuerpo o la pose y generan contenido sexual con una facilidad inquietante.
Qué es la “nudificación”
Desde comienzos de este año, la publicidad de plataformas que ofrecen desnudos generados por IA se incrementó un 2.400%, según un estudio de la Universidad de Florida. Estas campañas suelen difundirse a través de las principales redes sociales, donde estos sitios promocionan sus servicios con el objetivo de atraer nuevos clientes.
«Estas imágenes representan un paradigma radicalmente diferente a las creadas con Photoshop. La IA generativa facilita, agiliza y hace más realista su gestación», explica Kevin Butler, PhD del departamento de ciencias de la computación de la Universidad de Florida.
Y agrega: «Las imágenes sintéticas tienen la capacidad de causar daño. Esto constituye una forma de abuso sexual contra el sujeto que, por definición, se representa sin consentimiento».
Estos ataques comenzaron distribuyendo fotos falsas de estrellas del pop como Taylor Swift o Billie Eilish, se extendió a figuras públicas como la primera ministra de Italia, Giorgia Meloni, hasta desembocar en cualquier individuo, sin importar sexo ni edad.
Una encuesta realizada por Save the Children -difundida una semana atrás- señaló que uno de cada cinco jóvenes afirmó que alguien había compartido imágenes creadas con IA para mostrarlos desnudos cuando eran menores de edad y sin su consentimiento.
“Estas cifras representan solo la punta del iceberg, ya que la mayoría de los casos no se conocen, en parte debido a la falta de denuncias y a las dificultades para detectarlos, que aumentan cuando estos hechos tienen lugar en Internet”, advierte Catalina Perazzo, directora de Incidencia Social y Política en Save the Children.
El anonimato, la viralidad y la facilidad técnica con la que se generan estas imágenes -como señalan en Wired– contribuyen a su rápida propagación, dejando secuelas emocionales profundas y exponiendo vacíos legales aún sin resolver.
Estos mercados de la pornografía que operan con aparente legitimidad, alojan sus datos en servicios de nube convencionales como Amazon Web Services y Cloudflare, sin que estos proveedores estén al tanto del uso que se les da. “Se alojan en plataformas de confianza”, lo que revela una inquietante normalización tecnológica.
Un mercado fuera de control
Un análisis realizado por el sitio de investigación Indicator reveló el alcance alarmante del negocio de los nudificadores: en solo seis meses, estos portales registraron un promedio mensual de 18,5 millones de visitantes.
Las estimaciones económicas de este leviatán son igualmente contundentes: las ganancias combinadas de sitios como Deepnude, UndressAI.tools o PornWorks AI podrían superar los 36 millones de dólares anuales.
Uno de los más populares es ClothOff, que recibe más de 4 millones de visitas mensuales y donde proclama “conseguí tu foto desnuda procesada en solo 15 segundos”. Se puede acceder a la app a través de un celular y al hacer clic en un botón que confirma que el usuario tiene más de 18 años. Cobra aproximadamente 6 dólares por cada 144 créditos.
El modelo detrás de este lucrativo sistema se basa en la venta de “créditos” o suscripciones que habilitan a los usuarios a generar imágenes y videos falsos con desnudos no consentidos. Los pagos, canalizados mediante criptomonedas, otorgan a los operadores un doble beneficio: anonimato y estabilidad financiera.
Los servicios de “nudificación” con IA se volvieron un negocio lucrativo, sostenido por la falta de control real sobre la IA generativa, denuncia Alexios Mantzarlis, cofundador de Indicator e investigador en seguridad online. “El enfoque laissez-faire (dejar hacer) de Silicon Valley ha permitido que este mercado persista, incluso cuando quedó claro que su único uso era el acoso sexual”, advierte.
Estos materiales suelen ser hiperrealistas, lo que maximiza su capacidad de causar daño y de engañar tanto a las víctimas como a quienes los visualizan.
Si bien los primeros “nudificadores” se centraban casi exclusivamente en imágenes, el avance de la tecnología ha permitido la manipulación y fabricación de videos alterados, llevando el fenómeno a una nueva dimensión de peligrosidad y alcance.
El negocio no está exento de riesgos para quienes intentan aprovecharlo. La popularidad alcanzada derivó en múltiples sitios fraudulentos, algunos operados por hackers que ofrecen aplicaciones modificadas con malware para captar datos personales y financieros.
La difícil tarea de eliminar lo publicado
Eliminar este material de forma permanente es muy complicado, el contenido abusivo sigue reapareciendo y con él se prolonga el estrés emocional y la vulnerabilidad percibida por las víctimas. Para combatir este flagelo digital, Estados Unidos y Gran Bretaña pusieron en marcha acciones legales y regulatorias.
El presidente Donald Trump firmó la ley bipartidista «Take It Down», que penaliza la publicación no consensuada de imágenes íntimas y al mismo tiempo, exige su eliminación de las plataformas que la hayan expuesto.
Meta también anunció recientemente que presentaría una demanda contra una empresa de Hong Kong detrás de una aplicación de nudify llamada Crush AI, que según advierte, eludió repetidamente las reglas del gigante tecnológico para publicar anuncios en sus plataformas.
Una encuesta reciente de Thorn, organización sin fines de lucro que combate la explotación infantil en línea, reveló que el 6% de los adolescentes estadounidenses fueron víctima de desnudos falsos. El fenómeno, que ya genera preocupación por su impacto psicológico, se vuelve aún más grave cuando se cruza con delitos como la sextorsión.
El FBI alertó sobre un «aumento horroroso» de casos dirigidos a menores, principalmente varones de entre 14 y 17 años. Según la agencia, estas amenazas han derivado en un “número alarmante de suicidios” por la vergüenza de ser expuestos.
Una de esas tragedias ocurrió este año en Kentucky, donde un adolescente se quitó la vida luego de recibir mensajes extorsivos en los que se le exigían 3.000 dólares para no divulgar una imagen falsa de él desnudo, creada mediante IA. Sus padres descubrieron los mensajes después de su muerte.
SL