Actualidad


La cara oculta de la inteligencia artificial: cómo las imágenes falsas de desnudos están siendo usadas para extorsionar


Descubre los peligros, casos reales y cómo protegerte de los nuevos chantajes digitales


Cobertura Especial
Cortesía SHUTTERSTOCK


Por La Redacción de Cobertura Especial

23 de julio de 2025


La línea entre lo real y lo artificial es cada vez más delgada y se está difuminando a una velocidad vertiginosa.

 

La inteligencia artificial (IA) está abriendo las puertas a una perturbadora forma de extorsión: la creación de imágenes de desnudos utilizadas para chantajear a otros.

 

Sofía, una brillante estudiante guatemalteca de 16 años, era activa en las redes sociales, compartiendo fotos de sus actividades escolares y pasatiempos. Un día, recibió un mensaje de una cuenta desconocida que afirmaba tener "pruebas" de su doble vida.


Adjunto al mensaje, había una serie de imágenes de desnudos que, aunque falsas, parecían inquietantemente reales y mostraban su rostro.


 El extorsionador exigía $500 para "eliminar" las fotos.


Se trata de un fenómeno, conocido como "sextortion" (sextorsión) o extorsión sexual, facilitada por recursos novedosos e insólitos en la red.


¿Cómo funciona la sextorsión?

 

Todo inicia con la creación de contenido explícito no consensuado, utilizando algoritmos avanzados de aprendizaje profundo, que permite a la IA tomar fotografías de personas vestidas y transformarlas en imágenes de desnudos convincentes, sin que la víctima pose para ellas.

 

cobertura especial

Cortesía www.pixabay.com

 

Los extorsionadores, a menudo contactan a sus víctimas a través de redes sociales, aplicaciones de mensajería o incluso videojuegos en línea. Una vez que obtienen fotografías de la persona (a veces tomadas de perfiles públicos), las manipulan a su antojo.

 

La amenaza es simple y brutal: pagar una suma de dinero o ceder ante las exigencias del extorsionador, a cambio de no revelar las imágenes al público.

 

Según un informe de la National Center for Missing and Exploited Children (NCMEC) de 2023, ha habido un incremento significativo en los casos de "sextorsión" que involucran IA, afectando principalmente a menores de edad.

 

Por otro lado, términos como "deepfakes", “deepnude” y “Undress IA”, también son utilizados para describir la generación de imágenes ultrarrealistas, sin consentimiento.


En el caso de "deepfakes" (falsificaciones profundas), es capaz de crear situaciones íntimas, que parecen auténticas. 

 

Libre acceso


Programas de código abierto, tutoriales en línea y servicios "deepfake" de pago, permiten a individuos con poca experiencia técnica generar estas imágenes.


Muchas herramientas legítimas de IA generativa requieren pago o suscripción para crear imágenes, pero éstas solicitan la identidad real del usuario; sin embargo, existen sitios web de deepnude (desnudo profundo) gratuitos, que pueden producir fotografías sugestivas, pero de baja calidad.


Si un niño sube una imágen vestido de sí mismo o de un amigo, el sitio o la aplicación podrían hacer un mal uso de ella; incluyendo el “desnudo profundo”.


Las herramientas de IA de Undress utilizan un lenguaje ingenioso para atraer a los usuarios, en especial, a los menores de edad que, por curiosidad, ingresan y ven la herramienta como un juego inocente.

 

El efecto de los desnudos creados por IA

 

cobertura especial
Cortesía imagen generada por IA


Sofía accedió a pagar la suma que le exigían, pero la extorsión no cesó. La joven desarrolló un terrible cuadro de ansiedad, dejando atrás los días en que se le veía feliz.


En México, Marcos, de 14 años, conoció a una "chica" en un foro de juegos. Después de varias semanas de conversación, la "amiga" (quien en realidad era un hombre adulto) le pidió que le enviara algunas fotos de sí mismo para "conocerse mejor". 

Días después, Marcos recibió un paquete de imágenes pornográficas manipuladas con su rostro, acompañadas de una demanda de $1,000.

 

Elena, una joven influencer española con miles de seguidores en Instagram, se convirtió en blanco de un "deepfake" de venganza. 


Tras la ruptura conflictiva con un exnovio, comenzaron a circular en grupos de Telegram y foros, imágenes alteradas de la influencer desnuda. 


Su reputación se vio seriamente comprometida. Perdió contratos de patrocinio y recibió mensajes de odio y acoso.

 

En los tres casos, las víctimas y sus familias debieron pedir ayuda a las autoridades, contratar expertos para eliminar el contenido falsificado en línea, y pagar sesiones con psicólogos a fin de recuperar la calma.

 

Consejos para prevenir

 

cobertura especial
Cortesía https://pixabay.com/

 

  • 1. No compartas fotos íntimas o sensibles con ninguna persona.
  • 2. Si hacemos amigos en línea, verifica su identidad. La búsqueda inversa puede ayudar.
  • 3. No hagas clic en enlaces sospechosos ni descargues archivos de fuentes desconocidas.
  • 4. Utiliza configuraciones de privacidad en redes sociales para limitar quién puede ver tu contenido.
  • 5. Mantente informado. La educación digital te permite conocer las nuevas técnicas de manipulación y cómo identificar contenido falso.
 

Y, especialmente, lee cuidadosamente lo que dice la Biblia en Proverbios 14:15 (NVI): "El ingenuo cree todo lo que le dicen; el prudente reflexiona antes de actuar".

 

Haz uso del discernimiento y la prudencia. La IA puede generar contenido convincente pero falso. Verifica antes de creer o actuar sobre información, especialmente cuando proviene de fuentes desconocidas.

 

¿Te ha gustado este reportaje? Comparte en tus redes sociales.

 

Cobertura Especial, una poderos perspectiva.

 

Destacados




Tendencias
COberturaEspecialFIndelmundo1
El fin del mundo ¿Qué tan cerca está?

Actualidad

android-8064152_1280
Inteligencia Artificial (IA) y los cristianos

Cristianos Tech

people-6736724_1280
Los beneficios de ser Cristiano

Actualidad

comentarios