(NewsNation) — Las herramientas de inteligencia artificial (IA) que se pueden utilizar para “desnudar” a alguien en una fota mediante IA son fáciles de encontrar en línea y, a veces, incluso están impulsadas por cuentas en sitios de redes sociales como YouTube y TikTok.
Una búsqueda en TikTok realizada por NewsNation reveló docenas de videos que promocionan sitios web que permiten a los usuarios “quitar la ropa de cualquier imagen”, incluidas las de la persona que le gusta.
“¿Tienes alguna foto de la persona que te gusta?”, decía un hombre, que parece estar generado por IA, en un TikTok del 18 de septiembre. “Descubrí un sitio web de IA increíble que estoy seguro te resultará interesante porque ninguna chica quiere que sepas sobre esta herramienta. Puedes quitar la ropa de cualquier foto”.
NewsNation revisó otros videos similares que se han publicado en TikTok en los últimos meses, los cuales parecen estar generados por IA. Cada uno sigue un guión casi idéntico con la misma cadencia robótica.
La semana pasada, una búsqueda en TikTok de desnudos con IA arrojó varios resultados, pero un día después la plataforma bloqueó la búsqueda. En cambio, un mensaje decía: “Esta frase puede estar asociada con un comportamiento o contenido que viola nuestras pautas”.
Los términos de búsqueda relacionados, algunos de los cuales aparecían en la barra lateral “Otros Buscaron” de la aplicación, resurgieron en las publicaciones.
A principios de este mes, una controversia sobre una fotografía de desnudos en Nueva Jersey amplificó las preocupaciones sobre el ciberacoso y la inteligencia artificial.
Los estudiantes de Westfield High School dijeron al Wall Street Journal que uno o más compañeros de clase utilizaron una herramienta en línea para generar imágenes pornográficas utilizando IA de compañeras de clase y luego las compartieron en chats grupales.
“Me aterroriza cómo y cuándo saldrá a la luz esto. Mi hija tiene un futuro brillante y nadie puede garantizar que esto no la afectará profesional, académica o socialmente”, dijo Dorota Mani, madre de un estudiante de 14 años al Journal.
Mientras la policía de Westfield aún investiga, no está claro qué herramienta de inteligencia artificial supuestamente usaron los niños, o cómo se enteraron de ella, aunque los expertos dicen que Internet está inundado de tutoriales y programas fáciles de usar.
“Existe todo un ecosistema para estas cosas”, dijo Adam Dodge, un abogado cuya organización EndTAB se centra en acabar con el abuso facilitado por la tecnología.
Las aplicaciones “desnudadoras” de IA y otras herramientas de IA pueden tomar imágenes reales y quitarle la ropa a las personas en la fotografías utilizando algoritmos de aprendizaje profundo. Esos algoritmos generalmente se entrenan con imágenes de mujeres y permiten que las aplicaciones de inteligencia artificial superpongan imágenes realistas de partes del cuerpo desnudas, incluso si la persona en la foto original está vestida.
Las herramientas son fáciles de conseguir, pero NewsNation descubrió que también están siendo impulsadas por cuentas en TikTok y YouTube, dos de los sitios de redes sociales más populares para los adolescentes estadounidenses, según Gallup.

Cuando se le contactó por correo electrónico, TikTok respondió eliminando los dos clips marcados por NewsNation, citando su política de contenido generado por IA, que requiere que los medios manipulados se revelen claramente.
Un portavoz también destacó las pautas de explotación sexual de la compañía que prohíben a los usuarios editar la imagen de otra persona para sexualizarla.
Los videos subidos a TikTok se revisan inicialmente mediante tecnología automatizada y luego los moderadores trabajan junto con esos sistemas para tener en cuenta el contexto adicional, según las pautas de la empresa. Se supone que el contenido y las cuentas que violen esas reglas deben eliminarse.
La compañía no explicó específicamente cómo pretende tomar medidas enérgicas contra el contenido generado por IA que dirige a los usuarios a herramientas nudificadoras de IA, pero señaló el bajo número de visitas a las publicaciones destacadas por NewsNation.
Docenas de videos similares publicados en TikTok desde varias cuentas que conectan sitios web de eliminación de ropa con IA permanecían publicados hasta el jueves. El número de visitas a esas publicaciones osciló entre cientos y varios miles.

En YouTube, donde el adolescente estadounidense promedio pasa aproximadamente dos horas al día, los videos que muestran a los usuarios cómo generar “imágenes de IA no seguras para el trabajo (NSFW)” han acumulado cientos de miles de visitas.
Cuando NewsNation buscó contenido de IA en el sitio, la popular plataforma de videos y redes sociales, propiedad de Google, tenía una publicación patrocinada en la parte superior de su página promocionando un “quitaropa de IA” que prometía los “mejores desnudos profundos de IA”.
Google no respondió cuando se le preguntó si la publicación patrocinada o los videos tutoriales violaban sus pautas, que prohíben el “contenido explícito” que pretende ser “sexualmente gratificante”.
Dodge cree que las empresas de redes sociales deben hacer más para proteger a los usuarios, especialmente a los niños.
“En mi opinión, no han actuado lo suficientemente rápido ni con suficiente intención”, afirmó. “Pueden usar su algoritmo, pueden usar IA para identificar y eliminar estos videos en tiempo real si así lo desean”.
Esta semana, YouTube reveló nuevas reglas que requerirán que los creadores de videos revelen cuando hayan creado contenido alterado o sintético que parezca real. Al igual que TikTok, Google se basa en una combinación de tecnología de inteligencia artificial y personas reales para hacer cumplir las pautas de su comunidad.
La política se produce en medio de un ecosistema de IA que cambia rápidamente, donde descifrar lo real de lo falso nunca ha sido tan difícil.
Dodge fundó EndTAB en 2019 para educar a las personas sobre las amenazas en línea y, desde entonces, las herramientas de inteligencia artificial han evolucionado a medida que la pornografía deepfake no consensuada se vuelve aún más generalizada.
“Está en todas partes y, si lo buscas, es muy fácil de encontrar”, dijo Dodge. “Incluso si no lo estás buscando, es probable que estés expuesto a él de una manera o forma”.
La cantidad de videos deepfake en línea se ha disparado en los últimos años, duplicándose aproximadamente cada seis meses entre 2018 y 2020, según Sensity AI, una empresa que detecta medios sintéticos. La gran mayoría de los deepfakes, alrededor del 96%, son pornografía no consensuada, según ha descubierto Sensity AI.
Durante el verano, una artista de Lansing, Michigan, se sorprendió al recibir una imagen suya desnuda de manos de un completo desconocido.
“Publiqué una foto mía completamente vestida, y aquí está la misma foto mía desnuda”, dijo Mila Lynn a WLNS, afiliada de NewsNation.
A medida que la tecnología evoluciona rápidamente, los gobiernos todavía están tratando de ponerse al día. En Estados Unidos no existen regulaciones federales sobre deepfakes; sin embargo, propuestas recientes pronto podrían cambiar eso . Mientras tanto, algunos estados han actuado por su cuenta.
A principios de este año, los legisladores de Illinois aprobaron una legislación para acabar con los deepfakes. Nueva York aprobó recientemente una prohibición similar. En Indiana, los legisladores están trabajando para actualizar la ley estatal sobre pornografía infantil para asegurarse de que incluya imágenes generadas por IA.
Pero incluso cuando se agregan barreras adicionales, Dodge dijo que es importante que los padres enseñen a sus hijos sobre las amenazas en línea.
“[Los niños] saben que deben esperar a que el semáforo se ponga verde antes de cruzar la calle”, dijo. “Lo saben porque sus padres les enseñaron cómo hacerlo… sólo tenemos que adoptar ese enfoque y aplicarlo a sus vidas en línea”.