El impacto de la inteligencia artificial generativa en la vida de una adolescente estadounidense ha encendido las alarmas sobre los límites éticos y la necesidad de protección en el entorno digital. Jane Doe, una joven de 17 años, fue víctima de una aplicación capaz de crear desnudos falsos a partir de simples fotografías con ropa, lo que la llevó a demandar a sus creadores.
En 2023, sus compañeros de instituto descargaron la aplicación y usaron imágenes suyas para generar falsos desnudos con solo tres clics, obteniendo resultados imposibles de distinguir de los reales. “Jane Doe estaba mortificada y emocionalmente desconsolada, y ha experimentado consecuencias desde entonces”, recoge la demanda presentada en el Tribunal de Distrito de Nueva Jersey.
La joven y sus padres denunciaron a la empresa AI/Robotics Venture Strategy 3, desarrolladora del programa, por promover un modelo de negocio que facilita la explotación digital. “Todo el modelo de negocio de los demandados se basa en los aspectos penales y delictivos de la explotación y victimización de niños y adultos”, detalla el texto, en referencia al contenido sexual generado sin consentimiento.
El caso revela una nueva forma de vulnerabilidad digital. “Porque no hay forma de determinar hasta qué punto llegaron a distribuirse las imágenes, Jane Doe ahora vive con el temor constante de que su imagen permanezca disponible en la app y en otros lugares”, indica la denuncia. El miedo se extiende al posible uso de sus fotografías para entrenar sistemas de inteligencia artificial que perpetúan el abuso.
Según la demanda, la aplicación genera unas 200 000 imágenes al día y recibe 27 millones de visitas, invitando abiertamente a “desnudas a cualquiera”. Este hecho plantea la urgencia de fortalecer la educación digital, la ética tecnológica y la legislación que proteja a los ciudadanos frente a un uso irresponsable y deshumanizado de la inteligencia artificial.