fbpx

¡Alerta! IA genera ‘nuevo contenido’ con fotos de cualquier persona para el porno deepfake

24 de Mayo 2023.- La Inteligencia Artificial (IA) ha aparecido en la cotidianidad, de manera paulatina, se ha normalizado tener acceso a asistentes virtuales, tener planificadoras de viajes inteligentes, usar probadores virtuales, estudiar el comportamiento de los usuarios y de un tiempo para acá, el acceso a imágenes generadas por IA que desafían nuestra percepción de la realidad.

Con una tecnología que se ha viralizado en redes, las desarrolladoras de imágenes brindan la oportunidad de generar mundos y dar vida a las ideas más increíbles que se puedan encontrar. Desde cómo serían las selfies en la prehistoria, hasta fotografías del Papa utilizando jeans, la resolución y calidad engañan con facilidad al ojo humano, un suceso que puede parecer divertido hasta que se hace una lectura más profunda de los peligros de tergiversar y sobre todo, de dañar la imagen de terceros.

En ese sentido, las desarrolladoras han lanzado una señal de alerta y es que, quienes hacen uso de estas herramientas han perfeccionado sus técnicas y generado un nuevo tipo de contenido: la pornografía deepfake.

De manera concreta, esta clase de videos e imágenes corresponden a pornografía explícita hecha a las exigencias del consumidor, la cuestión trasciende cuando estos desarrolladores hacen uso de la imagen de personas. Por ejemplo, se generan videos y fotografías pornográficas con el rostro de presidentas, periodistas, actrices, escritoras y en general, de cualquier mujer, siempre y cuando exista una persona dispuesta a pagar por ello.

El trabajo consiste en que, a raíz del contenido existente, se pueda modificar el rostro de los involucrados en el acto sexual y montar la cara de otra persona.

Este contenido se ha vuelto tan redituable que en internet existen miles de este contenido donde se involucran a personas influyentes o actrices, todo con el objetivo de que cualquier usuario que tenga acceso a ello, pueda fantasear y violentar sexualmente a estas mujeres sin su consentimiento.

Asimismo, surge otra preocupación importante que es el uso de esta tecnología para dañar a sus exparejas a través de la difusión de supuesto contenido sexual. Sobre esta línea, se puede dar pie a la extorsión, chantaje emocional y violencia psicológica de millones de mujeres alrededor del mundo, todo esto, al alcance de un botón.

Esto es apenas el inicio
La generación de imágenes gracias a la IA es algo relativamente novedoso lo que preocupa en demasía a las empresas desarrolladoras, aún esta herramienta se encuentra dando sus primeros pasos y consterna el camino pornográfico que han comenzado a tomar las IA.

La realidad es que, de manera paulatina, esta herramienta comenzará a perfeccionarse y a alcanzar niveles de realidad sorprendentes que nos harán dudar si todo lo que vemos en internet es verdadero o no. Las deepfakes alcanzarán un desarrollo sorprendente y además, al alcance de todos.

“La realidad es que la tecnología continuará proliferando, continuará desarrollándose y seguirá siendo tan fácil como presionar un botón” (Adam Dodge, fundador de EndTab, grupo que previene y capacita el abuso tecnológico)

Imagen creada por IA, ninguna de estas mujeres existe.

Las proyecciones de aquí a cinco años son desalentadoras y hace un llamado urgente para generar protocolos de protección, implementar perspectiva de género y por supuesto, incluir en la programación de estas tecnologías a mujeres profesionistas que abonen en la prevención de este tipo de violencia, pues al hablar de una herramienta con un impacto tan importante en la humanidad, es impensable que todo quede en manos de un grupo de hombres programadores que replican comportamientos misóginos y desde la ginopia, desconocen la posibilidad de entender y reconocer la experiencia femenina.

“Si quienes enseñan a las computadoras a actuar como humanos son mayoritariamente hombres, entonces, hay una gran posibilidad de que los productos resultantes tengan un sesgo de género. Esto podría explicar por qué su visión del mundo refleja las normas sociales del grupo que las creó (…) cosifica a las mujeres y perpetúa los estereotipos de género” (leana Stigliani, catedrática de la Escuela de Nacional del Imperial College de Londres en entrevista para la BBC Mundo)

Con este aumento alarmante de pornografía deepfake y la creación de OnlyFans de mujeres sin su consentimiento, estas son algunas acciones que han comenzado a tomar algunas de las desarrolladoras más importantes a nivel global.

DALL-E : Eliminó todo contenido explícito de su base de datos para entrenar a la herramienta y que ésta sea imposible de generar contenido de este corte. Además, ha implementado un filtro de las solicitudes y bloquea a todo usuario que intente crear contenido comprometedor con el rostro de figuras públicas.
Midjourney: Identifica palabras claves que hagan alusión a la pornografía o contenido explícito y bloque a los usuarios. Tiene en marcha una campaña para que sus consumidores denuncien las cuentas de quienes generan imágenes problemáticas.
Stability IA: Una de las desarrolladoras de IA en ascenso que ha ganado reflectores mundiales, ha implementado en noviembre una actualización que elimina toda imagen sexualmente explícita y limita la facultad de generar este contenido. Estas medidas se implementaron luego de que la compañía fuera señalada de ser una de las principales generadoras de desnudos y deepfake en el internet.

Con información de La Cara de Eva.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Powered by WordPress.com. Tema: Baskerville 2 por Anders Noren.

Subir ↑

A %d blogueros les gusta esto: