Cómo están haciendo frente legisladores de EEUU a deepfakes como los que afectaron a Taylor Swift
Incluso antes de que empezaran a circular ampliamente las deepfakes pornográficas y violentas de Taylor Swift, legisladores estatales de todo Estados Unidos habían buscado la manera de acabar con ese tipo de imágenes no consensuadas, tanto de niños como de adultos.
Pero en esta era tan enfocada en todo lo que esté relacionado con Swift, el problema ha llamado aún más la atención desde que la cantante fue objeto de deepfakes, imágenes generadas por computadora que utilizan inteligencia artificial para que parezcan reales.
Esto es lo que hay que saber sobre lo que han hecho los estados al respecto y lo que están sopesando:
La inteligencia artificial llegó a las masas el año pasado como nunca antes, lo que permitió a la gente crear deepfakes cada vez más realistas. Ahora están apareciendo en internet más seguido, y en distintas formas.
Está la pornografía, que se aprovecha de celebridades como Swift para crear imágenes comprometedoras falsas.
Está la música —una canción que sonaba como Drake y The Weeknd cantando obtuvo millones de reproducciones en los servicios de streaming— pero no era de esos artistas. La canción fue retirada de las plataformas.
Y también hay trucos políticos sucios. En este año electoral en Estados Unidos, poco antes de que se celebraran las primarias presidenciales en enero, algunos votantes de Nueva Hampshire reportaron haber recibido llamadas automáticas en las que presuntamente hablaba el presidente Joe Biden y les decía que no se molestaran en emitir su voto. La fiscalía general del estado abrió una investigación al respecto.
Pero una situación mucho más común es la pornografía que utiliza la imagen de personas no famosas, inclusive de menores de edad.
Las deepfakes son sólo un área del complicado campo de la IA que los legisladores están tratando de averiguar si debe ser abordada y cómo hacerlo.
Por lo menos 10 estados han promulgado leyes relacionadas con las deepfakes. Varias medidas más están bajo consideración este año en los Congresos estatales del país.
Georgia, Hawai, Texas y Virginia tienen leyes que penalizan las deepfakes pornográficas creadas sin consentimiento.
California e Illinois han dado a las víctimas el derecho de demandar a aquellos que generen imágenes en las que utilizan su imagen.
Minnesota y Nueva York también. La ley de Minnesota también abarca el uso de deepfakes en la política.
Siwei Lyu, profesor de informática de la Universidad de Buffalo, dijo que se está trabajando en varios enfoques, pero que ninguno de ellos es perfecto.
Uno es utilizar algoritmos para detectar las deepfakes, los cuales pueden ser usados para marcar las imágenes manipuladas en sitios como las plataformas de redes sociales.
Otro —que Lyu dijo está en desarrollo pero aún no es utilizado ampliamente— es insertar códigos en el contenido que la gente sube, los cuales señalarían si son reutilizados en la creación de contenido por medio de IA.
Y un tercer mecanismo sería requerir a las compañías que ofrezcan herramientas de IA que incluyan marcas de agua digitales para identificar contenido generado con sus aplicaciones.
Dijo que tiene sentido hacer rendir cuentas a esas compañías por la manera en que la gente utilice sus herramientas, y las empresas pueden a su vez hacer cumplir acuerdos alcanzados con el usuario contra la creación de deepfakes problemáticas.
Un modelo normativo propuesto por el Consejo Estadounidense de Intercambio Legislativo aborda la pornografía, pero no la política. Ese grupo conservador y proempresarial está alentando a los estados a hacer dos cosas: penalizar la posesión y distribución de deepfakes que muestren a menores en actos sexuales, y permitir a las víctimas demandar a la gente que distribuya deepfakes no consensuadas que muestren conductas sexuales.
“Les recomendaría a los legisladores que empiecen con una corrección obligatoria pequeña que pueda resolver un problema tangible”, dijo Jake Morabito, que dirige el grupo de trabajo de comunicaciones y tecnología para el Consejo. Advirtió que los legisladores no deberían ir tras la tecnología que puede ser utilizada para crear las deepfakes, ya que eso podría acabar con la innovación para otros usos importantes.
Todd Helmus, científico del comportamiento en RAND —un centro de estudios apartidista—, señaló que dejar la vigilancia del cumplimiento de la ley en manos de individuos que presenten demandas no es suficiente. Se requieren recursos para entablar una demanda, comentó. Y el resultado podría no valer la pena. “No vale la pena demandar a alguien que no tiene nada de dinero para darte", dijo.
Helmus pide que haya salvaguardas para todo el sistema, y dice que hacerlas funcionar probablemente requerirá que el gobierno se involucre.
Indicó que OpenAI y otras compañías cuyas plataformas puedan ser utilizadas para generar contenido que parece real deberían tomar medidas para evitar la creación de deepfakes; las compañías de redes sociales deberían implementar mejores sistemas para evitar que las imágenes falsas se propaguen, y debería haber consecuencias jurídicas para aquellos que lo hagan de todas formas.
Jenna Leventoff, abogada especialista en la Primera Enmienda constitucional que trabaja para la Unión Americana de Libertades Civiles, dijo que aunque las deepfakes pueden causar daños, las protecciones a la libertad de expresión también se aplican a ellas, y los legisladores deberían asegurarse de que no vayan más allá de las excepciones existentes a la libertad de expresión —tales como difamación, fraude y obscenidad— a la hora de intentar regular esta tecnología emergente.
La semana pasada, la secretaria de Prensa de la Casa Blanca, Karine Jean-Pierre, abordó el tema, señalando que las compañías de redes sociales deberían crear e implementar sus propias reglas para evitar la propagación de desinformación e imágenes como las de Swift.
Un grupo bipartidista de legisladores presentó un proyecto de ley federal en enero que le daría a la gente el derecho sobre la propiedad de su propia imagen y voz, y la capacidad de demandar a aquellos que los utilicen de forma engañosa mediante una deepfake, por cualquier motivo.
La mayoría de los estados están sopesando algún tipo de proyecto de ley para hacer frente a las deepfakes en sus sesiones de este año. Han sido presentados por demócratas, republicanos y coaliciones bipartidistas de legisladores.
Entre las medidas que van ganando terreno está una en Indiana —donde predominan los republicanos— que tipificaría como delito el distribuir o crear imágenes sexualmente explícitas de una persona sin su consentimiento. Fue aprobada unánimemente en la Cámara de Representantes en enero.
Una iniciativa similar presentada esta semana en Missouri lleva el nombre de "Ley Taylor Swift”. Y otra fue aprobada esta semana en el Senado de Dakota del Sur, donde el fiscal general Marty Jackley dijo que algunas investigaciones han sido entregadas a funcionarios federales debido a que el estado carece de leyes relacionadas con la IA y que son necesarias para presentar cargos.
“Cuando vas a la cuenta de Facebook de alguien, robas la imagen de su hijo y la conviertes en pornografía, no existe un derecho garantizado por la Primera Enmienda para eso”, señaló Jackley.
Para cualquier persona que tenga presencia en internet, puede ser complicado evitar ser víctima de las deepfakes.
Pero Helmus, del centro de estudios RAND, dijo que la gente que se entere que ha sido víctima de ellas puede pedir a la plataforma de redes sociales donde se compartieron las imágenes manipuladas que las elimine; puede recurrir a la policía si está en algún lugar donde exista una ley al respecto; decirle a los responsables de su escuela o universidad si el presunto infractor es un estudiante, y buscar ayuda psicológica si es necesario.
___
Periodistas de The Associated Press de distintas partes de Estados Unidos contribuyeron a este despacho.