EEUU: Legisladores piden evaluar amenaza de videos falsos
WASHINGTON (AP) Un grupo bipartita de legisladores solicitó el jueves a los servicios de inteligencia de Estados Unidos una valoración de la amenaza que representa la tecnología que permite que cualquiera haga videos apócrifos, pero realistas, de personas diciendo cosas que nunca han dicho.
Las cada vez mayores capacidades de la tecnología generan preocupaciones de que se podrían utilizar para hacer un video falso, por ejemplo, de un político estadounidense aceptando un soborno, o de un líder nacional o extranjero que advierte de un inminente desastre.
Tres legisladores escribieron una carta al director de Inteligencia Nacional, Dan Coats, en el que solicitan que su departamento valore la potencial amenaza para la seguridad nacional de este tipo de videos hechos con alta tecnología y conocidos como deepfakes (una contracción de las palabras en inglés para aprendizaje profundo y falso).
Al difuminar los límites entre realidad y ficción, la tecnología deepfake podría socavar la confianza del público en las imágenes y videos grabados, y considerarlas representaciones objetivas de la realidad, escribieron los representantes Adam Smith, demócrata de California, Stephanie Murphy, demócrata de Florida, y Carlos Curbelo, republicano de Florida.
Nos preocupa mucho que la tecnología deepfake pronto pueda ser utilizada por extranjeros maliciosos.
Los deepfakes no son videos con fonomímica que se nota que son falsos. Esta tecnología utiliza un mapeo facial e inteligencia artificial para producir videos que parecen tan reales que es difícil saber si son apócrifos. Los republicanos y demócratas pronostican que esta forma de poner palabras en la boca de alguien se convertirá en la nueva arma en las guerras de desinformación en Estados Unidos y otras democracias occidentales.
Los legisladores les pidieron a las agencias de inteligencia presentar un reporte al Congreso para mediados de diciembre en donde describan la amenaza y posibles contramedidas que Estados Unidos podría desarrollar o aplicar para proteger a la nación.
Al caer en la cuenta de las implicaciones de la tecnología, la Agencia de Proyectos de Investigación Avanzados de Defensa de Estados Unidos creó un programa de cuatro años, del que ya lleva dos, para desarrollar tecnologías que puedan detectar imágenes y videos apócrifos. Por ahora, se requiere de un extenso análisis para distinguir entre videos falsos y reales. No es claro si las nuevas formas para depurar a los apócrifos le seguirán el ritmo a la tecnología utilizada para hacerlos.
Los deepfakes se llaman así porque utilizan aprendizaje profundo, una forma de inteligencia artificial. Se hacen al instruir a una computadora con un algoritmo, o paquete de instrucciones, y muchas imágenes y audios de una persona en particular. El programa informático aprende cómo imitar las expresiones faciales, gestos, voz y entonación de la persona. Si tienes suficientes videos y audios de alguien, podrás combinar un video apócrifo con un audio apócrifo de la persona y hacerlos decir cualquier cosa que quieras.