Responsable de llamadas falsas con voz de Biden dice que intentó mostrar necesidad de reglas para IA
CONCORD, Nueva Hampshire, EE.UU. (AP) — El consultor político responsable de las llamadas automatizadas con una voz similar a la del presidente estadounidense Joe Biden dijo el lunes que trataba de hacer sonar la alarma sobre los posibles usos indebidos de la inteligencia artificial, y que su objetivo no era influenciar el resultado de las primarias presidenciales de Nueva Hampshire del mes pasado.
Días después de ser identificado públicamente como el responsable de las llamadas, Steve Kramer confirmó en una entrevista que le pagó 150 dólares a un mago callejero de Nueva Orleans para crear un mensaje grabado que fue enviado a miles de votantes dos días antes de las primarias del 23 de enero. Los mensajes tenían una voz similar a la de Biden, empleaban su frase “Vaya sarta de tonterías”, e insinuaban falsamente que sufragar en las primarias les impediría a los votantes participar en las elecciones generales de noviembre.
“Quizás hoy soy el villano, pero creo que a fin de cuentas tenemos un mejor país y una mejor democracia gracias a lo que hice deliberadamente”, declaró Kramer.
Las autoridades de Nueva Hampshire han estado investigando las llamadas como una posible violación a la ley estatal contra la supresión del voto.
Kramer dijo que no concuerda con la idea de que sus llamadas automatizadas inhibieran la participación electoral, y destacó que Biden ganó las primarias demócratas por un amplio margen a pesar de no aparecer en las papeletas. Y aunque realizó algunas gestiones para otro precandidato presidencial demócrata —el representante Dean Phillips—, Kramer dijo que actuó de forma independiente para hacer ver los peligros de la inteligencia artificial.
Aunque las autoridades federales y de Nueva Hampshire han emitido una orden de cese y desistimiento contra dos compañías de Texas involucradas en la difusión de las llamadas automatizadas, Kramer dijo que ninguna de ellas sabía lo que él planeaba.
“Sus empresas no tenían ni idea de lo que yo estaba haciendo, y yo no pido permiso”, subrayó. “Dejo que el desenlace sea el que sea a fin de cuentas”.
Kramer, dueño de una compañía que se especializa en proyectos para promover la participación electoral, tiene décadas de experiencia en campañas a nivel federal, estatal y local, muchas de ellas en Nueva York. Dijo que, desde las elecciones de mitad de periodo de 2022, cada vez le preocupaba más que las campañas y los comités de acción política —entre otros— vayan a utilizar la inteligencia artificial de forma perjudicial. Frustrado ante el lento progreso de las normativas a nivel federal y estatal, dijo que hizo un propósito de Año Nuevo para abordar él mismo el problema.
“Una de las cosas que dije fue: este año quiero marcar una diferencia”, comentó. “Al hacerlo deliberadamente el domingo en la noche antes de las primarias del martes, cuando las personas que no están involucradas en la política ven, aunque sea casualmente, lo que está pasando... me dio una forma de despertar a todo el país”.
Kramer indicó que tenía planeado mantenerse en silencio hasta las primarias del fin de semana pasado en Carolina del Sur, pero el mago al que le pagó, Paul Carpenter, contó su historia a NBC News. Carpenter, quien se especializa en trucos con cartas e ilusiones, dijo a The Associated Press el viernes que pensaba que Kramer trabajaba para Biden, y se sorprendió cuando se enteró que había una investigación penal.
“Yo creeé el arma. No la disparé”, declaró Carpenter.
La fiscalía general de Nueva Hampshire se negó a comentar al respecto el lunes. Kramer no reveló si los investigadores estatales se han puesto en contacto con él, pero señaló que recibió una citación de la Comisión Federal de Comunicaciones (FCC por sus iniciales en inglés) y que cooperará con las autoridades.
La FCC se negó a comentar el lunes si había emitido una citación para Kramer, y señaló que trabaja diligentemente para combatir el uso indebido de la IA.
“Fui luchador en la universidad; estoy listo para la pelea”, subrayó. “Si me quieren encarcelar, buena suerte. Buena suerte, y lo digo en serio”.
“¿Si me quieren multar por hacer lo correcto cuando ellos no lo hicieron, a pesar de que ha sido su trabajo y fueron a una escuela de derecho elegante? Bien, ya dejé en claro un punto”.
Las sofisticadas herramientas de IA generativa, como el software para clonar voces y los generadores de imágenes, ya se utilizan en las elecciones estadounidenses y el resto del mundo, lo que ha desatado preocupaciones sobre la rápida propagación de desinformación. El año pasado, a medida que comenzaba la contienda por la presidencia de Estados Unidos, varios anuncios de campaña usaron audios o imágenes generados por IA, y algunos candidatos experimentaron con el uso de chatbots para comunicarse con los votantes.
Kramer calcula que se gastó unos 500 dólares para generar una cobertura mediática por un valor de 5 millones.
En el Congreso se llevan a cabo labores bipartidistas para regular el uso de la IA en las campañas políticas, pero no se ha aprobado ninguna ley federal. Sin embargo, desde que surgieron las llamadas automatizadas en Nueva Hampshire, la FCC ha prohibido ese tipo de llamadas que contengan voces generadas por IA, y las principales compañías tecnológicas han firmado un acuerdo para implementar precauciones de forma voluntaria con el fin de evitar que el uso de herramientas de inteligencia artificial afecte comicios.
Kramer dice que quiere ver acciones inmediatas en todos los organismos reguladores y plataformas sociales.
“Me tiene sin cuidado si me salen negocios o si una empresa me deja por esto”, explicó. “Hice lo correcto”.