Audios con IA generan incertidumbre para las elecciones de 2024
Audios generados con inteligencia artificial, que simulan voces de candidatos o líderes, han llegado a México, a medio año de las elecciones presidenciales
- Por: AP
- 30 Noviembre 2023, 09:05
A los votantes que ya no creen en lo que dicen los políticos les toca ahora discernir si es real incluso lo que les oyen decir.
Audios generados con inteligencia artificial, que simulan voces de candidatos o líderes, se han colado ya en la política, a medio año de las elecciones presidenciales en las que el partido del presidente Andrés Manuel López Obrador —quien no puede reelegirse— se juega su permanencia en el poder.
El ejemplo más reciente, que está relacionado con las pugnas internas en el partido de Morena en la Ciudad de México, ha despertado incertidumbre sobre lo que es real y lo que no en las campañas políticas. También ha levantado el debate acerca de si es posible tener una respuesta totalmente certera sobre estos materiales.
Los expertos en inteligencia artificial ya advierten de la amenaza: ni el oído humano puede distinguir audios originales de los recreados ni tampoco la tecnología puede garantizar una comprobación 100% fiable.
Lo difícil de verificarlos contrasta con la sencillez con la que pueden ser creados con inteligencia artificial.
La circulación de audios deepfake —que imitan hasta suplantar el tono e identidad de un personaje público— “pone en riesgo el ecosistema de información, porque la gente empieza a tomar decisiones distorsionadas o empiezan a contaminar la esfera pública”, dijo a AP Jesús González, técnico académico del Instituto de Investigaciones Jurídicas de la UNAM enfocado en inteligencia artificial.
“Puede generar espacios de desconfianza en donde no sabemos bien qué es lo real y qué es falso”
Jesús González
Y el problema no termina ahí.
Miguel Ángel Romero, analista y consultor político, alerta que estos audios se comparten en un contexto donde también proliferan las filtraciones en México: autoridades que difunden conversaciones privadas y campañas de gobierno que emiten información engañosa.
“El próximo proceso electoral será de deepfakes y estaremos escuchando conversaciones falsas entre candidatos y líderes de opinión”, diagnosticó Romero. El analista también previene de que haya audios obtenidos mediante espionaje y que sean desmentidos escudándose en la inteligencia artificial. Puede pasar, opina, que “el político mexicano, dentro de su cinismo, diga que es deepfake, que es falso”.
De hecho, la última polémica ocurrió esta misma semana. Un audio atribuido al aspirante presidencial de Movimiento Ciudadano a las elecciones de 2024, Samuel García, en el se escucha una voz de hombre con acento norteño que, aparentemente borracho, insulta y amenaza a una mujer. Jorge Álvarez, coordinador de la precampaña de García, indicó que ese audio ya había sido desmentido en 2021.
De hecho, ya fue viral en redes en 2018 y entonces no se vinculó con García, a quien sí pretendía perjudicar ahora.
Los avances tecnológicos y la IA no se perciben per se como una amenaza. Al contrario, políticos de todo el mundo han incorporado inteligencia artificial para definir sus estrategias de comunicación, pero las alertas se han encendido ante el uso malintencionado con el que se busca desinformar o dañar a alguien.
De acuerdo con Claudia Flores Saviaga, investigadora senior en el Civic AI Lab de la Universidad Northeastern, en Boston, Estados Unidos, indicó a AP que es la primera vez que se detectan deepfakes en en las elecciones mexicanas. Lo atribuyó a una adopción a gran escala de estas tecnologías.
“Es muy peligroso en el tema de elecciones o eventos críticos como estos”, comentó.
“Es algo que ha creado alerta no solo a gobiernos, sino a todo tipo de organizaciones por las implicaciones que tiene el que se vaya a crear un ambiente en el que no vas a poder distinguir qué es cierto y qué no”
Claudia Flores Saviaga
Si bien existen algunas pistas para identificar un audio falso, como la respiración y las pausas que hace una persona, el oído humano y las tecnologías no son suficientes por sí mismas para detectar con total certeza una voz clonada.
Manel Terrazas, fundador de Loccus.ai, empresa que ofrece un servicio de detección de voces clonadas, reconoció que hasta el momento ninguna tecnología puede definir por completo si un audio es real.
“Al final hay que hacer un paralelismo con cualquier sistema de seguridad. No existe ningún sistema 100% seguro”, comentó. “Siempre va a ser un ejercicio probabilístico. Nunca va a ser determinista”.
“Estamos en un momento ya en el que, para una persona, ser capaz de identificar si una pieza de contenido, ya sea imagen, vídeo o en este caso audio, es real o no, es prácticamente imposible”
Manel Terrazas
Y es lo que ocurrió con el caso más reciente en México. Una grabación difundida parecía demostrar la injerencia de Martí Batres, actual jefe de gobierno de la Ciudad de México, en el proceso interno para elegir al próximo candidato del partido oficialista Morena en la capital.
Su voz hacía un llamado a apoyar a Clara Brugada, exalcaldesa de Iztapalapa y quien finalmente fue elegida como la competidora, sobre Omar García Harfuch, ex secretario de Seguridad.
Batres desestimó la supuesta filtración y dijo que el audio había sido generado por inteligencia artificial. Un análisis con la herramienta de Loccus.ia arrojó que el audio era muy probablemente artificial.
Sin embargo, usuarios de redes sociales siguen dudando e incluso algunos defienden la autenticidad del audio semanas después.
En ese contexto, el diputado morenista Manuel Torruco presentó una iniciativa ante el Legislativo que propone castigar con cárcel a quienes usen esta tecnología para modificar videos, audios, rostros de personas, grabaciones de voz con la intención de hacerlos pasar como reales.
Y en Estados Unidos, la Comisión Federal Electoral inició un proceso para regular potencialmente los deepfakes generados por IA en anuncios políticos antes de las elecciones de 2024.
Por su parte, YouTube requerirá que los creadores especifiquen si han utilizado inteligencia artificial generativa para crear videos que parezcan realistas. Si no lo hacen, enfrentarán sanciones que incluyen la eliminación de su contenido o la suspensión de la plataforma lo que conlleva también su salida del programa de reparto de ingresos.
Compartir en: