IA y las Fakenews de la campaña: la nueva voz del poder

Escribe Matías Nahon, consultor y gerente general de Analityx

En la Argentina de 2025, la verdad ya no se discute: se produce. Se fabrica como se fabrica una canción pop, un logo o un atentado. Ya no se necesita convencer, apenas basta con simular.

Unos días antes de las elecciones apareció un video donde Mauricio Macri y Silvia Lospennato, con sus voces y rostros inconfundibles, afirmaban que no habían podido bajar la candidatura pero que la única manera de ganarle al kirchnerismo era votar a Adorni. Era una operación quirúrgica, milimétrica, sin margen de duda para quien lo viera con auriculares y en pantalla completa. Pero todo era falso. No lo habían dicho. No lo habían grabado. No lo habían pensado. Lo había generado una inteligencia artificial, y lo habían hecho circular —con ritmo viral y eficacia letal— cuentas anónimas y militantes digitales sin firma. No fue una interpretación ni un rumor, fue una falsificación total. Y lo más inquietante no fue el engaño en sí, sino su perfección: el modo en que se coló sin esfuerzo en la lógica de la época, como si fuera cierto.

El caso resonó aún más cuando uno de los principales operadores digitales del espacio libertario, conocido como “Gordo Dan”, compartió el video sin ambages, dándole una pátina de humor y verosimilitud que multiplicó su alcance. No hizo falta que dijera que era verdad. Bastó con que no dijera que era mentira. Adorni lo desmintió después, pero para entonces el video ya había hecho lo suyo.

Lo que sucedió técnicamente fue la creación de una pieza audiovisual utilizando herramientas de inteligencia artificial generativa. Conocidas como deepfakes, estas tecnologías permiten recrear con notable precisión los gestos, la voz y las expresiones de una persona a partir de fragmentos existentes. En este caso, Macri y Lospennato fueron falsificados digitalmente: no dijeron lo que dicen, pero lo dijeron igual. No es la primera vez que algo así ocurre, pero sí es una de las primeras veces que sucede en un contexto electoral argentino con un grado de verosimilitud suficiente como para alterar mínimamente la percepción de los votantes durante la veda. Se trató de una puesta en acto de las posibilidades de la IA como dispositivo político. No una herramienta de análisis, sino de intervención directa. La denuncia fue presentada, pero el daño ya estaba hecho: lo que importa no es lo que se prueba, sino lo que se instala.

Este episodio no es sólo una anécdota sino un anticipo. La inteligencia artificial ya no es una promesa tecnológica, sino un arma discursiva. Se camufla en la textura de la realidad, no para comprenderla sino para reescribirla. Lo inquietante no es solo que se pueda imitar una voz, sino que esa voz inventada tenga efectos reales sobre las decisiones colectivas. Una voz que no habló, pero que se volvió creíble porque encajaba con el clima emocional, con el hartazgo, con el algoritmo.

El discurso falso encuentra terreno fértil no por su sofisticación técnica, sino por su oportunidad afectiva. La IA no necesita producir verdades: le basta con sembrar dudas. La eficacia de este tipo de intervenciones no se mide en votos directos sino en erosiones imperceptibles, en una sensación de inestabilidad que crece, en el vaciamiento progresivo del pacto democrático. Cuando todo puede ser falsificado, la única verdad que queda es la de quien grita más fuerte. Lo que está en juego ya no es la credibilidad de los discursos, sino la posibilidad misma de que un discurso siga teniendo algún valor. Y en ese escenario, la inteligencia artificial no es el futuro: es el síntoma más exacto de este presente.

(*) Matías Nahón: Consultor y gerente general de Analityx