Viernes, 07 Noviembre 2025
Verificación: audio falso de Kicillof generado por IA

Video viral con audio atribuido a Kicillof es falso: fue generado con IA

Analizamos un video viral que atribuye a Axel Kicillof declaraciones sobre Cristina Fernández de Kirchner. Verificadores detectaron que el audio fue generado con IA y que en la entrevista original el gobernador habla de Milei y Trump, no de Cristina. Herramientas forenses marcaron 99% de probabilidad de clonación de voz.
Axel Kicillof en una entrevista, ilustración sobre verificación de audio
Axel Kicillof en una entrevista, ilustración sobre verificación de audio

El audio viral fue creado con inteligencia artificial, según verificaciones

Un video que circuló en redes con declaraciones supuestamente de Axel Kicillof —en el que se le atribuye la frase «en Nación la derrota es toda de Cristina»— es falso: la grabación fue manipulada y el audio fue generado con inteligencia artificial, según controles de verificación realizados por Reverso, Chequeado y AFP. Las herramientas de análisis forense de audio detectaron una probabilidad del 99% de clonación de voz por IA.

Qué mostró la verificación

La pieza viral presentaba un recorte de una entrevista con el periodista Ari Lijalad en El Destape Radio. Reverso realizó una búsqueda inversa de fotogramas con Google Lens y halló el video original de la entrevista, fechada el 23 de octubre de 2025, publicado antes de las elecciones legislativas del 26 de octubre. En la versión original, Kicillof está presente en el estudio y no hay referencia alguna a la frase que circuló en redes sobre Cristina Fernández de Kirchner.

En el minuto aproximado que fue recortado para el contenido viral (alrededor de las 8:32 de la entrevista completa), Kicillof habla de la relación entre Javier Milei y el presidente estadounidense Donald Trump, y dice: «Milei tiene una predisposición (...) con los ricos, con los poderosos… Se vuelve medio cholulo y medio felpudo. Es una cosa personal que me parece que tiene Milei…». En ningún pasaje original menciona la condena de Cristina ni atribuye a ella la derrota nacional citada en el video viral.

Herramientas y señales que detectaron la manipulación

La herramienta InVID-WeVerify detectó una conversión de texto a voz generada por IA con 99% de probabilidad en el audio viral. Reverso además ubicó un video en el que aparece el audio alterado, también con alta probabilidad de haber sido creado por tecnologías de clonación o síntesis de voz. Los verificadores recomiendan no compartir este tipo de contenidos hasta confirmar su origen.

Cómo identificar videos generados o alterados con IA

  • Detalles del rostro y fondo: los videos de IA suelen tener pocos detalles finos; los fondos aparecen a veces difuminados o inconsistentes.
  • Expresiones faciales y parpadeo: fíjese si la piel está demasiado lisa, si los parpadeos son raros o si el movimiento de labios y la voz no están bien sincronizados.
  • Búsqueda de la fuente original: haga una búsqueda inversa de imágenes o busque la publicación en las cuentas oficiales del entrevistado o del medio que produjo la entrevista.
  • Chequeo de cuentas difusoras: valore quién publica y con qué intención; muchas veces las piezas manipuladas se repiten desde cuentas con pocos antecedentes.
  • Lectura crítica: sospeche de contenidos que apelan más a la emoción que a hechos verificables.

Herramientas recomendadas

Entre los recursos citados por verificadores se encuentran Get Real, Hive Moderation, DeepFake-o-meter e InVID-WeVerify. Estas plataformas aplican algoritmos y análisis forense a audio, video e imágenes para detectar signos de síntesis o alteración. No son infalibles, pero ayudan a identificar casos claramente manipulados.

Contexto político y riesgo de desinformación

El video viral apareció en un momento de alta polarización luego de las elecciones legislativas de 2025 en la provincia de Buenos Aires, cuando la Alianza La Libertad Avanza se ubicó como la fuerza más votada en ese territorio. En contextos electorales, los contenidos generados con IA pueden amplificar mensajes falsos y erosionar el debate público; por eso los verificadores coordinados (Chequeado y AFP en el proyecto Reverso) intensifican la vigilancia sobre este tipo de desinformación.

Recomendaciones prácticas

No comparta audios o videos atribuidos a figuras públicas sin antes verificar la fuente. Busque la publicación original del medio, compare el contenido con la grabación completa si está disponible, y contraste la pieza viral con el material original. Si tiene dudas, consulte a proyectos de verificación y observe señales de manipulación en el audio y la imagen.


Fuente: La Voz / Reverso (Chequeado y AFP)