Sunday, June 8

Análisis Forense Revela que Audio Atribuido a Evo Morales Fue Generado con Inteligencia Artificial Privada

En las últimas horas, comenzó a circular en redes sociales un audio que fue atribuido al expresidente Evo Morales. El contenido generó gran polémica en la opinión pública boliviana, motivando reacciones inmediatas tanto en redes sociales como en algunos medios de comunicación. Sin embargo, investigaciones recientes demuestran que dicho material fue generado con inteligencia artificial (IA) y no corresponde a una grabación auténtica del exmandatario.

Audio desdoblado:

El análisis fue realizado por expertos en lingüística forense e inteligencia artificial de Paraguay y Argentina: Ricardo Montes y Carola Arteaga, quienes llevaron a cabo un desdoblamiento técnico del audio. Gracias a procedimientos de espectrografía, análisis fonético y simulación de redes neuronales, se logró determinar que la voz atribuida no pertenece a Morales, aunque fue modelada con notable similitud utilizando herramientas avanzadas de IA.

Una de las tecnologías utilizadas fue voice-cloning-books, una plataforma conocida por su capacidad de replicar voces humanas con alta precisión. No obstante, el aspecto más preocupante revelado por los peritos es que parte de la clonación fue ejecutada en servidores privados, con herramientas de IA no disponibles públicamente, lo que dificulta la trazabilidad del origen del contenido y su verificación a través de las plataformas tradicionales de detección de IA.

La trampa de la verificación limitada

El informe destaca una problemática mayor: las herramientas de detección públicas no siempre son efectivas. Muchas veces, se recurre a servicios en línea que no tienen capacidad para detectar audios generados en entornos cerrados o mediante IA customizada. De hecho, se reveló que incluso constituciones políticas y documentos oficiales han sido evaluados erróneamente como creados por IA debido a sesgos en los sistemas de detección automatizada.

En este contexto, la situación no solo pone en cuestión la veracidad del contenido viralizado, sino también la ética del uso de inteligencia artificial en operaciones mediáticas y políticas, sobre todo en un país como Bolivia, donde la polarización y el uso de desinformación son moneda corriente.

Llamado a los medios y a la opinión pública

Este caso sienta un precedente importante: no toda tecnología de inteligencia artificial es visible o detectable por herramientas abiertas. Muchos sistemas operan de manera clandestina, fuera del radar de los analizadores convencionales, lo que abre la puerta a campañas de manipulación sofisticadas y difíciles de rastrear.

Se hace un llamado urgente a los medios de comunicación, instituciones políticas y ciudadanía en general a que no difundan información sin verificar adecuadamente, y a que se apoyen en análisis serios, técnicos y éticamente responsables.

La democracia boliviana y la reputación de sus actores políticos no pueden ser utilizadas como campo de experimentación de estas tecnologías sin control. La inteligencia artificial debe estar al servicio de la verdad, no de la distorsión.