Inteligencia artificial IA Venezuela
  • Una serie de cortos vídeos sintéticos con declaraciones de ciudadanos expresando enojo y rabia a periodistas contra el gobierno de Venezuela se han viralizado
  • Se trata de contenidos generados con Veo3 de Gemini, una suite de herramientas pagas de inteligencia artificial de Google
  • La inteligencia artificial tiene usos legítimos para hacer denuncia, periodismo y crítica, pero también se usa para desinformar y engañar, y no todas las audiencias saben cómo establecer la diferencia

“Nojoda, ya me tienen arrecho, la pensión no me alcanza ni para una caja de cigarros”. Así responde un entrevistado a la pregunta de una periodista sobre cómo se siente con el gobierno, pero se trata de un vídeo generado por Inteligencia Artificial. Uno de los comentarios al vídeo dice: “una verdad como un templo, pero el vídeo es falso”.

El audiovisual, con un muy buen acento venezolano y una calidad que lo hace casi indescifrable, fue usado para expresar lo que quizás es demasiado riesgoso de decir abiertamente en Venezuela, tanto para los periodistas como para los ciudadanos. 

Y aunque apenas sobrepasó las 7 mil reproducciones, desde su publicación en la mañana del miércoles 25 de junio de 2025, fue republicado 139 veces, recibió 205 me gusta (que sirve de archivo en X) y 7 guardados formales (que son privados), lo que despertó nuestro interés como periodistas verificadores.

Sobre todo porque en Cocuyo Chequea ya habíamos desmentido contenidos compartidos por @freddyzur: reproduciendo falsos noticieros de Youtube de una inminente renuncia de Nicolás Maduro y transición política acompañada por Diosdado Cabello, reciclando una petición de Maduro al Papa para mediar con el gobierno de Trump pero que realmente era de 2017 y una falsa alerta sobre toxicidad en medicamentos.

Además, el Día del Periodista (27 de junio) publicó otro vídeo generado por Inteligencia Artificial pidiendo libertad para los periodistas detenidos en Venezuela. Esto nos llevó a buscar quién más había publicado o reproducido la pieza. 

Tres días antes que FreddyZur, la falsa declaración del campesino, había sido publicada por una cuenta de Instagram llamado Libertad Avanza Venezuela (@libertad_para_venezolanos) -lo que parece una referencia al partido político Libertad Avanza del presidente argentino Javier Milei- y donde sí obtuvo repercusión, siendo visto 108 mil veces.

Esta cuenta de Instagram tiene otro vídeo en que aparecen lo que parecen ser zombies con franelas del Partido Socialista Unido de Venezuela, en que repiten “sayona, sanciones, imperio” y la periodista huye diciendo “es una sobredosis de gorgojos”, en una dura sátira, que proviene de una denuncia de mal estado de los alimentos entregados bajo el programa estatal del CLAP, en la que algunos beneficiados encontraron insectos en los alimentos.

La Libertad Avanza Venezuela también tiene un vídeo, en formato más usual para TikTok, en que una narración robótica aseguró el miércoles 25 de junio que Donald Trump exigió a Maduro la entrega de altos líderes iraníes que estarían presuntamente escondidos en Venezuela en un plazo de 24 horas o habría intervención militar. Nada de esto es real, pero tuvo más de 2 mil me gusta y muchos comentarios que dicen que esperan que esto sea real.

El vídeo de la declaración del campesino también lo encontramos en una cuenta llamada Venezuela24hrs, que se describe como un perfil de “información sin censura”, pero republica contenidos más o menos descontextualizados, mayormente a favor del gobierno de Donald Trump y contra el de Nicolás Maduro.

Pero el audio original, como pudimos notar con la copia guardada en el servicio Wayback Machine, es de la cuenta de Instagram llamada venezuela_675 (Ender Chiros), que republica decenas de vídeos de TikTok con especulaciones, desinformación y contenido descontextualizado sobre política venezolana.

Este perfil también tiene un tercer vídeo de falsas declaraciones a periodistas generado por Inteligencia Artificial y otro en que alguien asegura que “le faltará agua pero no revolución”. 

Además, en esta cuenta se encuentran varios otros vídeos sintéticos en contra de Diosdado Cabello y Nicolás Maduro, e incluso varios vídeos en contra de María Corina Machado, acusándola de no pedir intervención militar o haberse vendido al gobierno de Maduro.

Varias otras versiones fueron encontradas, coincidiendo en un par de pistas, que tenían la marca de agua de dos cuentas de TikTok: @sukunapostingxd y @soletIA1, que abrió verdaderamente una caja de Pandora de generación de contenidos artificiales.

En la primera cuenta de TikTok, @sunakapostingxd, pudimos ver que sólo había tres vídeos pero tenían la etiqueta #googleveo3 que nos llevó a decenas de vídeos de altísima calidad, en que hacían bromas con falsas declaraciones a periodistas, pero en este caso se trata de situaciones, expresiones y palabras de Colombia.

Los vídeos de TikTok que encontramos también incluían la etiqueta #veo3 nos llevó a más vídeos humorísticos, también de Colombia y México, e incluso con seres fantásticos como monos hablantes recorriendo la ciudad como los influencers. En los vídeos con acentos mexicanos notamos además que se repetía la frase “vayan a activar la racha”. 

Las rachas o streaks son una función de TikTok que permite saber cuántas veces has enviado mensajes privados con otro usuario, según explica la red social china en su blog. Estas rachas permiten descargar mascotas para tu perfil.

Y aunque parece solo una forma de “gamificación”, una técnica para añadir características de videojuegos a otros ámbitos, de parte de TikTok para atraer más usuarios, darles incentivos y premios para que pasen más tiempo en la red social, también puede tener beneficios directos. Como estos locales de Caracas que dan descuentos y promociones a quienes tengan rachas de TikTok, como reportó El Nacional en octubre de 2024.

8 segundos de altísima calidad

Una búsqueda con el término VEO 3 de las etiquetas de TikTok en los vídeos, nos llevó a descubrir que estos fueron creados usando una herramienta de generación de vídeos de 8 segundos de alta calidad de Gemini, la herramienta de Inteligencia Artificial de Google, cuyo acceso requiere de una suscripción paga que ronda, dependiendo del país y la moneda, a 20 dólares al mes, un precio bastante módico en comparación con la altísima calidad de los vídeos.

Dentro de la suite de Gemini está NotebookLM, una aplicación para tomar notas, hacer resúmenes y producir contenidos, que en Cocuyo Chequea hemos probado con asombro: con sólo darle tres enlaces a nuestras verificaciones, produjo un podcast de muy buena calidad de sonido y producción, en el cual dos personas intercambian, comentan y narran nuestras verificaciones, haciendo incluso pausas, dejando oír sus respiraciones y hasta con muletillas. 

Si tienes curiosidad, puedes escuchar el podcast que nos hizo la inteligencia artificial acá. Te adelantamos que es sobre los falsos anuncios de multas de la Sundde y la falta lista de precios acordados de 27 productos básicos. 

El único defecto que le encontramos es que lo hace con un acento demasiado mexicano para las audiencias venezolanas. Lo mejor, el esfuerzo es mínimo y sólo se tomó unos 10 minutos en producirlo.

Del humor a la propaganda política

La segunda cuenta de TikTok que encontramos en las cuentas de Instagram reveló que la misma herramienta usada para hacer humor colombiano y mexicano abría una puerta para la denuncia política, en clave de humor negro, como puede verse en la cuenta @soletIA1.

El vídeo más antiguo es del 20 de junio, mientras el más popular acumula 2,4 millones de vistas, 95.500 me gusta, 1.440 comentarios y 4.563 guardados, siendo publicado el viernes 27 de junio. 

Todos los vídeos son altamente irónicos, en que las personas en muy deplorables condiciones, alaban al gobierno de Nicolás Maduro, a la revolución y critican a quienes han migrado. Otros muestran a militantes del PSUV como corruptos, hipócritas o “tontos útiles” que sirven a un gobierno deficiente. 

Todos los vídeos duran entre 6 y 8 segundos, como explica la página de Veo 3, y a diferencia de las otros vídeos, puede verse la etiqueta de Veo en la esquina inferior derecha.

Y aunque la intención detrás de estos vídeos es la denuncia política por medio de la ironía, la sátira y la crítica social de forma creativa, sin poner en riesgo a actores y actrices, reducir costos y permanecer anónimos, no todas las audiencias pueden reconocer -o en su lugar apreciar la conveniencia- el uso Inteligencia Artificial detrás de un contenido. 

Por ejemplo, algunos comentarios en la publicación de X de @freddyzur lo acusaban de “parecerse al chavismo” por usar Inteligencia Artificial para enviar un mensaje. 

La crítica quizás se refiera al falso noticiero en inglés House Of News con el que se promovieron narrativas a favor del gobierno, sobre todo en materia económica. La respuesta oficial fue “responder con inteligencia social”. Un uso legítimo de la IA para la protesta o el activismo social fue la salsa creada con SUNO para promover la candidatura de Edmundo González Urrutia o el rap de La Tía del Whatsapp.

Pero es posible que el comentario en X más bien se refiera a la viralidad de las falsas declaraciones atribuidas a la vicepresidenta Delcy Rodríguez sobre la prohibición de usar dólares, de tener más de dos hijos o hacerse tatuajes de una cadena de cuentas en TikTok que luego se convirtieron en difusores de chismes y mentiras sobre farándula de México, pero que convenció a mucho a preguntarnos si era verdad.

Antes de eso en Cocuyo Chequea encontramos avatares de comunicadoras creadas artificialmente que daban noticias polémicas sobre migración en Estados Unidos. Sin embargo, el mensaje es el que suele capturar la atención de las audiencias, considerando las estadísticas de compartidos y me gusta.

Sin embargo, también hay audiencias -a juzgar por los comentarios-, que sí notan o dudan de la veracidad de la información por la textura, el tono del lenguaje y otras señales faciales, ¿pero cuántas llegan a la conclusión de falsedad sobre el contenido porque usaron una búsqueda inversa de imágenes, una consulta en diversas fuentes u otras herramientas?

Porque hay que separar dos cosas distintas: ¿es falso lo que dice o es falso que lo dijo?

Esta fue la idea detrás de La Chama y El Pana, los dos avatares generados artificialmente para entregar noticias verificadas en un formato audiovisual bajo el proyecto Operación Retuit, que unió a 14 medios venezolanos y que fue galardonado con el Premio Rey de España 2025.

Pensemos en nuestra Tía del Whatsapp: su rostro fue creado con Inteligencia Artificial, y el sistema que tenemos para calificar las peticiones también lo usa,  pero la verificación es realizada, redactada y publicada, en web y redes sociales por sus sobrinos humanos, periodistas de la Unidad de Verificación de Efecto Cocuyo.

Por otro lado, en Cocuyo Chequea hemos verificado contenido que bien siendo verídico ha sido mal interpretado o mal comunicado por tiktokers, o bien siendo real fue compartido como reciente, aunque sucedió años atrás, en circunstancias distintas o incluso, fuera de Venezuela.

La IA no es un buscador confiable

Preguntarle a ChatGPT o Grok en X se hace cada vez más común, de acuerdo al Digital News Report 2025 del Instituto Reuters, el 12% de los menores de 35 años consulta chatbots como buscadores de noticias, pero estas herramientas son cada vez menos confiables y desinforman más, como sucede con las protestas en Los Angeles contra las redadas migratorias

No son inteligentes ni piensan, son grandes modelos lingüísticos (LLM) que pueden responder muy rápidamente con textos analíticos, pero tienen dificultades para resolver básicos problemas matemáticos, pero además reproducen los sesgos e ideas de las fuentes con las que son alimentadas, especialmente por ser mayoritariamente provenientes de países del hemisferio norte. Es decir, los chatbots favorecerán o darán más valor a las ideas, opiniones y hechos asociados a hombres, blancos y heterosexuales, si eso está en los datos que los alimentan.

Por eso, los rusos están publicando cientos de miles de artículos para que los chatbots los indexen en sus resultados que no pueden tomar de forma crítica, mientras que en la red de Elon Musk el chatbot Grok difundió la teoría de conspiración sobre el “genocidio blanco” en Sudáfrica, incluso cuando no es eso lo que le preguntas. Otros estudios han señalado que Grok se equivoca, falla o produce contenido contradictorio cuando los usuarios consultan para verificar información sobre el conflicto iraní-israelí.

Los chatbots son «loros estocásticos», no saben lo que dicen. Por eso alucinan, confunden palabras con números y terminan hablando en spanglish.

Por otro lado, el consumo en forma de scrolling de TikTok, en que prima lo audiovisual pero es mucho más difícil notar la fecha del vídeo o que los usuarios de TikTok que aseguraron que Nicolas Maduro subía el sueldo mínimo a 300 dólares se llama LechugaTV o TomateTV. Tampoco  notaron que las de Delcy se llamaban El Mulato, El Chacarrón o YasuriGillete.

Durante las protestas post-electorales de 2024 escuchamos a Maduro ordenar torturas y asesinatos, pero no era él ni su voz, sino alguien que generó la misma de forma sintética. Usamos VerificAudio, una herramienta de inteligencia artificial, para analizar y reconocer voces. Lo mismo con audios falsos de Guaidó, González Urrutia y María Corina Machado, pero los prejuicios y las sospechas no se acaban con un desmentido.

Y allí entra más lo verosímil, lo que decides creer o a lo que le das credibilidad. “Si no es verdad, podría serlo” son algunos de los comentarios que verificadores de todo el mundo comparten en foros y charlas desde hace años. Lo que incluye las falsas fotos, hechas muy rudimentariamente, de tu político favorito junto a Pablo Escobar.

Allí juega la desconfianza en los medios, en los voceros, en las instituciones, gracias a la censura, a la desilusión y a las malas prácticas, como ha documentado el profesor español Miguel Del Fresno, que también dice que estamos “sobreexpuestos e infravalorados”. 

Y ahora, por el uso y el abuso extendido de la inteligencia artificial, a lo que ven nuestros ojos y escuchan nuestros oídos. El nuevo Chat GPT-4o puede crear falsas imágenes de pasaportes, facturas y cartas escritas a mano que son asombrosamente difíciles de detectar al ojo, mientras las herramientas para verificar estos contenidos sintéticos siguen siendo deficientes y no concluyentes. 

Porque aunque nada de esto es nuevo, pues el engaño y la falsificación noticiosa o con intención de estafa, se remonta a siglos, con mucha violencia política involucrada, ahora es muchísimo más fácil, barato y verosímil producir contenido altamente engañoso.

Y para eso no necesitas Grok, Claude o Chat GPT, sólo ser verosímil y aprovecharte de la necesidad.

Las estafas usan el mismo logotipo del banco, de la empresa o cadena de farmacias que conoces, la cadena de Whatsapp se aprovecha de la necesidad de empleo y la caída de los ingresos, la teoría conspirativa seduce porque apela a las prejuicios y dudas razonables con frases misteriosas como “nos quieren distraídos y engañados, la verdad verdadera está oculta”.

¿Esto es verdad?

A La Tía del Whatsapp llegan peticiones preguntando por la veracidad de una información, pero el formato es un extracto de un noticiero televisivo de un canal nacional de señal abierta. También nos preguntan por noticias que han aparecido en agencias internacionales de noticias e incluso, nos han enviado enlaces de nuestro portal y verificaciones hechas por nosotros mismos.

Es difícil saber a ciencia cierta si quién hace la pregunta no sabe si es real lo que dice la noticia o si cree que el pantallazo e incluso el medio es el verdadero, o si se equivoca o miente. 

Lo que está claro es que la desinformación ha logrado parte de su cometido: ya no sabemos qué es verdad ni en qué confiar. En eso se basan las desinformaciones que explotan prejuicios, creencias y falsas dudas razonables sobre vacunas, género, migración y cambio climático.

Las respuestas a estas y más preguntas pasan por la necesidad de la alfabetización mediática e informacional a la que hemos apelado en explicadores y hasta en un curso sencillo en La Tía del Whatsapp: hay que ver señales visuales, hay que examinar sesgos cognitivos (y psicológicos) y las emociones. 

Porque todos los tenemos, todos somos vulnerables a algún tipo y formato de desinformación.

Así que además de hacernos un auto-examen lo más sincero posible, coincidiendo en que ninguno quiere admitir o creer que es un engañado, vale preguntarse: ¿lo que vi en Internet quiero o espero que sea verdad, tengo miedo o alegría que pueda serlo? 

¿Cuál es mi diversidad de fuentes para tener un criterio amplio? ¿Le doy veracidad a las ideas que creo que son buenas, sin verificar que sean basadas en hechos reales? 

¿Confundo opinión con hechos? La película Intensamente (Inside Out) da unas pistas sobre la importancia de tener inteligencia emocional para diferenciar ambas.

Pues a pesar de tener todas las señales correctas de tratarse de un noticiero (o una noticia) real y confiable, es bastante común que nos consulten si lo es. Hemos perdido los consensos, la confianza y hasta la credibilidad de lo que antes era respetado, está puesto en duda.

Mientras tanto, al mismo tiempo se viralizan como reales vídeos de Youtube o TikTok que aseguran operaciones militares de Estados Unidos a Venezuela, aunque el vídeo está narrado con acento mexicano o peruano, tiene una sucesión de imágenes estáticas y letras amarillas de gran tamaño, bajo el nombre como PeruFútbolTotal24.

No citan ninguna fuente, ninguna fecha, ninguna prueba.

Lo hemos dicho en varias charlas y está documentado: es que el periodismo está en crisis y es riguroso pero rígido, mientras que la desinformación es sexy.

Fácil de entender, confirma nuestras sospechas y está en un formato divertido. Por eso debemos verificar, pero también educarnos.

Así que aquí te dejamos varios de nuestros explicadores (debunks, preventicos) para analizar vídeos de TikTok, cómo juegan con nuestros prejuicios y sesgos (de autoridad, por ejemplo), nuestras emociones y claro, vídeos e imágenes con inteligencia artificial. También como el humor mal interpretado puede ser fuente de desinformación.