El 23% del contenido que se viralizó durante la primera vuelta presidencial se generó con inteligencia artificial (IA). Vídeos, imágenes y audios fueron manipulados para distorsionar, principalmente, la imagen de los candidatos Luisa González y Daniel Noboa, de acuerdo con el monitoreo de Lupa Media, organización especialista en periodismo de verificación.
En las campañas políticas existen dos lados. El lado “A” trabaja la imagen de los candidatos para posicionarla en la mente de los electores y sumar votos, mientras que el lado “B” se concentra en restar preferencia a los adversarios mediante el ataque. Una de las tácticas de esta campaña negativa que se hace más evidente en las Elecciones Generales 2025 de Ecuador es la desinformación que ahora aprovecha la IA para crear narrativas más elaboradas y convincentes en contra o a favor de los candidatos y las candidatas que aspiran a un cargo de elección popular.
Usuarios Digitales, una organización no gubernamental y sin fines de lucro dedicada al cuidado y promoción de derechos digitales en Ecuador, hizo un registro de las piezas creadas con IA generativa desde el 5 de enero hasta el 5 de febrero de 2025. En su reporte se contabilizan 53 alertas de contenido generado o alterado con IA durante la primera vuelta presidencial. Los que más predominan son los vídeos adulterados, seguidos de las clonaciones de audio.
Los candidatos más referidos en estas piezas son Daniel Noboa (ADN), con un total de 29, y Luisa González (RC5) que suma 22. Luis Felipe Tillería (Avanza) es mencionado solo en uno de estos materiales, al igual que Pedro Granja (Partido Socialista Ecuatoriano) y Leonidas Iza (Pachakutik). Es decir, la contracampaña se centró en los dos candidatos presidenciales con más opciones.
En el tipo de contenido, la mayoría de las piezas corresponden a desinformación y sátira. Para Alfredo Velazco, director de Usuarios Digitales, la sátira es válida en el ejercicio de la libertad de expresión, pero los productos creados para atacar o desinformar tienen el propósito de imputar a los candidatos y las candidatas cualquier actividad ilegal o controversial. Por eso, “estas piezas son las que golpean más”.
Valeria Navarro, responsable de monitorear los contenidos creados con IA en Lupa Media, señala que en TikTok es donde más sátira se encuentra. Los usuarios que comparten las piezas satíricas son indistintos. Cita de ejemplo a una cuenta que antes del período de elecciones compartía las actividades de un gamer y ahora tiene 13 publicaciones desde enero de 2025 sobre sátira política. Para la periodista, detrás del sarcasmo también hay la intención de desprestigiar a alguien.
En lo que refiere a “X” (antes Twitter), Navarro explica que, aunque en este microblogging las publicaciones tienen menor alcance en comparación con TikTok, se nota una mayor producción y fines más oscuros. Añade que, en general, las publicaciones en “X” suelen estar acompañadas de mensajes de odio y descrédito hacia los candidatos y sus movimientos políticos.
Lupa Media identificó que el 53.62% de la sátira va contra Luisa González o Rafael Correa, el 31.88% en contra de Daniel Noboa, el 13.04% ataca a ambos candidatos en una misma publicación y el 2.89% favorece a Noboa.
En lo que respecta a los contenidos a favor creados con IA, Velazco explica que a Noboa se lo muestra varonil, casi como un Terminator. Mientras que a González se la presenta en bikini, más joven y tierna. En ambos casos se perciben sesgos de género y sexualización de la imagen de los candidatos.
La industria de la desinformación en la guerra por el poder político
Velazco se refiere a las principales diferencias que existen entre el contenido desinformativo que se crea para atacar a Daniel Noboa y a Luisa González. En el caso de Noboa, el patrón mayoritario es que son vídeos inauténticos creados en su totalidad con IA. “Para promoverlos se contrata a agencias extranjeras o páginas desconocidas. Aquí se han gastado cientos de miles de dólares en pautar y con recursos públicos”, sostiene el activista en derechos digitales.
En cambio, los ataques a González son más elaborados, pues incluyen clonación de voz y deepfakes de acuerdo con el monitoreo de Usuarios Digitales. Para difundir esto se utilizan medios inauténticos (por sus prácticas) y progobierno. “Incluso, periodistas y comunicadores que tienen un sesgo contra el correísmo, los publican como una noticia cierta. Eso no ocurre con los vídeos manipulados de Noboa que solo quedan en la pauta”, acentúa Velazco.
Andrés Jaramillo, CEO de Content Manager Ecuador, una firma especializada en escucha social y comunicación estratégica manifestó en el XSpace de Lupa Media (5 de febrero de 2025) que hay industrias de la desinformación encargadas no solo de manipular contenidos, sino de pautar con usuarios de medios y redes sociodigitales para difundir este material con frecuencia y generar grandes alcances de consumo. “Hay cuentas con muchos seguidores que se compran. Además, se pauta con empresas extranjeras”, afirmó el estratega en comunicación.
Lupa Media determinó que las tácticas de desinformación siguen patrones habituales: el uso de cuentas troles y el pago de publicidad en las redes sociodigitales. “La falta de políticas de moderación de contenidos en las plataformas permitió la propagación de desinformación financiada”, subraya su informe.
Usuarios Digitales y Lupa Media detectaron las agencias extranjeras con las que se pauta contenido desinformativo en época electoral. Es el caso de Mediabit de Argentina, donde se pauta ataques contra Noboa y apoyos a Luisa González. Del lado de Noboa se usa la agencia IMS de Estados Unidos para pautar vídeos contra González y contenido a favor de su gobierno. Lupa Media indica que esta última filial tiene oficina en Ecuador. Además de pautar contenido electoral en Google durante enero de 2025, registró previamente publicidad de vídeos de la Agencia Nacional de Tránsito en 2023. Esta información se obtuvo a través del Centro de Transparencia Publicitaria de Google.
En el informe preliminar de la Misión de Observación Electoral de la Organización de Estados Americanos (OEA) sobre las Elecciones Generales en Ecuador 2025 se detalla que tanto la Misión de Observación Electoral de la Unión Europea como la OEA fueron informadas por distintos actores sobre el incremento del uso de la IA en el marco de la campaña electoral. No solo se reportó la creación o manipulación de fotografías o vídeos, sino también la usurpación de la imagen de diferentes medios de comunicación y de los equipos de comunicación de las y los candidatos presidenciales. Se comunicó además que la desinformación verificada siguió circulando en cuentas de periodistas y figuras públicas que no tomaron las medidas necesarias para contrastar las fuentes y la información.
En 2021, Usuarios Digitales comenzó a advertir sobre el mal uso de la IA en campaña electoral. El 9 de octubre de 2023 se lanzó el e-book “Batalla Digital: Elecciones, 2023” con la coordinación editorial de Andrés Jaramillo Carrera. En el apartado “Campaña sucia, Inteligencia Artificial (IA), trolls y encuestas: casos emblemáticos de desinformación”, escrito por Alfredo Velazco, se deja en evidencia que desde las elecciones anticipadas de 2023 se coordinó una campaña en varias redes sociodigitales, “cuyas piezas tenían algo en común: uso de IA para generar deepfakes de candidatos (con clonación videográfica y de voz). De acuerdo con el informe de la organización venezolana Cazadores de Fake News, la campaña de 2023 en Ecuador sería la primera a nivel regional en la que se utilizó la IA con fines fraudulentos.
El periodismo de verificación en una lucha desigual para combatir la desinformación
Valeria Navarro confiesa que los alcances de visualizaciones y reproducciones del contenido desinformativo son tremendamente mayores al de las verificaciones. “Para ponerte un ejemplo, el vídeo manipulado con IA que suplantó al presentador de TV Milton Pérez tuvo 50 mil reproducciones frente a nuestra verificación que llegó a más de 4 mil visualizaciones”.
Otro de los problemas que resalta la periodista es que varias de las publicaciones de verificación de Lupa Media son tomadas por medios de comunicación afines a ciertas tendencias políticas para “lavar la cara de su candidato” o “ensuciar la del otro” y seguir utilizando la información a conveniencia o desinformando.
Alfredo Velazco corrobora que combatir la desinformación se convirtió en un trabajo titánico, pues se están enfrentando contra el poder económico en el que también se usan recursos públicos. En contraste, los medios dedicados al periodismo de verificación y las organizaciones independientes que luchan contra la desinformación trabajan con recursos limitados. “Si nosotros tuviéramos más fondos, pudiésemos pautar nuestras alertas y verificaciones para llegar a una audiencia más amplia como se lo hace con la desinformación”, alega.
En el #DivúlgaloTodo organizado por el Observatorio Interuniversitario de Medios Ecuatorianos (OIME) sobre “Elecciones 2025 en Ecuador: Desinformación, IA y el reto de un voto informado” (29 de enero de 2025), Andrés Jaramillo, manifestó que la tarea de verificación se complejiza porque no se pueden monitorear las conversaciones de WhatsApp frente a contenidos desinformativos. Eso, desde su punto de vista, es preocupante porque en esta red se generan los últimos diálogos antes de ir a votar. Enunció también que hay discursos que, si, por ejemplo, no se posicionan en “X”, luego llegan a WhatsApp, donde podrían tener más incidencia.
Sobre lo antes dicho, Navarro expresa que por este motivo Lupa Media implementó el servicio #VerificaciónAlaCarta con el fin de recibir reportes por WhatsApp y así llegar a cadenas digitales que no son públicas, pero que también son un nicho donde circula desinformación. “Hay grupos de los adultos mayores, por ejemplo, que no están en Instagram o “X” y se informan por WhatsApp”, puntualiza la periodista.
Otra de las desventajas frente a la desinformación financiada es la precarización laboral y la desprotección de los y las periodistas y comunicadores. “Por eso, hay quienes son parte de equipos que se dedican a crear narrativas falsas. Ahora bien, tampoco es que quienes prestan sus servicios como troles tengan estabilidad económica en este trabajo, pues deben permanecer en el anonimato o, mejor dicho, en la penumbra”, sostiene Velazco.
La incidencia de la desinformación en el electorado
Abel Suing, coordinador del Grupo de Investigación en Comunicación y Cultura Audiovisual (GICA) de la Universidad Técnica Particular de Loja (UTPL), fundamenta que la desinformación es bastante antigua. La diferencia es que ahora está dimensionada por las redes sociodigitales, lo que hace que su impacto sea más inmediato y masivo. Esto se agudiza con la utilización de la IA para manipular contenidos que se impregnan más en una sociedad polarizada, donde hay usuarios que prefieren reproducir publicaciones que repliquen su contenido ideológico.
Vale recordar los panfletos (escritos difamatorios) que se lanzaban en las calles días previos a las elecciones con el fin de incidir en la decisión de los votantes. Hoy, estas difamaciones se trasladaron al ecosistema de pantallas y plataformas.
Del 12 de noviembre hasta el 9 de diciembre de 2024, la UTPL realizó una encuesta sobre “Usos y percepciones de IA Generativa en las elecciones de Ecuador”, en la que participaron 201 personas (128 mujeres y 73 hombres) provenientes de diversas regiones del país, tanto urbanas como rurales, y con edades entre 18 y más de 58 años. Los datos revelan que el 58% de los encuestados cree que los contenidos generados con IA influirán en las elecciones de 2025 y el 61% considera que es necesario proponer normativas o reglamentos para su uso en campañas electorales.
En Ecuador no se regulan los contenidos desinformativos en las plataformas digitales ni dentro ni fuera de los procesos electorales, recalca el informe del Observatorio de la Desinformación de la Universidad Complutense de Madrid sobre las elecciones anticipadas de 2023. Esto puede socavar la transparencia y la equidad de las elecciones.
Para Suing la alta disposición de la ciudadanía para que se regule el uso de la IA en campaña electoral refleja la necesidad de que se definan estándares para que no se cometan abusos. “No se trata de regulaciones extremas, sino del establecimiento de políticas de moderación”, asevera el docente.
La Fundación Ciudadanía y Desarrollo realizó una encuesta a finales de 2024 sobre desinformación en la que participaron 100 ecuatorianos y ecuatorianas de entre 16 y 60 años, en la que el 83,6 % afirmó que utiliza las redes sociodigitales para informarse sobre las elecciones en Ecuador. El 69,1% expresó que cayó en campañas de desinformación y el 86,4% mostró su preocupación por el uso de troles o cuentas falsas en las redes digitalizadas para las campañas políticas con el propósito de deslegitimar a los opositores e incidir en los votantes.
La alfabetización digital es la clave para una ciudadanía formada e informada

“El gran ausente es el Estado”, evalúa Suing frente a la problemática del uso no ético de la IA para manipular el voto. Esto implica que tampoco los medios públicos están cumpliendo con su rol para luchar contra la desinformación. Pese a esto, guarda esperanzas al mirar que el trabajo de agencias verificadoras independientes devuelve la confianza a los medios de comunicación. También resalta que crece el interés en la ciudadanía por distinguir la información que está recibiendo y buscar contenidos de calidad. “El problema es que a los ciudadanos les faltan herramientas. Ahí entra la alfabetización digital. Educación para todos todo el tiempo”, apuntala el docente universitario.
Alfredo Velazco y Andrés Jaramillo también hacen hincapié en la alfabetización digital. Para Jaramillo, “no hay que insistir tanto en los actores políticos, sino en la ciudadanía”. Para Velazco, “como sociedad somos vulnerables a la desinformación, por la falta de comprensión lectora y de una cultura digital”.
La desinformación en época electoral es estructurada, pues responde a tácticas diseñadas dentro de las campañas políticas para desacreditar a los oponentes. Tal parece que restar votos es más conveniente que sumar. Si la ciudadanía no desarrolla habilidades para tener un pensamiento crítico frente a los contenidos que consume y para aprender a identificar los patrones de desinformación generada con IA, será más vulnerable a la manipulación y, por ende, a que su decisión en procesos democráticos esté contaminada por narrativas falsas que apelan a las emociones para incidir en la opinión pública.
Tatiana Sandoval Pizarro
OIME News–Facso/UCE
tatiana.sandoval@oime.com.ec
Redacción | Ilustraciones
Carmen Jaramillo
OIME News–USFQ
carmen.jaramillo@oime.com.ec
Diseño de gráficos estadísticos