El proceso electoral en curso se da en un ambiente que propicia la viralización de información engañosa en internet, especialmente con el uso de la Inteligencia Artificial. ¿Qué hacer para no ser presa de este tipo de contenido?

Si ve un video, una imagen o escucha un audio en redes sociales, ¿qué hace usted? Cuidado, no debe compartirlo sin antes hacer una revisión o verificar si ese contenido es real o tiene alteraciones. De lo contrario, solo contribuiría a incrementar la desinformación en las elecciones 2025 de Ecuador.

“La desinformación se propaga de forma deliberada, ya sea para lograr fines políticos, económicos, sociales o incluso personales”, define Chat GPT, un modelo de lenguaje desarrollado con Inteligencia Artificial (IA).

Retos ante la desinformación digital
Gabriel Narváez, consultor de la Fundación Ciudadanía y Desarrollo (FCD), explica que el monitoreo de la desinformación se realiza desde 2024 y hasta el 5 de marzo de 2025 emitieron 21 entregas de resultados. “Reúnen más de 200 contenidos engañosos encontrados en redes sociales como Facebook, X, TikTok, YouTube y en sistemas de mensajería como WhatsApp”.

Aplican un sistema internacional para clasificar el contenido a través de categorías. Por ejemplo, un contenido puede tener un sentido: satírico, paródico, engañoso, manipulado, descontextualizado, fabricado, impostor, o con conexiones para ciberdelitos como el phishing (un tipo de ciberataque).

“En este (proceso electoral de 2025) está muy presente el contenido fabricado a través del uso de herramientas de Inteligencia Artificial como clones de voz, herramientas en línea que sirven para cambiar el rostro, la fisonomía en las fotografías de los actores políticos, se ven cada vez más presentes. Lo que ha implicado un reto cada vez superior, debido a que es muy complejo sacar de la narrativa mediática de las personas algo que han visto o escuchado por su cuenta”, expone Narváez.

Ejemplifica el contenido de que el presidente Daniel Noboa habría dicho que si había apagones en diciembre de 2024 “se iba a pegar un tiro”. El consultor aclara “que en realidad nunca lo dijo, se manipuló un audio de él”.

El monitoreo es parte de un proyecto para combatir la desinformación en el país, en el que también se incluyen contenidos de alfabetización digital que la FCD publica en sus redes sociales.

 

Hay estrategias coordinadas de desinformación, advierte FDC
La desinformación aumenta durante la época de elecciones. Tras monitorear usuarios, perfiles y grupos y páginas de Facebook, la FCD ha encontrado coincidencias como la misma hora de publicación del mismo contenido. Eso revela que “hay estrategias coordinadas de desinformación que buscan desprestigiar a actores políticos (…), los encontramos pautados como publicidad o propaganda, para de una u otra forma incidir en el voto de los ciudadanos”.

“La desinformación no es algo moderno, sucede que a través de las redes ha encontrado un nicho extremadamente fructífero que le permite viralizarse a través del anonimato. Nuestra propuesta es instalar una cultura de la duda propositiva de la ciudadanía”, indica. Es decir, que al no tener certeza de si algo es cierto o no, “por las dudas, no lo comparto”, agrega el consultor.

Plantea a la ciudadanía tener “cuidado y una alerta propositiva, de dudar del contenido que llega porque todo es susceptible de ser manipulado”, pero sin dejar de acudir a la pluralidad de fuentes de información.

 

¿El uso de la IA debe ser regulado?
Alfredo Velazco, director de Usuarios Digitales, comenta que es parte de una alianza de organizaciones denominada Un voto contra la desinformación.

Usuarios digitales han recopilado cerca de 100 piezas “inauténticas o sintéticas”, es decir, que han sido manipuladas o han sido generadas totalmente con IA, en el contexto de la primera vuelta. “Existen elementos bastante preocupantes, sobre todo en esta segunda vuelta, de grupos políticos que desde sus cuentas oficiales están difundiendo material desinformativo donde han utilizado IA”, indica. Ejemplifica dos casos en los que identificaron contenidos con una clonación de voz desde el lado oficialista.

En las redes sociales de Usuarios Digitales hay una serie de contenido categorizado como inauténtico o sintético, tras la verificación realizada. También han identificado una lista de “medios inauténticos, que están sesgados”. Velazco recomienda a la ciudadanía que exija a las candidaturas que no utilicen la desinformación, mucho menos la IA para manipular contenidos. Otro ejemplo es un video de González, de 2023, donde se clonó la voz y actualmente la gente cree que es real, menciona.

 

Ante un contenido que llame la atención, Velazco sugiere hacer un análisis para determinar si es real o no. “En cuestiones técnicas, ver que haya una sincronización de los labios con la voz, que la voz no esté robotizada. En imágenes, ver el detalle de los dientes y dedos, esos siguen siendo un problema para que se genere la IA”.

Cada vez es más desafiante lo que se está generando con la IA, apunta al recordar un video sobre la detención de la líder de la oposición venezolana, María Corina Machado, tras dar un discurso frente a la posesión de Nicolás Maduro. “Hubo un video y la mayoría de análisis daba una mayor probabilidad de que ese video sea generado con IA, pero el video era real”, refiere.

Por eso, sugiere a la ciudadanía: “Que estén alerta, sobre todo cuando son piezas comunicacionales que llaman mucho la atención, porque hay enunciados que sorprenden mucho y enseguida la gente comparte. Que no se dejen guiar por su sesgo de confirmación, es decir, que no compartan no compartan aquello que solo reafirma su pensamiento o creencia. Seamos un poco más responsables”.

Considera que se debe reglamentar el uso ético y responsable de la IA, sobre todo en contextos electorales. Dice que la alianza ha tratado de acercarse al Consejo Nacional Electoral con el fin de que exista ese reglamento dirigido a las organizaciones políticas para la campaña electoral, pero no han tenido resultado. La campaña arranca el 24 de marzo de 2025. También han remitido información a la Asamblea Nacional para una ley sobre el uso de la IA, esperan que se acoja.

Aplicaciones para identificar contenidos
Narváez sugiere usar Google Lens para la búsqueda inversa de imágenes, FotoForensics para la detección de imágenes alteradas y Deepware para la detección de videos creados con IA. Velazco sugiere AI or Not para identificar imágenes generadas por la IA. (KSQ)

Fuente: https://www.lahora.com.ec/pais/desinformacion-elecciones-ecuador-redes-sociales-viral-alerta-inteligencia-artificial/

Share.