top of page

Del algoritmo al voto: ¿cómo proteger la
democracia en la era de la IA?


Diana Dajer, gerente de Democracia en Fundación Corona.


El pasado 28 de julio, MinCiencias radicó un nuevo proyecto de ley para regular la inteligencia artificial (IA) en Colombia. El proyecto representa un avance, no exento de retos, en la protección de derechos fundamentales. Con esta propuesta, ya son más de diez las iniciativas legislativas sobre IA que están en trámite actualmente en el Congreso, pero ninguna ha puesto en el centro la defensa de la democracia y de los procesos electorales


¿Y la democracia? En medio del boom regulatorio sobre IA, nadie parece estar hablando de ella. Mientras el Congreso acumula proyectos de ley para regular esta tecnología, la IA ya está transformando la forma como se hace política: cómo nos informamos, cómo participamos y cómo decidimos. Ignorar ese impacto en el diseño normativo puede dejar desprotegidos pilares esenciales del sistema democrático, como el acceso a información veraz, la igualdad en el debate público y la transparencia en las elecciones. 


La democracia no puede ser un daño colateral del avance tecnológico. En este artículo hablaré de los tres principales riesgos que la IA representa para la democracia colombiana y de recomendaciones concretas que podrían incorporarse en el marco normativo y en políticas públicas y acciones complementarias para proteger la democracia. Esto, a partir de diversas fuentes sobre IA en contextos democráticos, como la base de datos sobre regulación de IA en Colombia y América Latina de la Escuela de Gobierno de la Universidad de los Andes, y documentos del Alan Turing Institute, la iniciativa AI + Society de la Universidad de OttawayRest of World y el German Marshall Fund. 


1. Desinformación, polarización y manipulación hiperpersonalizada 

La inteligencia artificial permite crear y difundir contenido político falso de forma masiva y personalizada. Por ejemplo, en Colombia, durante las elecciones de 2023, circularon audios falsos generados con IA que suplantaban a los candidatos Carlos Fernando Galán y Alejandro Eder. Los audios se movieron rápidamente por redes y chats, afectando la credibilidad de sus campañas y confundiendo al electorado.  


La IA permite una microsegmentación política: mensajes diseñados para cada votante según sus intereses y comportamiento digital. Aunque esta técnica no es negativa en sí misma, puede vulnerar derechos fundamentales si se basa en el uso masivo de datos personales sin consentimiento, si incita al odio o si se usa para hacer más efectiva la desinformación.  


Casos como el de Cambridge Analytica en el Brexit y las elecciones presidenciales de Estados Unidos en el 2016 o el uso de deepfakes en las elecciones de India en 2024, muestran cómo la IA puede manipular preferencias individuales a gran escala, erosionando la confianza en el sistema electoral. 

En Colombia, la Ley 2502 de 2025 tipificó como agravante penal la suplantación mediante IA y ordenó crear una política pública intersectorial para abordar sus riesgos. Pero aún falta mucho por hacer y algunas medidas deben ir más allá de lo normativo, como por ejemplo:  


  • Exigir que todo contenido político generado con IA esté claramente etiquetado.  

  • Promover la transparencia en el uso de algoritmos de segmentación electoral. 

  • Fortalecer las capacidades de la Registraduría y el Consejo Nacional Electoral para monitorear y sancionar el uso indebido de IA.  


2. Ataques a la infraestructura electoral con IA 

La inteligencia artificial también puede ser usada para atacar los sistemas que sostienen nuestras elecciones: bases de datos de votantes, páginas web oficiales, plataformas de registro y sistemas de transmisión de resultados. Así, por ejemplo, según el Brennan Center for Justice, la IA puede simular ataques de denegación de servicio, manipular interfaces de usuario y generar contenido falso que imite comunicaciones oficiales. Estos ataques pueden generar confusión y desconfianza en el proceso electoral; igualmente, en contextos de alta polarización, pueden alimentar narrativas de fraude. 


Ya hay ejemplos concretos. En las elecciones de Estados Unidos en 2024, se reportaron mensajes falsos enviados por IA que decían a votantes en estados clave que ya habían votado o que su registro había sido cancelado. Estos mensajes buscaban confundir y desincentivar la participación electoral. En el Reino Unido, en 2023, un ciberataque a la Comisión Electoral comprometió datos de millones de votantes, lo que podría facilitar campañas de desinformación dirigidas.  


En Colombia, estos riesgos aún no se han abordado de forma integral en los proyectos de ley para regular la IA. Algunas recomendaciones concretas para proteger la infraestructura electoral son: 

  • Campañas pedagógicas para que la ciudadanía aprenda a identificar comunicaciones oficiales, proteger sus datos y reconocer intentos de manipulación digital. 

  • Sistemas de monitoreo, alerta temprana y respuesta rápida a posibles ataques automatizados, en colaboración con centros de ciberseguridad nacionales e internacionales. 

  • Una línea estratégica específica sobre seguridad electoral digital dentro de la política pública ordenada por la Ley 2502 de 2025, con recursos, capacidades técnicas y formación especializada. 


3. Fraude a normas de financiación de campañas electorales 

El Consejo Nacional Electoral en Colombia reconoce desde el 2020 que el uso de redes sociales con fines electorales se considera propaganda política. Las plataformas digitales han abierto nuevas formas de pautar contenido político, pero también han creado caminos para ocultar quién paga por esos mensajes y su publicación fuera del tiempo permitido para la propaganda electoral.  

Por ejemplo, en México, El Instituto Nacional Electoral ordenó en 2021 retirar una campaña del Partido Verde Ecologista de México que se difundía a través de influenciadores en redes sociales, por hacer propaganda en un periodo prohibido.  

En Rumania, el Tribunal Constitucional anuló la primera vuelta de las elecciones presidenciales de 2024, tras revelarse una campaña de ataques híbridos financiada por Rusia, que favoreció al candidato prorruso Calin Georgescu mediante ciberataques y manipulación en redes sociales como TikTok. 

La IA permite crear identidades falsas, simular donantes o mover dinero a través de redes de bots y cuentas automatizadas de forma muy difícil de detectar. Para enfrentar estos riesgos, el Estado debería implementar medidas específicas orientadas a fortalecer la transparencia y trazabilidad del financiamiento político digital, por ejemplo: 


  • Obligar a las plataformas digitales a reportar quién paga y cómo se segmenta la publicidad política.  

  • Que el Consejo Nacional Electoral tenga mayores herramientas para seguirle el rastro al dinero digital.  


Conclusión: proteger la democracia ante una tecnología disruptiva 


La inteligencia artificial está transformando aceleradamente los procesos democráticos. La Ley 2502 de 2025 y el nuevo proyecto de ley presentado por MinCiencias son avances importantes, pero la protección de la democracia debe ser un eje explícito en cualquier marco normativo sobre IA. Igualmente, como se ve en las diferentes recomendaciones propuestas, esta protección en muchos casos debe trascender el ámbito normativo. El voto todavía es humano. Protegerlo en todas sus dimensiones es una tarea urgente.   

Ver publicación en La Silla Vacía aquí: https://www.lasillavacia.com/red-de-expertos/red-de-democracia-y-tecnologia/del-algoritmo-al-voto-como-proteger-la-democracia-en-la-era-de-la-ia/ 



bottom of page