La sombra de Rumania sobre las elecciones colombianas
La Corte Constitucional de Rumania tomó una decisión histórica al anular la primera vuelta electoral presidencial de 2024, tras documentarse influencia externa y ciberataques rusos que comprometieron la integridad del proceso. Analistas internacionales detectaron un incremento artificial y sospechoso de seguidores y "me gusta" en la plataforma TikTok, lo que habría distorsionado el sistema electoral rumano de manera significativa.
Como respuesta inmediata, la Comisión Europea inició una investigación formal contra TikTok por posibles violaciones a la ley de servicios digitales. Un experimento realizado por Global Witness reveló datos alarmantes: el algoritmo de TikTok recomendaba contenido favorable a un candidato específico entre 4.6 y 14 veces más que contenido sobre su oponente presidencial.
El problema fundamental de la opacidad algorítmica
Aunque TikTok argumenta que estos estudios no reflejan el uso real de sus usuarios y académicos han cuestionado metodologías similares, persiste una preocupación fundamental: no existe forma transparente de verificar cómo funcionan realmente estos algoritmos, más allá de la combinación secreta de intereses y engagement que determinan lo que millones de usuarios ven.
La pregunta crucial para Colombia es: ¿qué medidas preventivas implementaremos para evitar el sesgo algorítmico que afectó a Rumania? En plena contienda electoral, este desafío trasciende el perfil digital que construimos con cada interacción en redes sociales.
Datos políticos: información especialmente sensible
Tanto la Corte Constitucional colombiana como la Ley 1581 de 2012 han establecido claramente que los datos personales que revelan orientación política son información sensible, con potencial para generar marginación o discriminación social. Estos datos pueden ser entregados directamente a partidos políticos o plataformas digitales, o inferirse de comportamientos aparentemente inocentes en línea.
El caso paradigmático sigue siendo las elecciones estadounidenses de 2016, donde Cambridge Analytica utilizó datos de un simple test de personalidad en Facebook para inferir información sensible de casi 50 millones de personas, empleándola posteriormente para "manipular psicológicamente a votantes" mediante noticias falsas distribuidas de forma casi individualizada.
La evolución de las capacidades predictivas
El aumento exponencial en las capacidades de procesamiento de datos y el modelo de negocio que sustenta las plataformas digitales han creado un escenario donde hoy es más fácil que nunca combinar información personal y realizar perfiles predictivos sofisticados. Ya no se trata solamente de predecir comportamientos, sino de modificarlos gradual e imperceptiblemente, situación que se agrava cuando existen menores habilidades digitales entre la población.
Según la académica Shoshana Zuboff, las redes sociales operan con modelos predictivos que comercializan a anunciantes, no solo para captar nuestra atención, sino para generar monetización a través de lo que ella describe como "un mercado que vende futuros de comportamiento humano", fenómeno que se intensifica peligrosamente en contextos de contienda política.
Las limitadas respuestas regulatorias
Tras el escándalo de Cambridge Analytica, las redes sociales implementaron medidas públicas y modificaron, al menos superficialmente, sus sistemas de publicidad dirigida. Meta, específicamente, eliminó opciones de segmentación relacionadas con temas delicados como salud, raza, afiliación política, religión u orientación sexual.
Sin embargo, estas medidas han demostrado ser insuficientes. Candidatos y partidos políticos han desarrollado estrategias para eludir estas restricciones. Un estudio de 2024 reveló que durante las elecciones legislativas estadounidenses de 2022, partidos y grupos ciudadanos segmentaron anuncios a poblaciones específicas utilizando intereses aparentemente neutrales pero políticamente reveladores.
- Los Republicanos de Virginia dirigieron anuncios a personas interesadas en NASCAR, caza mayor y caza de ciervos
- La organización CA Black Power Network orientó mensajes a usuarios interesados en The Shade Room, Basketball Wives y Love & Hip Hop para movilizar a la comunidad afroamericana
La inferencia indirecta de datos sensibles
Estas estrategias aprovechan la capacidad de inferir datos sensibles indirectamente a partir de gustos e intereses culturalmente específicos. Además, herramientas como Advantage Plus de Meta permiten direccionar publicidad mediante algoritmos opacos pero extremadamente precisos, sin revelar los criterios específicos de segmentación.
La propaganda política no es nueva, pero las plataformas digitales han hecho posible la propagación personalizada e individualizada de narrativas electorales manipuladoras con una facilidad, desconocimiento, irresponsabilidad y bajo costo sin precedentes históricos.
Responsabilidades en el manejo de datos electorales
En materia de datos personales durante procesos electorales, la desinformación no reside únicamente en el contenido distorsionado o la intención manipuladora del emisor, sino especialmente en la selección algorítmica de destinatarios y el tratamiento de sus datos personales.
Mientras partidos políticos y agencias de marketing pueden tener bases de datos propias, las redes sociales poseen las más completas, con capacidad de perfilamiento basado en historial de navegación, interacciones sociales, intereses detectados y vulnerabilidades psicológicas que podrían facilitar distorsión informativa.
La Superintendencia de Industria y Comercio (SIC) expidió una circular dirigida a partidos políticos, candidaturas, campañas, empresas de marketing electoral y plataformas digitales, recordando la importancia de cumplir y poder demostrar el cumplimiento de obligaciones en tratamiento de datos personales con fines políticos.
Derechos ciudadanos frente a la propaganda algorítmica
Los ciudadanos colombianos tienen derecho a exigir a plataformas digitales que los retiren o actualicen de listas que distribuyen contenido político-electoral, así como a solicitar prueba del consentimiento cuando son agregados a grupos de mensajería instantánea o listas de distribución masiva.
Es fundamental recordar que el tratamiento de datos personales sensibles, incluidos los políticos, está prohibido por regla general y solo puede ocurrir con autorización específica, voluntaria e individualizada para ese tipo de datos particulares.
Vigilancia permanente en el panorama colombiano
Los fantasmas de Cambridge Analytica en las elecciones estadounidenses de 2016 y el reciente caso de TikTok en Rumania podrían materializarse en las múltiples elecciones colombianas venideras. Sin la fuerza institucional de un tribunal electoral especializado como el brasileño, la ciudadanía y autoridades colombianas deben mantener una vigilancia extraordinaria.
La legislación de protección de datos personales y la autoridad administrativa que la garantiza representan un punto de partida crucial, pero insuficiente frente a la sofisticación creciente de las técnicas de microsegmentación algorítmica. La integridad electoral en la era digital exige transparencia algorítmica, educación ciudadana en competencias digitales y mecanismos de verificación independientes que prevengan la manipulación de comportamientos electorales mediante la comercialización de futuros humanos predictivos.



