Fallo histórico de la Corte Suprema contra el discurso de odio en redes sociales
La Corte Suprema de Justicia de Colombia ha emitido una decisión judicial sin precedentes que ordena a la empresa tecnológica Meta implementar protocolos específicos en el país para bloquear mensajes de odio, violencia y estigmatización dirigidos contra mujeres, niñas y niños en la plataforma Facebook.
El caso que llegó al alto tribunal
La resolución se produjo en respuesta a una acción de tutela presentada por un hombre acusado de violencia intrafamiliar, quien alegaba vulneración de su derecho a la libertad de expresión después de que un juzgado le impusiera un arresto de 35 días. El detenido había incumplido una medida cautelar que le prohibía emitir mensajes contra su expareja y sus dos hijas menores de edad, quienes se encontraban bajo alerta de feminicidio.
Según los documentos del caso, el individuo había difundido a través de redes sociales contenidos estigmatizantes que reproducían estereotipos denigrantes contra las víctimas. La Corte determinó que estas publicaciones no constituían ejercicio legítimo de la libertad de expresión, sino que profundizaban el entorno de violencia y riesgo en el que se encontraban las afectadas.
Límites claros a la libertad de expresión
En su extenso análisis, la Sala Civil de la Corte Suprema estableció parámetros fundamentales sobre los alcances del derecho a la libre expresión. El tribunal dejó claro que este derecho no es absoluto y no protege manifestaciones que perpetúan la discriminación o legitiman la violencia, especialmente cuando están dirigidas contra grupos vulnerables como mujeres, niñas y niños.
La Corte advirtió que estos discursos de odio trascienden el ámbito de las simples opiniones para convertirse en formas de violencia simbólica con efectos concretos sobre la vida e integridad física y psicológica de las personas. El fallo enfatizó que la difusión masiva de estos mensajes a través de plataformas digitales agrava significativamente la situación de vulnerabilidad de las víctimas.
Responsabilidad de las plataformas digitales
En un aspecto innovador del fallo, la Corte Suprema centró su atención en el rol de las empresas tecnológicas como Meta. Aunque reconoció que estas plataformas no generan directamente los contenidos problemáticos, determinó que tienen deberes específicos frente a la circulación de mensajes que vulneran derechos fundamentales.
El tribunal ordenó a Meta no solo retirar las publicaciones cuestionadas en este caso particular, sino adoptar medidas efectivas para prevenir que contenidos similares vuelvan a ser publicados o replicados en Facebook. La Corte fue más allá al exigir que las respuestas de las plataformas no sean meramente reactivas, sino que incluyan mecanismos proactivos de prevención, monitoreo y control.
Medidas preventivas obligatorias
"Las plataformas deben contar con mecanismos de prevención, monitoreo y control que permitan identificar y frenar la difusión de discursos estigmatizantes o incitadores de violencia, particularmente cuando se trata de sujetos de especial protección constitucional", reiteró la Corte en su decisión.
El fallo también contextualizó las publicaciones dentro de un patrón de conducta reiterada que desconocía medidas de protección previamente adoptadas a favor de las víctimas. La Corte concluyó que la difusión de estos mensajes en redes sociales reforzaba dinámicas de violencia de género y creaba un entorno digital hostil para grupos especialmente protegidos.
Esta decisión judicial marca un precedente significativo en Colombia sobre la responsabilidad de las empresas tecnológicas frente a contenidos violentos y discriminatorios, estableciendo estándares más altos de protección para mujeres, niñas y niños en el espacio digital.



