Regulación de las redes sociales

El crecimiento de las manifestaciones intolerantes y racistas en las redes sociales llevó a que la Unión Europea presionara a las empresas tecnológicas para que asumieran un rol más activo en la lucha contra el discurso del odio.

Como resultado de esa presión de algunos estados y de la propia Unión Europea, en mayo de 2016, Facebook, Twitter, Youtube y Microsoft firmaron un Código de Conducta en materia de incitación ilegal al odio en internet. En dicho acuerdo, las empresas tecnológicas adquirieron una serie de compromisos, entre los que destaca el compromiso de revisar las solicitudes de retirada de contenidos ilegales de incitación al odio en el plazo de 24 horas. Además, se comprometieron a establecer procedimientos claros de examen de los contenidos denunciados, y a valorar las denuncias que reciban en sus servicios, con arreglo a sus normas de autorregulación, pero teniendo en cuenta también, cuando sea necesario, las legislaciones nacionales de transposición de la Decisión Marco europea relativa a la lucha contra determinadas formas y manifestaciones de racismo y xenofobia

mediante el Derecho penal, que el acuerdo considera su base jurídica. La última plataforma en sumarse a este control en 2020 ha sido Tik Tok.Así, el Código de Conducta de la Comisión Europea revisa cada año cómo ha sido la actuación de estas plataformas para enfrentarse a la incitación ilegal al odio en línea. El Código, su aplicación y revisiones ha servido también para diseñar la futura Ley de Servicios Digitales de de la Unión, cuya propuesta fue presentada por la Comisión en diciembre de 2021 y que los colegisladores europeos están actualmente negociando.

Los sentimientos de odio son producidos por una agresión a (o una frustración de) los dos grandes impulsos básicos que tiene todo ser humano (y, de una forma más instintiva, también otros mamíferos superiores): los que proceden del orgullo y del deseo. Son las heridas narcisistas y las barreras al deseo lo que provoca siempre el odio contra aquellos que, de forma real o imaginaria, las han causado.

Estrategias para prevenir el discurso de odio en Internet

Campañas

Atendiendo a su contenido y orientación específica, estas campañas pueden categorizarse en tres tipos: de sensibilización, afirmativas o restrictivas. Destaca la campaña Viviendo juntos online: acción y campaña contra el discurso del odio (campaña No Hate), lanzada por el Consejo de Europa (COE) en marzo de 2013, por ser una campaña integral, que incluye en sí misma una amplia variedad de estrategias contra el odio online. Esta campaña ocupa un lugar privilegiado en el ámbito de la lucha contra el discurso del odio en internet, ya que ha funcionado como un paraguas para una multitud de iniciativas en los niveles nacional, regional y local del entorno europeo.

Estrategias basadas en la formación y la educación

Aunque sea complicado cuantificar de manera integral el problema, existe una sensación generalizada a nivel internacional de que el discurso del odio en las redes sociales está preocupantemente extendido. El odio, la ira y la agresividad se han convertido en moneda común en las redes sociales, provocando daño emocional a sus destinatarios y contribuyendo a la estigmatización y deshumanización de ciertas personas, por distintas motivaciones intolerantes . Las estrategias jurídicas, que buscan la represión y sanción del discurso del odio, suponen un importante dilema por afectar a un derecho esencial para las democracias como la libertad de expresión.

Código de Conducta de la Comisión Europea

Desde 2016, la Comisión Europea evalúa cada año la situación del discurso del odio en las plataformas y redes sociales adheridas a través de un Código de Conducta en el que se analizan Youtube, Facebook, Twitter, Instagram, Jeuxvideo y a partir del próximo año, Tik Tok. El último informe11, 20 de junio de 2020, arroja que las empresas de internet evalúan el 90% del contenido denunciado dentro de las 24 horas y eliminan el 71% del contenido considerado como discurso de odio ilegal. Sin embargo, las plataformas necesitan mejorar aún más la transparencia y la respuesta a los usuarios. Věra Jourová, Vicepresidenta de Valores y Transparencia, ha comentado que “El Código de conducta sigue siendo un éxito cuando se trata de contrarrestar el discurso de odio ilegal en línea. Ha aportado mejoras urgentes respetando plenamente los derechos fundamentales, y ha creado asociaciones valiosas entre las organizaciones de la sociedad civil, las autoridades nacionales y las plataformas de internet. Ahora es el momento de garantizar que todas las plataformas tengan las mismas obligaciones en todo el Mercado Único y aclarar en la legislación las responsabilidades de las plataformas para hacer que los usuarios estén más seguros en internet. Lo que es ilegal sin conexión sigue siendo ilegal en internet”.

Las plataformas evaluaron el 90% del contenido marcado en 24 horas, mientras que solo evaluaban el 40% de los contenidos en 2016.El 71% del contenido considerado en 2020 como discurso de odio ilegal se eliminó en 2020, mientras que en 2016 solo fue el 28%. Las plataformas respondieron al 67,1% de las notificaciones recibidas. Esto es un porcentaje mayor que en el ejercicio de monitoreo anterior (65,4%) y evitan eliminar contenido que no califican como discurso de odio ilegal pero la política de recursos por quienes se sienten perjudicados no tiene plenas garantías y desde el punto de vista jurídico existen elementos sin resolver.

Las plataformas respondieron al 67,1% de las notificaciones recibidas. Esto es un porcentaje mayor que en el ejercicio de monitoreo anterior (65,4%)

La Ley de Servicios Digitales de la Unión

El Parlamento Europeo y el Consejo están negociando lo que será la futura Ley de Servicios Digitales de la Unión, sobre la base de la propuesta presentada por la Comisión Europea en diciembre de 2020.

Esta Ley establecerá obligaciones que servirán para proteger mejor a consumidores y usuarios, especialmente, sus derechos fundamentales. Creará un marco para que las plataformas online sean más transparente y contribuyan a mantener un ecosistema digital sano y seguro, aplicando unas reglas claras. Servirá también para impulsar la innovación, el crecimiento y la competitividad del mercado único.

De acuerdo con ella, los usuarios y las plataformas alertarán marcando contenidos que puedan ser ilegales y, los que realmente lo sean, deberán ser retirados. La propuesta establece una serie de mecanismos y salvaguardas para que esa retirada.

Esta Ley creará un marco jurídico para que los sistemas de alerta de contenidos ilícitos funcionen, para que la retirada sea ágil y eficaz y para que los usuarios puedan impugnar las decisiones que moderación de contenido que puedan considerar injustas.

Las zonas grises del odio en Internet

Se ha comprobado que la autorregulación de las plataformas no es suficientemente eficaz y por los motivos ante dichos que no se les puede trasladar una responsabilidad que debe residir en los poderes públicos y en la propia sociedad.

Muchos contenidos dañinos se encuentran en esas zonas grises, por lo que cualquier acción orientada a reducir su presencia en redes debe pasar por respetar escrupulosamente la libertad de expresión de los individuos, pero sin convertir esta garantía en una puerta abierta a vulnerar derechos de otros. Se debe evitar que las plataformas ejerzan algún tipo de autocensura, puesto que no es su cometido.

El debate hoy en día está muy vivo y hay muchas preguntas en el aire: ¿se debería invertir más en la alfabetización digital y mediática de los usuarios?, ¿son los poderes públicos un modelo en términos de buen uso de las redes sociales?, ¿un código destinado a ese fin ayudaría a que las usaran mejor?, ¿debe ejercerse un mayor control públicodemocrático sobre las plataformas?, ¿deberían tener los poderes públicos un papel más activo, por ejemplo, emitiendo títulos habilitantes a las Plataformas para ejercer ciertas tareas?, ¿se necesitan recomendaciones europeas para armonizar los criterios de moderación de contenidos en redes?, ¿sería bueno contar con jueces y mediadores especializados en conflictos con emisores de contenido disconformes con las retiradas?, ¿sería positivo que se premiara a los actores ejemplares, plataformas o verificadores, que priorizan la transparencia y la veracidad?

Un ecosistema digital sano y seguro es algo que va mucho más allá de las leyes.

Notas sobre el delito de odio, como un delito grave para la Unión

En su discurso sobre el estado de la Unión de 2021, la presidenta de la Comisión Europea, Úrsula von der Leyen, destacó que el progreso en la lucha contra el racismo y el odio es todavía “frágil” y que es el momento de hacer cambios para “construir una Unión verdaderamente antirracista que vaya de la condena a la acción”.

Es en ese marco en el que se sitúa la iniciativa de la Comisión dirigida a ampliar la lista de delitos graves de la UE -recogidos en el artículo 83(1) del TFUE- para incluir la incitación al odio y los delitos de odio. La Unión quiere dar una respuesta para combatir los datos y análisis proporcionados por la Agencia de Derechos Fundamentales (FRA) y otros investigadores, que muestran que las manifestaciones de odio son mayores en número y motivaciones y que la sociedad está cada vez más crispada y polarizada. A día de hoy, solo existe cierta armonización europea en el ámbito penal, en cuanto a definición y penas, cuando hablamos de discursos o delitos de odio motivados por racismo o xenofobia, pero no cuando la motivación es otra.

La inclusión del discurso de odio y delito de odio entre los ámbitos delictivos de especial gravedad y con una dimensión transfronteriza supondría compartir criterios comunes que todos los Estados miembros reflejarían en sus códigos penales.

Los prejuicios, la intolerancia y el odio circulan a la velocidad de la luz dentro y fuera de la Unión.

¿La sociedad puede percibir un cambio como éste como algo positivo? ¿Lo considera la sociedad positivo?