Odio y Polarización

Odio y Polarización

La vecindad Podcast

Memorias del Crimen

Las redes sociales están siendo cada vez más vigiladas por gobiernos y organizaciones sociales en todo el mundo debido a la “ligereza” con la que han actuado para monitorear, acotar y censurar mensajes antisociales.


Facebook ha sido duramente condenada por su falta de eficacia al emprender acciones que regulen la desinformación (fake news) y la incitación al odio. TikTok ha sido señalada y acusada de promover contenido de usuarios simpatizantes con grupos extremistas norteamericanos, como es el caso de Qanon. Y Twitter  ha recibido ultimatums para entregar reportes a gobiernos —como el de Francia— sobre contenidos tóxicos y discursos de odio.


Según la revista Science las noticias falsas se esparcen seis veces más rápido en las plataformas sociales que las noticias auténticas. La ira es la emoción que se extiende con más rapidez, señala la publicación. 


Algunos expertos en nuevas tecnologías atribuyen este serio problema a los algoritmos de estas empresas que tienen “el encargo” de moderar supuestamente este tipo de contenidos, pero que en la práctica no se ejecuta con éxito.


Las reacciones por parte de los dueños de las plataformas no se han hecho esperar: Twitter se ha justificado afirmando que su red es un espacio de libertad de expresión y que ha lanzado nuevas herramientas destinadas a combatir los insultos y los mensajes de odio en las conversaciones. 


Por ejemplo, la empresa del “pajarito azul” implementó recientemente una estrategia que muestra notificaciones a los usuarios cuando su algoritmo detecta alguna palabra malsonante en un tuit antes de ser publicado. El objetivo es que el usuario “la piense dos veces” antes de proceder al envío del mensaje (tuit) o replicar el mensaje de alguien más (retuit).


Sin embargo, para muchos gobiernos este tipo de auto-regulación no ha sido suficiente. Un tribunal francés dictaminó esta semana una orden para que Twitter proporcione detalles sobre sus esfuerzos para combatir el odio en su plataforma. 


Según el fallo judicial francés, la medida se dió luego que varios grupos de presión en ese país —de origen judío y de la comunidad LGBT— acusaron a la red social de fallos prolongados y persistentes a la hora de bloquear los comentarios de odio en la red.


Twitter y Facebook han expresado en diversas circunstancias que su prioridad número uno es la seguridad de las personas que utilizan sus servicios y han externado su compromiso de construir una Internet más segura, combatir el odio en línea y mejorar la salud de la conversación colectiva.


Para muchos no bastan las buenas intenciones y las palabras. De ahí que exijan documentación y datos relacionados con sus actividades de programación de sus algoritmos para verificar que ciertamente se cumplen los esfuerzos de regulación. 


Lamentablemente en este punto se complica la situación, ya que las empresas de redes sociales consideran este paso como uno de ámbito privado —de seguridad interna de sus operaciones— viendo riesgos en su divulgación a terceras personas ajenas a su negocio.


Todo un dilema social, sin duda.

Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de El Popular, periodismo con causa.