Facebook y la monetización del odio: qué hacer para señalar la responsabilidad de las plataformas

Imagen: "Smartphone" de Arjan, bajo liencia CC BY-NC 2.0 (https://flic.kr/p/izbmsy) Imagen: "Smartphone" de Arjan, bajo liencia CC BY-NC 2.0 (https://flic.kr/p/izbmsy)
Author: 
APC
Publisher: 
APC

Las recientes revelaciones de una empleada de Facebook acerca de la decisión de la empresa de priorizar las ganancias sobre los derechos humanos y la seguridad de usuarios y usuarias confirman las preocupaciones y tendencias que APC y otras organizaciones de la sociedad civil vienen observando y manifestando en los últimos años. Preocupaciones en torno al modo de operar de Facebook y la implementación de sus normas comunitarias.

Las decisiones de Facebook de permitir en forma consciente y deliberada que la desinformación y la incitación al odio permanezcan en su plataforma para fomentar la división, sin implementar estándares de seguridad y permitiendo que usuarios y usuarias violen las normas comunitarias, ejercen un impacto extremadamente negativo, tanto en los derechos humanos de quienes utilizan la plataforma como en procesos democráticos a lo largo y ancho del mundo. Resulta imperativo adoptar en todo el mundo medidas regulatorias dirigidas a las grandes empresas tecnológicas, incluyendo a Facebook, orientadas a garantizar que internet contribuya al ejercicio de los derechos humanos y la democracia. 

Antecedentes

En septiembre de 2021, en una denuncia contra Facebook ante la Comisión de Seguridad y Valores de Estados Unidos, la denunciante Frances Haugen declaró que, entre otras cosas:

  • Facebook incentiva la polarización y los contenidos que parten de la rabia, entre ellos mensajes que incitan al odio, la violencia y la desinformación. Lo hace a sabiendas, pues esto conlleva una mayor participación.

  • No ofrece los mismos sistemas de seguridad en todos los idiomas ni en todos los países donde se usa la plataforma, ya que implica mayores costos. Es más, en Estados Unidos los mecanismos para controlar los mensajes que incitan al odio y la desinformación se discontinuaron después de las elecciones de 2020 porque afectaban a la participación. 

  • Facebook privilegia cuentas de perfil alto  que puedan operar con impunidad. Al mismo tiempo, Instagram, que pertenece a Facebook, publica con conocimiento material nocivo para la salud mental de las personas jóvenes. 

La mayoría de estos temas vienen siendo planteados por investigadores/as, usuarios/as y organizaciones de la sociedad civil desde hace tiempo.[1] Las revelaciones, que provienen de la propia investigación interna de Facebook dejan ver de manera aún más explícita que la dirección de Facebook es consciente de las consecuencias de sus políticas, pero decide ignorar deliberadamente los riesgos de violaciones graves de los derechos humanos que puedan acarrear en favor de sus ganancias. 

Mensajes que incitan al odio y un aumento de la desinformación

Facebook tiene un historial de permitir la circulación sin control en sus plataformas de mensajes que incitan al odio y de desinformación. En 2018, una misión investigadora de Naciones Unidas sobre el desarrollo de los hechos en Myanmar señaló el papel de Facebook en el genocidio de población musulmana rohingas, tras lo cual Facebook debió admitir que fue usado para incitar a la violencia en ese país. En India, una investigación de APC demostró que Facebook fue una plataforma fundamental para la propagación de mensajes de odio, información falsa e incitaciones a la violencia contra personas musulmanas durante la pandemia de COVID-19 el año pasado. No es ninguna sorpresa que Facebook conocía la existencia de contenido anti-musulmán en su plataforma; una nota del Wall Street Journal de agosto de 2020 reveló que Facebook permitió que los mensajes de odio de algunos miembros del partido gobernante de India permanecieran en su plataforma y varias organizaciones de la sociedad civil, incluso APC, han exhortado a Facebook a hacer una revisión de los mensajes que promueven el odio en su plataforma y a actuar en forma inmediata contra contenidos de este tipo. Sin embargo, hasta ahora es muy poco lo que se ha hecho. Esta falta de acción de parte de Facebook se reitera en el contexto palestino, donde un informe de 7amleh halló que 85% de las personas encuestadas fue objeto de mensajes de odio en Facebook sin que la plataforma hiciera nada al respecto, mientras que, al mismo tiempo, Facebook colaboraba con las autoridades israelíes para censurar voces palestinas en su red. 

Aparte de fomentar mensajes de odio, la denuncia también revela que Facebook no ofrece normas de seguridad ni separa los contenidos nocivos en diferentes idiomas. En distintas ocasiones APC y otras organizaciones llamaron la atención de Facebook por el daño adicional a quienes se expresan en lenguas minoritarias ocasionado por las barreras culturales y de idioma en la operación y las políticas de Facebook, en especial en países como Myanmar e India, donde gran parte de las noticias falsas y de los mensajes que promueven odio circulan en lenguas locales. 

Cuentas en lista blanca

Los documentos también muestran que Facebook privilegia o “pone en lista blanca” a determinadas cuentas pertenecientes a personas famosas, políticos/as y periodistas, a quienes se les otorga un “Xcheck” y se les permite publicar contenido que viola las normas comunitarias de Facebook. Esta cuestionada política concuerda con los informes que el año pasado denunciaban la negativa de Facebook a aplicar las normas comunitarias sobre mensajes que incitan al odio a ciertos actores políticos del país. En su Carta abierta a Facebook en respuesta a estos informes, APC destacó la importancia de que Facebook repare toda tendenciosidad en sus políticas y operaciones y asegure la neutralidad. Permitir que actores poderosos violen las normas comunitarias con impunidad impactará gravemente en losderechos humanos, incluida la libertad de expresión al silenciar a sobrevivientes y grupos específicos, y en  el derecho a la privacidad sin consecuencias, con lo que puede poner en peligro la vida de personas que ya han sido marginadas. Aunque el Consejo asesor de contenido de Facebook prometió revisar el sistema Xcheck, hasta el momento no está claro si de ello resultará algún cambio. 

Fallas para impedir el abuso y la violencia de género en línea

Facebook eligió no actuar para mitigar los perjuicios, a pesar de saber que su plataforma Instagram impactaba negativamente en la salud mental de niñas y adolescentes, lo cual también refleja su actitud hacia el material abusivo y nocivo dirigido a mujeres y personas de género diverso en todas sus plataformas. Como demuestran los hallazgos de APC,  Facebook e Instagram no han cumplido con su responsabilidad de proteger los derechos humanos en un contexto de creciente violencia y abuso contra mujeres y diversidades de género y sexualidad. A lo sumo,  la carga de la seguridad y protección recae en las mismas sobrevivientes, lo que mantiene a plataformas como Facebook a resguardo de rendir cuentas sobre su impacto sobre los derechos humanos. 

Parece claro que Facebook no prevé ningún cambio estructural ni de diseño de algoritmos para implementar políticas que aborden la normalización y amplificación de comportamientos abusivos y perjudiciales y que retener la atención y el tiempo de usuarios y usuarias continúa siendo la prioridad de la plataforma. No se prevén cambios en este modelo de negocios que se lucra con la inmediatez, el impacto emocional y la viralización. La falta de transparencia respecto de los algoritmos y otros procesos técnicos y de toma de decisiones añaden un manto de preocupación a la opacidad con la que opera Facebook, pues lleva a que la plataforma y sus aplicaciones estén cerradas al escrutinio público y a investigaciones en profundidad. Las filtraciones son una prueba más de lo que organizaciones de sociedad civil y otros actores vienen denunciando en los últimos años: la autorregulación de Facebook y otras redes sociales no se ha demostrado ni suficiente ni efectiva.  

Centralización de los servicios de internet

Además de las revelaciones, la caída mundial del servicio de Facebook y sus subsidiarias Instagram y WhatsApp el 4 cuatro y 8 de octubre, junto con la incapacidad de Facebook para solucionar el problema durante horas, resaltan los peligros de la centralización de infraestructura de las grandes compañías, la concentración de poder en la propiedad de múltiples servicios de comunicación populares y el exceso de confianza de millones de personas en estos servicios. 

Facebook y sus subsidiarias tienen 2800 millones de usuarios y usuarias en todo el mundo, que usan sus servicios para llevar adelante una actividad económica, cumplir compromisos sociales, realizar algún trabajo comunitario o simplemente sus comunicaciones personales. La caída del servicio por más de 6 horas del 4 de octubre le causó a Facebook una pérdida de valor de mercado de 50,000 millones de dólares, además de pérdidas para las empresas e individuos qué dependen de los servicios de Facebook, que todavía no han sido estimadas. Un factor importante es el nivel de integración de Facebook y WhatsApp en la vida cotidiana de muchas personas, en especial en el sur global, donde servicios gratuitos como Facebook y WhatsApp son esenciales para pequeños emprendimientos y vitales para la comunicación diaria entre familiares y amistades, más si cabe en el contexto de la pandemia de Covid-19. 

Esta concentración de la propiedad de múltiples servicios y plataformas, además de la concentración de su participación en el mercado, forma parte de un modelo de minería de datos ejecutado por las grandes compañías tecnológicas,que ya poseen un historial de comprar competidores potenciales (tal como Facebook adquirió WhatsApp e Instagram) y en consecuencia producir un crecimiento neto de usuarios y usuarias.  A pesar de recibir serios cuestionamientos sobre prácticas monopólicas, esta estrategia de Facebook continúa sin impedimentos. La monopolización le permite abusar de su posición dominante de muchas maneras,  no solo decidiendo cómo y de qué manera los negocios, las organizaciones y las personas pueden interactuar entre sí y en sus plataformas, sino generando un nivel de influencia en la vida diaria que puede ser muy difícil de contrarrestar – por ejemplo, cuando los países buscan regular las prácticas del sector privado.  

La intención de concentrar la propiedad y absorber a la competencia también impacta negativamente en la innovación y la creación de modelos alternativos y viables de provisión de servicios y espacios de interacción en red. De esta manera disminuye la pluralidad y diversidad y se fomenta que usuarios y usuarias de internet dependan de estos servicios limitados. La intención de Facebook de monopolizar el mercado también se ha visto facilitada por gobiernos que permiten que su programa básico y gratuito opere en sus países, con acceso ilimitado por parte del público y sin costos adicionales de datos, en violación de los principios de neutralidad de la red. Las respuestas a las partes interés interesadas que demandan la descentralización de servicios críticos de internet no pueden seguir postponiéndose. 

Hacia adelante

El primer paso consiste en asegurar que los servicios y las empresas digitales tomen conciencia de su responsabilidad de respetar los derechos humanos de sus usuarios y usuarias y los de otras personas afectadas por sus operaciones y que los asuman de acuerdo con los Principios rectores sobre las empresas y los derechos humanos de las Naciones Unidas. Las plataformas, en especial las grandes como Facebook, deben prevenir los daños que sus operaciones pudieran causar y tienen la obligación de reparar los perjuicios que ya hayan provocado. Resulta de suma importancia establecer mecanismos regulatorios complementarios, alternativos e inteligentes con el propósito de garantizar un ecosistema digital centrado en las personas y respetuoso de los derechos humanos. Pero en lugar de esto, los gobiernos han intentado enfrentar los problemas presentados por las redes sociales en tiempos recientes mediante regulaciones cada vez más autoritarias que resultan siempre demasiado amplias y vagas y cuya verdadera intención parece siempre ser el control de contenidos. Regulaciones de esta clase, como las que existen en Pakistán, India e Indonesia o México no solo restringen la libertad de expresión y la posibilidad de una internet libre, abierta y respetuosa de los derechos humanos, sino que también resultan en mayor opacidad de las empresas acerca de su funcionamiento y la implementación de sus políticas. 

En cambio, como sostiene APC, las regulaciones deben garantizar la supervisión pública y la responsabilidad de las empresas a través de medidas que se concentren en su comportamiento, sus políticas y algoritmos en vez de en los contenidos. Esto incluye regular los elementos arquitectónicos de la distribución del contenido, tales como escala, extensión y diseminación. También incluye evaluar la efectividad de las medidas llevadas a cabo para restringir o amplificar los contenidos contrarios a los objetivos que se hayan propuesto en base a la protección de los derechos individuales, mediante auditorías de derechos humanos y plena transparencia de parte de las plataformas sobre cualquier tipo de información importante y necesaria para un monitoreo efectivo, y la imposición de multas u otras acciones correctivas cuando las plataformas no proveen dicha información en tiempo y forma. El abordaje también debe ir más allá de las soluciones centradas en las herramientas para observar las causas, la prevención, protección, liberación, bienestar y respeto de los derechos y libertades fundamentales, donde la carga de actuar con mayor transparencia y responsabilidad pública recaiga sobre las empresas tecnológicas.

Con esto en mente, resulta también imperativo reconocer que el poder económico mediante la concentración de la propiedad, tal como se ve en Facebook y otras grandes empresas de tecnología, ha sido un impedimento significativo para la regulación efectiva, además de una barrera para la innovación y la diversidad. Es, por tanto, hora de adoptar medidas que restrinjan la concentración de la provisión de servicios digitales y espacios de red por unas pocas empresas que han desembocado en la centralización de internet. Esto puede realizarse, por ejemplo, mediante la elaboración de regulaciones anti-monopolio que favorezcan la competencia y que vuelvan más difícil que las empresas tecnológicas compren a sus competidoras y obliguen a dividir las operaciones que resulten en la creación de monopolios. La Comisión Jurídica del Congreso de los Estados Unidos aprobó recientemente un informe que propone medidas anti-monopolio necesarias contra las grandes compañías tecnológicas. Es un paso en la dirección correcta. También será necesario dar pasos para asegurar que no haya distorsiones en la competencia en los mercados digitales que favorezcan a las empresas dominantes, al permitir la discriminación del tráfico de aplicaciones, contenidos o servicios en base a criterios comerciales. Para este fin los cuerpos regulatorios de las telecomunicaciones deberían emitir pautas claras para proveedores y operadores de servicios de internet, de modo que estas empresas protejan la neutralidad de la red y la innovación tecnológica. 

Más allá de esto, los estados, la sociedad civil, las comunidades tecnológicas, entreotras, deben involucrarse en la elaboración de un abordaje multisectorial para la creación de un entorno que permita la diversidad de modelos económicos y alternativas a las actuales redes sociales y  plataformas de provisión de servicios. Esto incluye modelos alternativos de desarrollo tecnológico gestionados por la comunidad, tanto en el nivel de infraestructura como en el de software, que puedan coexistir y prosperar y por lo tanto contribuir a la protección de los derechos humanos y la descentralización de internet, y así limitar la erosión de los procesos democráticos.

Los peligros de la inacción han sido muy bien resumidos por la premio Nobel Maria Ressa, cuando señala, “Es una batalla por los hechos y el mayor problema que enfrentamos ahora mismo es que las mayores distribuidoras de noticias del mundo, plataformas tecnológicas como Facebook y YouTube, han priorizado la difusión de mentiras teñidas de enojo y odio por encima delos hechos. Si no tienes los hechos, no tienes la verdad. Si no tienes verdad, no puedes tener confianza. Y sin ninguna de estas tres, la democracia, tal como la conocemos, muere”. Ignorar esta advertencia nos pone en riesgo. 

Notas

[1] Algunos ejemplos:

Suzor, N. (2019). Lawless: The Secret Rules That Govern Our Digital Lives. https://www.researchgate.net/publication/333950710_Lawless_The_Secret_Rules_That_Govern_Our_Digital_Lives.

Benesch, S. (2020). But Facebook’s Not a Country: How to Interpret Human Rights Law for Social Media Companies. Yale Law School. https://digitalcommons.law.yale.edu/cgi/viewcontent.cgi?article=1004&context=jregonline.

Barrett, P., Hendrix, J., & Sims, G. (2021). How tech platforms fuel U.S. political polarization and what government can do about it. Brookings. https://www.brookings.edu/blog/techtank/2021/09/27/how-tech-platforms-fuel-u-s-political-polarization-and-what-government-can-do-about-it/.

Velazco, C. (2018). Facebook can’t move fast to fix the things it broke. Engadget. https://www.engadget.com/2018-04-12-facebook-has-no-quick-solutions.html.

[2] https://pen.org/report/no-excuse-for-abuse/

« Retourner