Intervozes en RightsCon: debatiendo la regulación de grandes plataformas y consejos de supervisión de redes sociales

La regulación de las grandes plataformas de internet y el impacto de la moderación de contenidos en la libertad de expresión fue uno de los temas debatidos en RightsCon Online 2020, que ocurrió en línea entre el 27 y el 31 de julio. La importancia del tema crece, por un lado, a medida que las grandes plataformas digitales, de forma cada vez más monopólica, aumentan su poder de incidencia en el debate público, con base en la moderación de contenidos.

Por otro lado, se multiplican las propuestas legislativas para regular los contenidos en internet en varios países de América Latina. El tema se destaca más aún frente a la pandemia Covid-19, que traslada muchas actividades al ambiente en línea en todo el mundo, y también por el contexto electoral en varios países de la región.

El 28 de julio, Intervozes – Colectivo Brasil de Comunicación Social y miembro de APC, participó del debate “Content removal in Latin America: Censorship practices on the Internet and regulatory approaches for the region”. Organizada por Observacom (Observatorio Latinoamericano de Regulación Medios y Convergencia) y por Articulo 19 México y América Central, la sesión reunió a expertos/as en derechos digitales y representantes de organismos internacionales. El colectivo brasileño presentó los principales aspectos del documento “Aportes para una regulación democrática de las grandes plataformas que garantice la libertad de expresión en internet”, elaborado en conjunto con entidades y expertos/as latinoamericanos/as y pasó por un proceso de consulta pública entre agosto y noviembre de 2019. La versión final del documento fue lanzada en Brasil el 6 de agosto.

Se subrayaron cuatro puntos del documento en la discusión: los aspectos que justifican la importancia de regular las grandes plataformas digitales, en especial la necesidad de proteger la libertad de expresión de los usuarios ante la moderación privada que las plataformas ya realizan hoy, sin cualquier control público; la importancia que las plataformas respecten el debido proceso y el derecho de recurso de los/as usuarios/as, para impedir la censura previa y cualquier otra medida de restricción indebida de contenidos; la importancia de la disponibilidad de términos de servicio accesibles a todos los usuarios, incluso a los niños y niñas, adolescentes, cuando pertinente; que sean compatibles con los derechos humanos; y la necesidad de que las plataformas adopten políticas de transparencia, incluso con relación a sus algoritmos, ya que es importante que los usuarios sepan de qué forma las empresas los utilizan para ordenar, priorizar o reducir el alcance de las informaciones.

La importancia de la construcción de una propuesta de regulación desde la perspectiva latinoamericana, región que enfrenta desafíos propios respecto a la libertad de expresión, fue destacada por Gustavo Gómez, director ejecutivo de Observacom. Gómez señaló que la propuesta discutida en RightsCon Online parte de un modelo de co-regulación alternativo al modelo de autorregulación corporativa o las regulaciones estatales autoritarias.

Presente como comentarista del debate, el relator de la Organización de los Estados Americanos (OEA) para la libertad de expresión, Edison Lanza, afirmó que está de acuerdo con los principios del documento, en especial los que se refieren a la transparencia de las plataformas, debido proceso y participación de los usuarios en la elaboración de las políticas de moderación de contenido. Sin embargo, también manifestó preocupación con los intentos de regulación abusiva que viene surgiendo en diferentes países. La misma preocupación fue expresada por Martha Tudon, de Artículo 19.

Para Guilherme Canela, de UNESCO, es fundamental garantizar la continuidad del debate para profundizar la solución de problemas específicos, como el discurso de odio y la desinformación, que afectan de forma diferente las poblaciones y necesitan abordajes también específicos. Una de las posibilidades de discusión sobre el tema está en curso, con la consulta pública abierta, hasta el 1 de septiembre, de los Principios de Santa Clara. Como recordó Veridiana Alimonti, analista de políticas públicas para América Latina de Eletronic Frontiers Foundation (EFF), durante el panel, los principios establecen marcos importantes para garantizar la transparencia del debido proceso.

Consejos de monitoreo

Otro debate central sobre los límites que deben establecerse a las plataformas digitales en términos de moderación de contenido es a quién corresponde monitorear las empresas y señalar necesarias correcciones de rumbo en su operación. Esta cuestión también fue objeto de dos sesiones realizadas en RightsCon Online, promovidas por AccessNow, de las cuales participó Intervozes. El objetivo de los dos encuentros fue identificar qué tipo de mecanismos de supervisión sobre regulación de contenido por las plataformas existen en diferentes regiones del planeta, sus límites, sus ventajas y resultados, y abordajes basados en la promoción de los derechos humanos ante los desafíos planteados.

Un primer aspecto de la charla fue la diferenciación de iniciativas de autorregulación – como el Oversight Board, instituido por Facebook – y mecanismos de regulación gubernamentales o públicos sobre la actuación de las plataformas, como los discutidos en el documento elaborado por Intervozes y colaboradores. Mientras una gran parte de lo que surgió en este sector en los últimos años fue fruto de presión de la sociedad civil sobre las empresas, hay una percepción general de las significativas limitaciones de lo que las plataformas pueden implantar por cuenta propia. Citando una vez más el ejemplo de Facebook, para que se tenga una idea, mientras la red social soporta alrededor de 100 idiomas, los llamados “estándares de la comunidad” están disponibles en solamente 41 lenguas. Es decir, millones de usuarios de la red en el mundo siquiera saben que hay directrices internas para el uso y funcionamiento de la plataforma.

En sus últimos días de mandato frente a la relatoría de las Naciones Unidas para la libertad de expresión y opinión, David Kaye también abogó para que Tik Tok adopte un mecanismo de autorregulación para supervisar el contenido en la red. Es un hecho, sin embargo, que hasta el momento tales mecanismos internos carecen de transparencia y consistencia en la aplicación de los propios estándares de la comunidad y, sobre todo, en la garantía del debido proceso en casos cuestionados por los usuarios. En un escenario de falta de transparencia, los abusos en la moderación pueden ser excesivos.

Para enfrentar tales limitaciones, países, a ejemplo de una parte expresiva de Europa, vienen creando espacios o incluso órganos públicos de supervisión de las plataformas. En Reino Unido, por mucho tiempo, Ofcom – órgano regulador responsable por la radiodifusión y por las telecomunicaciones en el país – evitó adoptar esta agenda, pero de a poco viene asumiendo este papel. Lejos de presentar incompatibilidad con las iniciativas de autorregulación, tales consejos de supervisión públicos han sido espacios para adopción, en Europa, de mecanismos co-regulatorios, elaborado en conjunto con las empresas. La idea no es decir qué deben hacer las plataformas respecto a la moderación de contenidos, sino revisar los datos e informaciones sobre qué vienen haciendo en sus informes de transparencia y analizar si su práctica es compatible con los estándares internacionales de derechos humanos.

La opción por consejos públicos (y no gubernamentales) u órganos de co-regulación también fue señalada en los debates en RightsCon como un camino interesante cuando se considera la complejidad de llevar a la justicia cada acción de las plataformas que venga a cuestionarse. En Alemania, por ejemplo, hay muchas decisiones de la Corte Suprema que ordenan que las redes sociales suban de nuevo al aire contenidos removidos indebidamente, de manera que se garantice la libertad de expresión de los/as usuarios/as. Sin embargo, un abordaje más sistémico del debido proceso viene mostrándose más y más necesario. Un regulador independiente, supervisado por el propio poder judicial, podría adoptar este abordaje. Es decir, los poderes del órgano regulador también serían limitados y su actuación tendría un enfoque más volcado a la supervisión de procesos que a analizar los contenidos. 

La salida, sin embargo, también es controvertida, principalmente cuando se considera la realidad de países autoritarios o de democracias de baja intensidad, como también señalaron el relator de la OEA para la libertad de expresión y el representante de UNESCO anteriormente. En la evaluación de expertos de Medio Oriente y norte de África presentes en RightsCon, en muchas naciones puede ser impensable recurrir al poder público ante acciones de las plataformas, ya que gran parte de las violaciones de derechos – incluso del ejercicio de la libertad de expresión – viene de los gobiernos. 

En algunas regiones, se cree, sería imposible garantizar la real independencia de estos órganos, sobre todo para diferenciar entre contenidos ilegales y legales. Recientemente, cinco mujeres jóvenes fueron condenadas a cinco años de prisión en Egipto por violar “valores de la familia” en videos de Tik Tok. El mismo alerta vale para países considerados históricamente democráticos, pero que están pasando por cambios significativos recientes en materia de libertad de expresión, como los Estados Unidos.

Por eso se hace necesario reforzar la importancia de que la sociedad civil siga, en cualquier lugar del mundo, presionando las plataformas por estándares y principios democráticos y transparentes de moderación de contenido, que incluso puedan ser reivindicados en momentos en que las empresas sean obligadas a enfrentar la presión de gobiernos autoritarios. El debate de la co-regulación también necesita profundización.

Proyecto de ley sobre fake news en Brasil

Finalmente, vale subrayar que Intervozes participó de una reunión cerrada durante RightsCon Online, organizada por la Coalición Derechos en la Red y por AccessNow, para debatir los riesgos a derechos fundamentales presentes en el proyecto de ley de enfrentamiento a la desinformación, en tramitación actualmente en el Congreso Nacional brasileño. La reunión contó con la presencia de más de 50 especialistas en el tema de diferentes regiones. Entre ellos, el relator especial de la OEA para la libertad de expresión, Edison Lanza; el relator especial de las Naciones Unidas para el derecho a la privacidad, Joseph Cannataci; y cinco parlamentares brasileños directamente involucrados en la discusión del proyecto. 

El encuentro buscó facilitar la interlocución de organizaciones internacionales de la sociedad civil – entre ellas, APC – y de organismos multilaterales con los diputados y senadores brasileños, llamando la atención sobre todo para las medidas que pueden impactar significativamente el ejercicio de la libertad de expresión y la privacidad de los/as usuarios/as de las redes sociales y servicios de mensajería privada en Brasil. Como resultado de la reunión, será elaborado un documento de síntesis de los debates.

 

Imagen por TT Marketing, usada bajo licencia Creative Commons.

APC-wide activities: 
« Go back