Por una mejor regulación de internet en América Latina

Por Florencia Roveri de Nodo TAU Publicado en APCNoticias     Rosario,

Clase abierta sobre gobernanza de internet. Daniela Schnidrig (CELE) y Carolina Aguerre (Asociación Latinoamericana y Caribeña de Dominios de Nivel Superior de Código de País)Clase abierta sobre gobernanza de internet. Daniela Schnidrig (CELE) y Carolina Aguerre (Asociación Latinoamericana y Caribeña de Dominios de Nivel Superior de Código de País)¿Qué es internet? La amplitud de la respuesta da cuenta de la complejidad del concepto. Una tecnología, un medio de comunicación, un espacio, un territorio. Las normas que regulan esta tecnología están en directa relación con el modo en que internet fue creado, con cómo fue creciendo en estos años, y con variables económicas, políticas y culturales que lo atraviesan.

El Centro de Estudios en Libertad de Expresión y Acceso a la Información (CELE), una institución con sede en la Universidad de Palermo de Buenos Aires y dirigido por Eduardo Bertoni – actualmente un referente en el análisis de internet y sus atravesamientos políticos y legales específicamente – tituló a este taller “Por una mejor regulación de internet en América Latina”. En esta segunda edición del taller participaron integrantes de organizaciones sociales y académicas, asesores legislativos, abogados/as, docentes de diferentes países de Latinoamérica y de distintas provincias del país, que trabajan desde muy diversas ángulos en campos que cruzan las tecnologías y los derechos humanos.

El taller, que se extendió entre el 21 y el 23 de octubre, se inició con una charla abierta sobre gobernanza de internet y siguió con talleres temáticos que recorrieron temas como la neutralidad de la red, la responsabilidad de los intermediarios, la seguridad en internet, los delitos informáticos y el derecho al olvido y derechos de autor. Recorreremos en esta nota las ideas principales y debates abiertos en cada uno de los talleres que integraron la propuesta del taller.

Gobernanza de internet

El taller se inició con una clase abierta sobre “Gobernanza de internet”, a cargo de Carlos Cortes Castillo, investigador del CELE y autor del trabajo La gobernanza de internet: la trampa de las formas con comentarios de Carolina Aguerre, de la Universidad de San Andrés y de LACTLD, organización de dominios de alto nivel para Latinoamérica y el Caribe. Juntos recorrieron los modos en que se fue consolidando la actual configuración de internet. También describieron la institucionalidad actual de internet en ámbitos como el Foro de gobernanza de internet y NetMundial.

“La configuración de un sistema es política por otros medios”. La frase citada por Cortés es de Bruno Latour. “Para entender cómo se gestiona una tecnología, antes debemos saber cómo funciona esa tecnología. Internet es una red abierta, descentralizada y distribuida que fue creada para conectar computadoras y no para hacer negocios”, destacó Cortés. “Lo distribuido tiene que ver con que no hay nodos que predominen sobre otros, y esto tiene consecuencias políticas”, sumó Carolina Aguerre.

En referencia a la arquitectura, ambos destacaron los principios estándares de internet: en primer lugar que es una red end to end, donde la red es tonta y la inteligencia está distribuida en los extremos; en segundo lugar, la conmutación de paquetes, es decir, en internet los datos son transportados empaquetados, no sueltos, y estos paquetes tienen siete niveles de acceso a la información.

Sin embargo la red de los 90, que los usuarios navegaban principalmente para acceder a sus correos electrónicos y buscar información ya no es la actual. La red actual tiende a una concentración y descentralización. En el 2009 el 50% del tráfico estaba a cargo de 150 intermediarios. En 2013 son sólo 35 empresas las que trafican ese mismo 50%. A la vez aparece un creciente interés de los gobiernos por controlar los contenidos que por allí circulan.

Un tema que destacaron fue el de los recursos críticos, como las IP o los DNS. “Actualmente se está implementando el IPV6, con números más largos que permiten identificar protocolos y estándares utilizados, como el FTP, el mail o la web. Por otro lado existen los DNS, un principio de sistematización de la ubicación más amigable para las personas, que distingue los códigos por país y los códigos genéricos como el .com, .edu, .gov, .net. “En los años 96 y 97 el otorgamiento de DNS fue delegado por países. Desde entonces los CCTDL, los códigos de país de dominio superior, están en manos de actores nacionales, generalmente entes estatales, pero a veces quedan en manos de corporaciones” resaltó Aguerre.

Como hitos institucionales, recordaron que en 1998 se creó ICANN (Internet Corporation for Assigned Names and Numbers), organismo multisectorial, organizado en base a comunidades de asesores y unidades de soporte sobre la asignación de DNS, tarea que hasta el momento desarrollaban las universidades. Otro ámbito relevante es el IETF (Internet Engineering Task Force), grupo de trabajo de ingeniería de internet. “Es abierto y accesible, tiene una labor técnica en la definición de los protocolos. Es un espacio atravesado por la lógicos del consenso, lo cual es una buena y mala noticia a la vez, ya que la apertura es valiosa pero los cambios son más costosos de implementar”. Aguerre invitó a revisar la escasa participación de ingenieros latinoamericanos en el IETF en este espacio y la importancia que tendría para la región un mayor involucramiento. “Los avances a veces se dan por respuestas técnicas, pero las decisiones las debe tener una comunidad local que discuta el tema y en LAC eso es más bien una excepción que la regla”.

En cuanto al concepto de “gobernanza” fue definida por Cortés como la gestión y el control de una actividad en que participan múltiples actores públicos y privados, con intereses contrapuestos”. Se hizo mención a cierto debate en relación al uso del término gobernanza, del inglés “governance”, o la utilización del término gobierno, más frecuente en estas tierras pero utilizada en referencia a lo estatal. Para Carolina “la gobernanza es la toma de decisión, las reglas y mecanismos más o menos formales que denotan resultados a partir de procesos”.

Para ilustrarlo se mencionó el caso de NetMundial. “Resultó de allí un documento que hoy es usado para hacer políticas” señaló Aguerre y destacó la importancia de la participación allí de la sociedad civil, lo cual movilizó a las empresas a bloquear las acciones que afectaban sus intereses. En el mismo sentido se mencionaron los actuales debates en la UIT (Unión Internacional de Telecomunicaciones) sobre cómo cambiar el trabajo y la importancia de involucrarse en los debates. “No hay que quedar atrapados en la idea de que si no voy no puedo incidir. Es importante participar”.

Desde el público señalaron la importancia de hacer de este saber un conocimiento institucional extendido. “Tal vez debería haber en las escuelas una educación cívica de internet, y así ver qué tipo de ciudadano necesitamos que pueda hacer algo con esto. Creo que debemos entender que los próximos usuarios de internet deben tener otro nivel de participación y cuestionamiento hacia la recepción de la tableta o los contenidos que circulan”.

Neutralidad de internet

El primer módulo, luego del panel de apertura abordó la neutralidad de internet, y estuvo a cargo de Claudio Ruiz, de la organización chilena y miembro de APC Derechos Digitales. Ruiz destacó que internet fue pensada como una red de comunicación abierta que supone la existencia de protocolos comunes, en línea con la arquitectura de internet, caracterizada como mencionamos antes por la conmutación de paquetes de datos y su configuración de red de extremos. El concepto de neutralidad de la red está asociado con la no discriminación de emisor, contenido y destinatario. Los protocolos son las reglas y normas que facilitan la comunicación y el transporte de comunicación, y se clasifican por capas: la capa de aplicaciones, como DNS, FtP, HTP ó POP y SMTP, que son de correo, XMPP de chat; la capa de transporte, como TCP, UDP, SCTP, la capa de internet, IP, IPV4, IPV6, y la capa de links, como PPP, MAC, L2TP.

Señaló Ruiz que la neutralidad es un concepto difícil de definir: puede entenderse como que el tráfico debe ser tratado de la misma forma sin importar el origen. Pero también como la garantía de acceso a cualquier sitio, sin discriminación e independiente del contenido, protocolo o plataforma.

Los países latinoamericanos se constituyeron como sociedades de controles desde los años 40 y 50. Al respecto Ruiz mencionó que el apetito por el control en internet no tiene que ver sólo con cuestiones técnicas, sino es una pelea profundamente política, a la que se suma el control que puedan querer ejercer los gobiernos. “Hay un elefante en la mesa y los que tiran de la cuerda son los privados, son las empresas, los dueños de la infraestructura”, señaló Ruiz. En este sentido mencionó el caso de Wikipedia Zero, proyecto a través del cual la Fundación Wikimedia ofrece acceso gratuito.

Ruiz destacó que Chile es el primer país en tener una ley de neutralidad de la red. “La neutralidad de internet como norma jurídica es importante porque del principio se decanta el carácter abierto de la red y esto ha permitido el desarrollo de nuevos productos, servicios y modelos de negocios”. Ruiz también mencionó los argumentos anti neutralidad que se escuchan. Entre ellos que el igual tratamiento obstruye los servicios diferenciados, que se afecta la norma de desarrollo de negocios y que pone en riesgo la seguridad y estabilidad de la red. Mencionó además que “la ley indica que no se podrá interferir en la red “arbitrariamente”, lo que cual supone que si hay argumentos, si se puede.

Para concluir destacó las transformaciones de poder implícitas en estos cambios y la importancia de la posibilidad de usuarios y usuarias de incidir.

Responsabilidad de intermediarios

Eleonora Rabinovich de la Asociación por los Derechos Civiles, profundizó en el tema de responsabilidad de intermediarios o PSI (proveedores de servicios de internet), los actores que permiten el acceso a los contenidos. Pueden ser proveedores de acceso, de alojamiento, de servicios en línea o buscadores.

“Son importantes y relevantes, pero también necesarios para ejercer desde el punto de vista jurídico el acceso a libertad de expresión” señaló Rabinovich. “En ocasiones se utiliza el concepto de gatekeepers, porque son actores privados que tienen esta potestad de facto de control del curso de las comunicaciones. De allí la importancia que reviste el marco de regulación de estos actores. En el caso de los buscadores por ejemplo, ¿qué pasa si usan algoritmos que excluyen determinadas URL? ¿O si los gobiernos les imponen normas? Ellos pueden favorecer o impedir el acceso a determinadas comunicaciones”.

El tema es qué sucede ante un contenido que viola alguna ley o es ilícito. ¿Debe ser el PSI responsable por el contenido de un usuario? ¿Por qué culpar al intermediario y no a los productores de contenidos? “Por las características de internet. Porque son pocos intermediarios y muchos usuarios que, además, son financieramente más débiles”.

En cuanto a la atribución de responsabilidad, la pregunta es ¿cuál es el esquema de atribución de responsabilidad civil en relación a los contenidos que circulan por internet? Existen esquemas de atribución de responsabilidad objetivos y subjetivos. La responsabilidad objetiva se produce con independencia de toda culpa por parte del sujeto responsable. Es decir, incluso si el sujeto hace algo para evitar el daño, éste se produce. En ese caso hay responsabilidad objetiva. La responsabilidad subjetiva se da cuando hay dolo, culpa, impericia, negligencia. Por ejemplo, una persona sabía que por su sitio circulaba contenido ilícito pero no hizo nada para impedirlo. Al respecto la Relatoría de la Comisión Interamericana de Derechos Humanos (CIDH) señaló que “un esquema de responsabilidad objetiva en el ámbito de la comunicación electrónica o digital es incompatible con estándares mínimos en materia de libertad de expresión”.

Es importante definir entonces cuáles contenidos son violatorios y de qué leyes y definir cuáles son las exigencias para estos actores respecto de su responsabilidad. Para ello se establecen esquemas de inmunidad que ofrecen un puerto seguro a los intermediarios. Existen dos modelos de esquemas de inmunidad: condicionada o absoluta. La legislación de Estados Unidos toma el esquema de inmunidad absoluta y define que los buscadores no son publicadores de contenidos (publishers), por ende no son responsables por los contenidos que por allí circulan, excepto para los derechos de autor que se rigen por Digital Millenium Copyright Act (DMCA).

El esquema de inmunidad condicionada ofrece procedimientos que si los PSI siguen los eximen de esa responsabilidad. El tema es que a veces en su afán por evitar procesos judiciales, los PSI acatan rápidamente, bajan o desindexan contenidos con celeridad y habría que evaluar si en esos casos no se afectan otros derechos como la libertad de expresión o acceso a la información.

Existen varias modalidades de inmunidad condicionada. La primera es “notificación y retiro privado”, por el cual un usuario notifica al PSI y éste retira el contenido. Es la utilizada en los EEUU para casos de derechos de autor regidos por el DMCA. El usuario puede objetar pero, como fue enfatizado en el taller, los formularios para una gestión, la baja, y la otra, la objeción, son asimétricos. Es mucho más complejo el formulario de la objeción lo cual desalentaría esa acción, dejando la decisión en manos de los intermediarios. Otro modo es el de “notificación y retiro judicial”, que es el que propone el Marco Civil de Brasil y el que recomiendan los relatores en libertad de expresión. Deja favorablemente la decisión en manos de un juez capacitado para resolver. Sin embargo el tema quedaría así en los lentos y saturados territorios de los tribunales. Y por último, el mecanismo de “notificación y notificación” (notice to notice). El perjudicado notifica al intermediario y éste notifica al autor, para que baje o modifique contenido. Este modo evita la privatización de la decisión y permite acción en las puntas del sistema, estas son la del usuario afectado y la del usuario que viola. Es el modelo propuesto en Chile y en Canadá.

Estos esquemas tienden a dejar entonces la regulación de la libertad de expresión ya no en el estado, sino en los actores privados, dejando a internet, como una esfera pública, privadamente regulada.

Rabinovich ilustró con una serie de medidas cautelares en casos de celebridades y modelos en Argentina. “La jurisprudencia no es homogénea pero hay patrones”, destacó. A veces se ordena la remoción del enlace, en otros casos las medidas fueron desproporcionadas, indicando el bloqueo de determinados nombres en las búsquedas. Surge aquí el problema de los homónimos porque las medidas afectaban, por ejemplo en Facebook, a otras personas con el mismo nombre.

Otro caso que se mencionó fue el de DAIA con Google. “El pedido fue bloquear 80 sitios por considerarlos antisemitas. Sin embargo ese caso invita a revisar los límites entre contenidos discriminatorios y afectación de la libertad de expresión. El problema sería el riesgo de la eliminación de determinados discursos políticos y sociales bajo la excusa de contenido discriminatorio, afectando la libertad de expresión”.

En el taller se hizo mención al standard Campillay, nacido en los años 70 para proteger a los periodistas, y que es hoy aplicado para internet. El standard señala que cuando se cita la fuente o se usa el potencial, no hay responsabilidad civil. Este estándar fue llevado a los terrenos de internet, a partir del llamado Siniestro caso Sujarchuk.

Por último Rabinovich destacó que hay distintos tipos de derechos a proteger afectados por delitos como pornografía infantil o violencia contras las mujeres. La valoración debe ser en términos de riesgos y beneficios. En el afán por proteger sus intereses, los PSI se arriesgan a bajar contenidos ilícitos, acentuando el antes mencionado riesgo de la privatización de la decisión.

Privacidad y seguridad en las comunicaciones

El tema de privacidad y seguridad en las comunicaciones fue tratado por Robert Guerra, asesor de Citizen Lab, fundador de Freedom House, y de Privitera, una iniciativa con sede en Canadá que brinda asesoramiento a organizaciones de la sociedad civil.

Guerra identificó 4 fases en la historia de la regulación de internet desde la perspectiva de la seguridad. Llamó a la primera fase “período abierto” desde 1960 al 2000, en que internet era percibida como un espacio donde se podían hacer cosas. En la segunda fase, de 2000 a 2005, de “acceso denegado”, ciertos gobiernos comienzan a filtrar y bloquear sitios. En algunas regiones de medio oriente se registra incluso la desconexión del enlace internacional. Entre 2006 a 2010 se da la fase de “acceso controlado”, donde se implementan mecanismos para controlar accesos, contenidos y conversaciones en línea. Se implementa monitoreo de máquinas o sistemas de validación de la navegación para identificar usuarios. Privacy International muestra cómo las empresas se suman a estas estrategias de control. Por último, de 2010 a la actualidad, rige la fase de “acceso contestado”, caracterizado por la existencia de normas técnicas, legales y de protección. Comienza a haber una pérdida de derechos de los usuarios en manos de estas intromisiones, en cuanto a escucha o registro de información e interferencia en las comunicaciones.

Durante el taller se revisaron mecanismos para preservar las propias comunicaciones y registrar interferencias. Las medidas a tomar deben incluir colaborar entre actores regionales, seguir políticas públicas al respecto y recopilar casos reales. En este sentido, Guerra mencionó la importancia de mejorar la capacidad de coleccionar lo que está pasando y publicarlo de manera abierta. Hay poco noción de los niveles de vulnerabilidad ante filtraciones.

Como medidas propias de seguridad, Guerra sugirió activar las configuraciones de seguridad de las comunicaciones. “Si es de valor tu presencia en línea, toma medidas para proteger tu cuenta y documenta los episodios extraños”. También mencionó tips de cuidado en cuanto a las contraseñas, las configuraciones del navegador, recursos para asegurar teléfonos móviles.

Se trató especialmente la situación de las organizaciones sociales, que aún no cuentan con categorías de análisis para abordar estas cuestiones, pero que deberían asumirlas. Guerra enfatizó la importancia de juntarse con otros, en ámbitos como el de la Electronic Frontier Foundation.

Los derechos de autor

La segunda jornada cerró con la conferencia “Hacia una reconceptualización de los derechos de autor II”, a cargo de Hiram Meléndez Juarbe de la Escuela de Derecho de la Universidad de Puerto Rico. Luego de su presentación, Claudio Ruiz, de Derechos Digitales, Enrique Chaparro, de la Fundación Vía Libre y Mónica Boretto, docente de Derechos editoriales y del autor en la Facultad de Filosofía y Letras de la UBA sumaron comentarios a la presentación de Meléndez Juarbe.

Hiram identificó cuatro paradigmas para concebir a la propiedad intelectual. El primero es un paradigma de mercado, que pretende proteger al autor en el contexto del mercado, concibiendo a la obra como bien de consumo. La propiedad intelectual opera como incentivo antes de la creación, aunque el incentivo puede ser de varios tipos, no solo económico. Luego mencionó un paradigma moral de la propiedad, en relación a que el autor constituye su identidad también a partir de la obra. Este paradigma opera discursivamente, señalando al usuario como potencial pirata inmoral que se apropia de la obra o virtuoso cuando consume, reforzando así a paradigma del mercado.

El tercero es el paradigma de la expresión, que concibe un sujeto expresivo, apela a otro tipo de usuario y otros modos de intercambio. En ello se amparan recursos como el fair use o fair dealing. Por último el paradigma de uso personal, que tiene como eje al individuo y su interacción con el contenido de la obra, a la que puede abrir, editar, explorar y jugar con ella. Este paradigma apela a una autonomía individual porque si bien subraya el carácter situado del sujeto arropado por su contexto cultural, este puede transgredirla y transformarla.

Hiram definió que debe existir un contrapeso entre el primero y segundo, respecto del tercero y cuarto. Estos paradigmas compiten con los principios responsabilidad de intermediarios y la reglamentación de medidas de protección para uso personal, debiéndose evaluar en ambos casos los equilibrios y desequilibrios en cuanto a responsabilidades y sobreprotecciones. “Tampoco la solución es privilegiar todo uso de las obras sin permiso, porque realmente existen piratas” señaló. Hiram destacó la importancia del debate y la incidencia pública sobre el modelo de autor que se quiere en cada país.

En el debate posterior, Ruiz aludió a un problema central en este punto: la distancia existente entre los derechos de autor y los autores, siendo hoy el tema de los derechos un tema de las industrias culturales. “Cuando se elaboran políticas públicas, se debe tener en cuenta la promoción del arte y la cultura y también la constitución de las estructuras de control”. Señaló que si bien la OMPI (Organización Mundial de la Propiedad Intelectual) es el lugar más obvio de discusión, esta está enfocada en el tema del acceso y el tema de derechos de autor se termina liberando en los Acuerdos de Comercio.

El debate giró en torno a si el derecho garantiza eficiencia en este campo, debido a las prácticas culturales vigentes definidas por las potencialidades tecnológicas que deben ser consideradas en los actuales marcos jurídicos, como ilegales. Al respecto Hiram cerró advirtiendo destacó que “si el derecho contradice las propias condiciones de existencias, es decir el modo en que se hace y se consumen las obras, es un problema que lleva al riesgo de que el derecho pase a ser poca cosa”.

Delitos informáticos

La última jornada se inició con un módulo dedicado a los delitos informáticos, a cargo de Daniel Petrone, abogado y autor del libro “Prueba informática” que invitó a revisar los procedimientos jurídicos que tienen a internet como escenario en relación a la Ley 26.388 de delitos informáticos.

“Cuando la ley habla de lugares, no habla solo de muebles’ señaló. En las investigaciones judiciales los espacios de intimidad requieren de permisos especiales, y una computadora personal lo es”. Destacó que el área de Defensa define a internet como un territorio más, como el agua, la tierra y el aire. “No tiene paredes, pero tiene límites” señaló. En ese otro territorio también se producen delitos. Y allí comienzan varios problemas, entre ellos, las jurisdicciones, los niveles de privacidad, la validez de las pruebas. Un documento de Dropbox, ¿dónde está físicamente? Una cuenta de correo en el ámbito laboral, ¿es privada o la empresa tiene derecho a controlarla?

Los dispositivos informáticos son ámbitos contenedores de la actividad privada. Para realizar un allanamiento, requisa y secuestro, los permisos legales deben ser razonables en cuanto a la búsqueda, en tiempo y alcance. En una requisa para acceder a una computadora debe haber un permiso especial que lo permita y justifique. Por ejemplo, si se busca un auto no se puede buscar en una mesita de luz. La búsqueda de pruebas debe estar, además, relacionada a un delito en particular. Petrone dio el ejemplo de una búsqueda de pruebas de un delito como narcotráfico en que se encuentran fotos de pornografía infantil. Para avanzar en esa búsqueda debe haber una orden nueva.

Uno de los ejes fue la comparación con la comunicación telefónica y las diferencias entre diferente tipos de mensajes. Petrone señaló que en las comunicaciones electrónicas hay menos control y conciencia de la información que se está enviando adjunta, debido a los metadatos incluidos en los mensajes que ofrecen cantidad de información que el usuario no conoce. A la vez, existen procedimientos diferentes de acuerdo al tipo de mensaje. Los correos electrónicos, por ejemplo, son considerados intercambios epistolares. En este caso la ley impide su lectura por parte de un operador y deben ser leídos por un juez. No sucede lo mismo con los mensajes de texto. Cuando se investiga un teléfono celular, por ejemplo, tecnología que hoy contiene los dos tipos de información, los procedimientos son diferentes para los dos tipos de mensajes. “En este sentido se evidencia que la ley responde a otra realidad tecnológica” señaló Petrone.

Para concluir Petrone señaló la importancia de que la regulación tenga carácter progresivo y analizó la actual preocupación por la protección de la privacidad en relación a la efectividad de las investigaciones penales.

Derecho al olvido

El encuentro cerró con un taller sobre Derecho al olvido, a cargo nuevamente de Carlos Cortés. Se trata de un tema en proceso de definición, que está impulsando “un debate sobre la necesidad de crear un derecho al olvido que, por una parte, le devuelva al individuo el control sobre su información y, por otra, le permita liberar su pasado de un rígido molde digital” señala Cortés en un documento de su autoría.

Para iniciar la reflexión Cortés mencionó algunos casos emblemáticos sobre este tema: el caso de una joven que murió en un accidente de auto, cuyas fotos circularon y sus padres pedían que dejen de circular un hombre involucrado en un caso de narcotráfico que exigía se rectifique información sobre él y el caso de un chantaje con una foto selfie sexual que condujo al suicidio a la mujer expuesta.

El taller contó con varios momentos de intercambio de ideas para avanzar en el armado conceptual del tema. En primer lugar Cortés invitó a buscar verbos asociados con el derecho al olvido: borrar, ocultar, invisibilizar, eliminar filtrar, actualizar, contextualizar, indexar, desindexar. Y analizar las posibles acciones que derivan de los pedidos del derecho al olvido.

Las tensiones del tema se ocasionan no solo por la existencia de determinada información en internet, sino con que esa información ha comenzado a circular. Cortés señaló que la única manera de evitar los riesgos asociados a la información es que esta no circule. Una vez que supera alguna puerta de entrada, hay puertas traseras por las que puede seguir y el control de esos recorridos se vuelve complejo. Nuevamente aquí aparece la responsabilidad de los intermediarios que son los que visibilizan la información.

Otro ejercicio propuesto consistió en la ponderación del tema, ejercicio que se utiliza en los temas jurídicos. Es decir, valorar, y equiparar los derechos afectados y garantizados por el derecho al olvido. Así surgieron de un lado la libertad de expresión, el derecho a la verdad, la transparencia, la rendición de cuentas, el acceso a la información y la reparación histórica versus la honra, el buen nombre, la privacidad, los derechos de los menores, la seguridad personal, la integridad física.

La solución según los casos podrá ser borrar la información, actualizarla, desindexarla, contextualizarla, anonimizarla. Soluciones todas que tienen ciertos niveles de complejidad técnica, y en ocasiones de afectación de otros derechos. En el caso de los contenidos periodísticos afectaría la libertad de expresión, a no ser que se implementen soluciones como la superposición de capas de información.

En el taller se mencionó el caso Costejas. Un hombre solicita a un periódico que borre un aviso de una subasta de inmueble que se embargaba por falta de pago. El periódico no podía hacerlo porque normativas legales y editoriales no permiten el borrado de esa información. Costejas avanzó sobre Google y en mayo de 2014 el Tribunal de Justicia de la Unión Europea definió que las personas tienen el derecho de solicitar a los buscadores que eliminen algunos resultados que se relacionen con ellas. Google aceptó que se desvincule el nombre de esa noticia. Es decir ese enlace no aparece en el pedido de ese nombre. El enlace sí aparece fuera de Europa ya que la jurisprudencia rige sólo para Europa.

En su informe de transparencia Google informa que recibió en el año 153.800 solicitudes para borrar 500.000 URL. El 50% denegadas y el 50% aceptadas. La medida que se toma es desindexar la URL o desconectarla de nombre. Es decir, en las búsquedas de ese nombre no se asocia esa URL. Estas medidas deben ser evaluadas en su eficacia, ya que son costosas para los intermediarios, especialmente para los más pequeños. La eficacia de las acciones también se relativiza en la medida en que los contenidos se viralizan cada vez más, en las redes sociales, y más recientemente en las comunicaciones vía Whatsapp.

Por último, sobre el cierre se cuestionó cómo el derecho al olvido puede atentar contra la memoria social, el revisionismo histórico y el derecho a la verdad. “El olvido es una palabra muy cargada en la región latinoamericana” coincidieron varios. ¿Qué sucede si un represor impune o absuelto por la justicia – que los hay en el continente -, pide su derecho al olvido?

Como en otros temas tratados en el taller, el análisis llega al punto de evaluar los ámbitos de resolución de los conflictos. ¿Deben llegar las decisiones al ámbito de la justicia? ¿Cuáles son los riesgos de que las decisiones queden en manos de actores privados a través de mecanismo, procedimientos y acuerdos para la aplicación de derechos? En estos casos, ¿cuál es el poder de esos actores privados y en relación a qué intereses accionan? ¿Es conveniente dar mayor poder a los particulares en la aplicación del derecho?

Con estas preguntas cierran estos apuntes que intentan dar cuenta de lo todo lo abordado en tres días intensos de tratamiento de temas relacionados con la compleja y controvertida regulación de internet. Y, al igual, que al finalizar el taller, cerramos con nuevos conocimientos y nuevas preguntas también.



« Volver