El Relator Especial para la Promoción y Protección del Derecho a la Libertad de Opinión y Expresión de Naciones Unidas, David Kaye, cuestionó el modelo de autorregulación para las empresas de Internet y aseguró que deberían involucrarse en mecanismos de co- regulación, por ejemplo a través de Consejos como los de periodistas.
En el marco del evento internacional RightsCon 2018, que tiene lugar en Toronto (Canadá), el Relator de la ONU presentó un adelanto del informe temático que publicará en junio sobre el rol de las redes sociales y los buscadores de Internet en la “moderación de contenidos” y su responsabilidad para garantizar la libertad de expresión. “Si vamos a buscar reglas [para la regulación de contenidos en plataformas] primero hay que mirar a los estándares de derechos humanos por default”, aseguró.
Kaye destacó en el informe la importancia del debido proceso (due diligence) y la publicación de reportes de impacto como un “estándar de actividad para las compañías”.
También, sostuvo que las compañías de Internet deben profundizar su trabajo en materia de divulgación y transparencia, explicar cómo adoptan sus reglas, pero además cómo la comunidad se involucra en ellas y empoderar al usuario en este proceso.
Otra idea planteada por Kaye fue la necesidad de que las plataformas “mejoren radicalmente su transparencia”. “Debería haber una suerte de jurisprudencia deberíamos ver más casos”, expresó. Desde su perspectiva esto permitiría entender mejor las reglas que se están aplicando y la flexibilidad con la que se implementan a través de los casos.
A partir de las visitas a las compañías de Silicon Valley así como de aportes de la sociedad civil y los Estados, el Relator advirtió que si bien las empresas están trabajando para definir mejor sus reglas, éstas aún son vagas: “Los términos de servicio otorgan discreción a las compañías para la remoción de contenidos… las empresas tratan de explicarlas en sus blogs pero todavía hay vaguedad en las reglas”, aseguró Kaye. “También hay cuestionamientos sobre consistencia de las reglas”, señaló en referencia a que en distintos lugares se aplican en forma diferente.
Otros de los problemas apuntados tienen que ver con la definición de las reglas sobre desinformación, así como la falta de transparencia en los mecanismos de “flagging” (reporte de contenidos) y las carencias de información sobre la remoción de contenidos.
En este sentido, Kaye manifestó que las compañías están empezando a trabajar sobre el proceso de notificación pero “lo que no trabajan mucho es sobre los remedios”, en relación a los daños ocasionados por sus decisiones de remover contenidos de sus usuarios.
Por último, advirtió sobre las dificultades en torno al proceso de automatización e inteligencia artificial, sobre lo cual focalizará en un informe que será prestado en octubre de este año.