Agência Brasil
“Os termos de serviço outorgam um poder discricionário às companhias para a remoção de conteúdos. As empresas as explicam em seus blogs, mas elas são vagas. Há questionamentos também sobre a consistência destas”, destacou o relator.
Contexto
Na avaliação de Natália Neris, pesquisadora sobre o tema e integrante da ONG InternetLab, há que se tomar cuidado no uso de tecnologias para remoção de conteúdo, pois estes sistemas apresentam grandes limitações para compreender contextos. Por conta disso, a identificação pode ser falha, o que pode resultar na exclusão de mensagens que não deveriam ser deletadas.
Ela relata que a entidade recebeu denúncias de conteúdos derrubados por supostas discriminações raciais contra brancos e preconceito de homossexuais contra heterossexuais. “A inteligência artificial não consegue entender que não é possível racismo reverso. O contexto é importante e varia demais de lugar para lugar. Ainda vai gerar muita confusão”, pondera.
Neste mês, pesquisadores de organizações norte-americanas que trabalham com direitos digitais – como Eletronic Frontier Foundation, Center for Democracy & Technology e New America´s Open Technology Institute – realizaram um seminário sobre o tema e publicaram uma série de recomendações, que denominaram “princípios de Santa Clara”.
Entre as diretrizes defendidas pelos especialistas estão:
– Companhias devem publicar regularmente o número de publicações removidas e contas suspensas ou bloqueadas em razão da violação de suas regras;
– Empresas devem notificar os autores da publicação ou da conta sobre os motivos da remoção da mensagem ou suspensão do perfil;
– As plataformas devem disponibilizar opção de recurso para quem teve conteúdos removidos ou contas bloqueadas
Foto internet – pixabay.com