Michael Dziedzic para Unsplash

O que vai mudar nas minhas redes sociais? Mudanças do novo regulamento de serviços digitais.

Começa finalmente a entrar em vigor o Digital Services Act (DSA). Esta nova legislação, que surgiu em Dezembro de 2020 e ganhou luz verde em Julho de 2022, promete transformar a forma como as grandes plataformas digitais, como TikTok, Meta (anteriormente Facebook e Instagram) e X (o novo Twitter), operam no velho continente.

Para nós, utilizadores, é uma mudança significativa. Desde a introdução do RGDP (Regulamentação Geral de Proteção de Dados), que não se assistia a uma legislação tão ambiciosa a nível de direitos digitais. As plataformas online não só serão responsabilizadas, como também poderão enfrentar pesadas multas, levando algumas, como a Thread da Meta, a reconsiderar a sua presença na Europa.

Mas, o que realmente muda com esta legislação?

Imagine o seguinte contexto, para depois traçarmos algumas das principais mudanças que vamos sentir como utilizadores:  

Existe uma plataforma popular de redes sociais onde os utilizadores podem publicar pequenos vídeos e comentários. O utilizador PT33 carrega um vídeo que promove o discurso de ódio contra um determinado grupo étnico. O vídeo ganha rapidamente força e é partilhado por milhares de utilizadores, o que leva a um aumento dos comentários de ódio e a uma maior propagação do sentimento negativo contra essa etnia.

 

1. Maior proteção contra conteúdos ilegais

O DSA obriga as plataformas a serem mais proativas na remoção de conteúdos ilegais, como o discurso de ódio, assim como material de abuso sexual de crianças e propaganda terrorista, entre outros. Esta iniciativa tem como objetivo promover um ambiente digital mais seguro, especialmente para populações vulneráveis como crianças e adultos em risco.

Antes do DSA:

A plataforma poderia depender apenas das denúncias dos utilizadores para tomar conhecimento do conteúdo do discurso de ódio. Existia alguma falta de clareza quanto à rapidez e eficácia com que a plataforma tinha de atuar. Os utilizadores afetados pelo discurso de ódio dispunham de meios limitados para contestar as decisões da plataforma ou procurar reparação.

Após a implementação do DSA:

Medidas proativas: A plataforma é agora obrigada a tomar medidas proativas para detetar, identificar e remover conteúdos de discurso de ódio. Isso pode envolver o uso de algoritmos avançados ou ferramentas de IA para sinalizar possíveis conteúdos de discurso de ódio para verificação.

Ação rápida: Assim que a plataforma tiver conhecimento do conteúdo de discurso de ódio (através das suas próprias medidas ou de denúncias de utilizadores), é obrigada a agir rapidamente para remover ou desativar o acesso a esse conteúdo.

Relatórios de transparência: A plataforma deve publicar relatórios regulares descrevendo as suas ações de moderação de conteúdo, incluindo o número de incidentes de discurso de ódio identificados e a forma como foram processados. 

Opção de recurso: Se o utilizador PT33 considerar que o seu vídeo foi retirado injustamente, tem o direito de contestar a decisão da plataforma. Por outro lado, se um utilizador visado considerar que a plataforma não atuou adequadamente contra o conteúdo sinalizado também pode manifestar a sua preocupação.

Auditorias externas: Se a plataforma for classificada como uma “plataforma muito grande”, poderá estar sujeita a auditorias externas para garantir o cumprimento dos regulamentos do DSA e a adoção de medidas adequadas para combater o discurso de ódio.

Consequências económicas: O não cumprimento dos regulamentos do DSA pode resultar em penalizações significativas, garantindo que as plataformas têm um forte incentivo para levar as suas responsabilidades a sério.


2. Maior transparência na moderação de conteúdos

O DSA exige que as plataformas divulguem as suas políticas de moderação de conteúdos, os critérios de remoção e o processo de recurso. Esta camada adicional de transparência permite aos utilizadores compreenderem melhor o raciocínio subjacente à remoção de conteúdos e permite-lhes contestar decisões que considerem injustas de forma mais eficaz. 

Pegando no exemplo supracitado, em que o utilizador PT33 publicou um vídeo removido por discurso de ódio, as diferenças seriam: 

Antes do DSA:

O utilizador PT33 poderia não ser informado dos motivos específicos que levaram à remoção do seu vídeo. A plataforma podia ter políticas de moderação vagas e difíceis de encontrar. O utilizador PT33 podia ter uma visão limitada dos processos de decisão e dos algoritmos e ferramentas utilizados na moderação de conteúdos. 

Após a implementação do DSA:

Comunicação clara e transparente: Quando a plataforma remove o vídeo de PT33, é obrigada a fornecer-lhe uma explicação clara e pormenorizada dos motivos da remoção, referindo as políticas ou diretrizes específicas que o conteúdo violou. Essas normas têm de ser claras e concretas e estar disponíveis a qualquer utilizador.

Relatórios de transparência: Já referidos. Podem ser consultados pelo utilizador PT33 e qualquer utilizador interessado, dando uma visão geral do número e tipo de ações realizadas, tipos de sistema utilizados (automático, manual ou misto) e resultados dos mecanismos internos e externos de litígios. Para entidades públicas, ou organizações representantes das comunidades visadas, pode ser interessante, por exemplo, compreender as tendências associadas com conteúdos sinalizados como discurso de ódio. 

Impacto do algoritmo: A plataforma passa a disponibilizar informações sobre os principais parâmetros dos algoritmos utilizados na moderação e categorização de conteúdos. Isto significa que um utilizador como o PT33 passa a compreender melhor como os conteúdos são classificados, recomendados ou assinalados.

Opção de recurso: Tal como foi referido, se PT33 não concordar com a decisão da plataforma de remover o seu vídeo, tem direito a recorrer dessa decisão através de um sistema próprio de reclamações. A plataforma deve analisar a sua queixa e dar uma resposta atempada e, se não ficar satisfeito, PT33 pode procurar apoio através de um organismo externo de resolução de litígios.

Sistema de feedback – Os utilizadores têm a oportunidade de dar o seu feedback sobre as decisões de moderação de conteúdos e as políticas da plataforma, assegurando um canal de comunicação bidirecional que prevê uma melhoria contínua das práticas de moderação de conteúdos.

 

3. Maior salvaguarda da privacidade

Para garantir uma maior privacidade dos utilizadores, o DSA obriga as plataformas a implementarem novas medidas, incluindo um consentimento mais explícito para a utilização de dados e um maior controlo dos utilizadores sobre as informações pessoais. Estas salvaguardas visam impedir a utilização indevida de dados para atividades prejudiciais, como a publicidade manipuladora direcionada.

Vamos imaginar que o utilizador PT33 quer promover o seu vídeo, junto de um público específico que ele acredita que vai ser sensível ao seu discurso de ódio, suponhamos, de uma determinada faixa etária e com um determinado passado militar.

Antes do DSA:

O utilizador PT33 poderia utilizar as ferramentas de publicidade da plataforma para visar variáveis demográficas específicas, com base em dados detalhados dos utilizadores. 

Os utilizadores visados pela promoção poderiam não estar totalmente cientes da forma como os seus dados pessoais estavam a ser utilizados para publicidade direcionada.Podia haver pouca transparência sobre os critérios utilizados para recomendações de conteúdo e segmentação a esses utilizadores.

Significa que a permeabilidade e fragilidade de determinados utilizadores podia estar a ser, sem o seu conhecimento, instrumentalizada para a distribuição deste conteúdo.

Após a implementação do DSA:

Menos dados disponíveis: As plataformas são encorajadas a recolher e processar apenas os dados necessários para a prestação dos seus serviços. Isto limita o leque de segmentação disponível para utilizadores como o PT33.

Transparência na segmentação: Se o utilizador PT33 conseguir promover o seu vídeo, os utilizadores que virem o conteúdo promovido devem ser informados de que estão a ver um anúncio. Além disso, devem ser informados sobre a razão pela qual estão a ver este anúncio específico, dando-lhes uma ideia dos critérios utilizados para a segmentação.

Controlo sobre as recomendações: Os utilizadores têm o direito de receber informações transparentes sobre a lógica subjacente às recomendações de conteúdos. Podem também ajustar ou desativar os algoritmos de recomendação, limitando a capacidade de utilizadores como o PT33 de enviar o seu conteúdo a utilizadores desprevenidos. Isso significa que, a partir da sua implementação, pode configurar a sua timeline de forma a apenas ver, por ordem cronológica por exemplo, as publicações dos seus amigos, deixando a ordem de ser decidida por algoritmos mas sim pela hora de publicação. 

Proteção contra a segmentação nociva: O DSA obriga as plataformas a implementarem salvaguardas contra práticas de segmentação nocivas. Se o conteúdo de PT33 for identificado como discurso de ódio, a plataforma restringir-lhe-á ou proibi-lo-á de o promover junto de públicos específicos, especialmente se representar um risco para esses grupos.

Opções de exclusão: Os utilizadores têm o direito de excluir publicidade direcionada. Isto significa que, mesmo que PT33 tente promover o seu vídeo, uma parte significativa dos utilizadores poderá não o ver se optarem por não receber esse tipo de anúncios. Isso também significa, se tiver pessoas próximas mais suscetíveis de entrar em espirais de polarização em relação a certos temas, ou com menos literacia digital, que lhes pode sugerir que desabilitem este tipo de publicidade ou adiram a uma linha do tempo cronológica.  

O DSA representa um marco importante para os direitos digitais na Europa. Com esta nova legislação, as plataformas digitais enfrentam maior responsabilidade na remoção de conteúdo ilegal, garantindo um ambiente online mais seguro. Paralelamente, a transparência na moderação de conteúdo proporciona aos utilizadores uma compreensão clara das políticas e processos que regem as plataformas. Ao proteger a privacidade, o DSA equilibra a segurança digital e a preservação dos dados pessoais dos utilizadores. A melhor forma de garantirmos a sua sustentabilidade é conhecermos a legislação, responsabilizarmos as plataformas pelo seu incumprimento e sermos utilizadores proativos na sua mobilização, contribuindo para um ecossistema digital mais seguro, respeitador e transparente. 

Relacionados

Dicas de beleza para futuros falecidos
Boa Vida
Rafaela Ferraz

Dicas de beleza para futuros falecidos

Há duas fases da vida em que se torna absolutamente essencial ter uma rotina de cuidados de pele: a vida propriamente dita, e depois a morte. Felizmente, a indústria da beleza fatura cerca de 98 mil milhões de dólares por ano nos EUA, a indústria funerária 23 mil milhões, e

Ler »
George Carlin e a Verdade na Comédia
Artes Performativas
Pedro Goulão

George Carlin e a Verdade na Comédia

“Dentro de cada cínico, existe um idealista desiludido” Quando comecei a escrever na Almanaque, o Vasco M. Barreto pediu-me que não escrevesse sobre o estafado tema dos limites do humor. Aceitei, mesmo tendo em conta que isso era um limite ao humor, pelo menos o meu, e que alguns números

Ler »
A queda do Governo e o Império Romano
Em Destaque
André Canhoto Costa

A queda do Governo e o Império Romano

1. Quando o Criador, na sua infinita sabedoria, inspirou ao apóstolo a visão tenebrosa do Apocalipse, nunca imaginou vir a ser superado pelos comentadores políticos portugueses na noite do dia 8 de novembro de 2023. Com efeito, os quatro cavaleiros saídos da abertura do primeiro selo do rolo manuscrito na

Ler »