A Coimisiún na Meán, o órgão regulador de mídia da Irlanda, novamente direcionou seu foco para a gigante das redes sociais Meta, conhecida principalmente pelo Facebook, em uma decisão recente que destaca a responsabilidade de plataformas digitais na remoção de conteúdo terrorista. Na última segunda-feira, o órgão anunciou que a Meta deverá implementar medidas específicas para evitar que suas ferramentas sejam utilizadas na divulgação desse tipo de conteúdo, além de relatar as ações adotadas ao regulador. Este movimento reflete a crescente preocupação com a eficácia das redes sociais no combate ao extremismo online e à radicalização.
A decisão da Coimisiún na Meán não é isolada, uma vez que em novembro do ano passado já havia sido emitida uma determinação similar contra a conta do Instagram, também pertencente à Meta, assim como ações relacionadas às redes sociais TikTok e X. A capacidade da Irlanda de influenciar a regulação de empresas de tecnologia globais se deve ao fato de muitas dessas empresas optarem por estabelecer sua sede regional no país, o que coloca o regulador em uma posição de destaque no cumprimento das normas digitais.
Essa nova decisão está embasada em um regulamento pan-Europeu sobre a remoção de conteúdo terrorista, que foi aprovado pelos legisladores da União Europeia em 2021. De acordo com esta legislação, prestadores de serviços de hospedagem, como as plataformas de redes sociais, são obrigados a excluir conteúdo terrorista em até uma hora após seu reporte. As penalidades por não cumprimento dessas exigências podem chegar a 4% do faturamento global anual, um impacto financeiro significativo para empresas como Meta.
Em um comunicado à imprensa, a Coimisiún na Meán destacou que, de acordo com o Regulamento sobre Conteúdo Terrorista Online, prestadores de serviços de hospedagem que receberem dois ou mais pedidos de remoção final de autoridades competentes da UE nos últimos doze meses podem ser considerados expostos a conteúdo terrorista. A decisão contra a Meta foi tomada após a notificação de dois ou mais pedidos de remoção final relativos a este provedor e após a interação do regulador com a plataforma.
Embora a decisão tenha sido clara em relação às exigências, não ficou evidente qual tipo de conteúdo terrorista foi encontrado na plataforma do Facebook e reportado ao regulador irlandês. A busca por mais detalhes nesse sentido foi realizada, e a Meta também foi contatada para oferecer um posicionamento em relação à decisão da Coimisiún na Meán.
Essa situação destaca um cenário complexo onde as redes sociais, como plataformas chaves de comunicação e interação, enfrentam crescente pressão para filtrar e combater a disseminação de conteúdo nocivo. De acordo com dados do European Commission, em 2020 as denúncias de conteúdo terrorista em plataformas digitais aumentaram significativamente, levando à implementação de normas mais rigorosas a fim de proteger os usuários e reduzir o potencial de radicalização.
A importância da rápida remoção de conteúdo perigoso é crucial não apenas para proteger a sociedade, mas também para assegurar que as plataformas sociais cumpram sua responsabilidade moral e legal em relação aos seus usuários. O aumento da vigilância sobre empresas como a Meta representa um passo adiante na luta contra o ódio online e a radicalização, e a pressão sobre essas plataformas deve continuar a crescer à medida que a tecnologia avança e as táticas de extremismo se tornam mais sofisticadas.
Concluindo, a decisão do regulador irlandês é um forte lembrete da vigilância que as plataformas digitais devem manter em relação ao conteúdo que seus usuários veiculam. A sociedade está cada vez mais ciente do potencial destrutivo da disseminação de mensagens extremistas, e espera-se que as autoridades atuem de forma diligente nesse cenário. Agora, resta saber como a Meta irá responder a essas exigências e que medidas efetivas serão implementadas para garantir que sua plataforma não seja utilizada para fins tão prejudiciais.