LAURA INTRIERI
SÃO PAULO, SP (FOLHAPRESS) – O Supremo Tribunal Federal (STF) decidiu recentemente ampliar as responsabilidades das plataformas digitais no Brasil, ao declarar parcialmente inconstitucional o artigo 19 do Marco Civil da Internet. Essa norma, válida desde 2014, determinava que as redes sociais só poderiam ser responsabilizadas por conteúdos publicados por usuários se uma ordem judicial de remoção fosse desobedecida.
O julgamento debateu se essa proteção era excessiva, deixando os usuários vulneráveis a conteúdos prejudiciais. Por 8 votos a 3, os ministros entenderam que a regra atual não protege suficientemente direitos fundamentais e a democracia, criando novas obrigações que já entram em vigor, mas só válidas para casos futuros.
Conteúdos graves com remoção obrigatória
O STF elaborou uma lista de conteúdos que as plataformas devem remover proativamente, antes mesmo de uma ordem judicial:
- Ataques à democracia e crimes contra o Estado democrático de Direito
- Terrorismo
- Induzimento ao suicídio
- Discriminação racial, religiosa ou por orientação sexual
- Violência contra mulheres
- Crimes sexuais contra crianças e pornografia infantil
- Tráfico de pessoas
As empresas não serão punidas por publicações isoladas que forem esquecidas, mas podem ser responsabilizadas por “falha sistêmica”, que ocorre quando não adotam medidas adequadas para prevenção e remoção desses conteúdos. A falha sistêmica caracteriza-se pela ausência de atuação responsável, transparente e cautelosa na moderação. As plataformas devem aplicar os mais altos níveis de segurança tecnologicamente possíveis.
Responsabilização por notificação extrajudicial
As plataformas passam a responder por conteúdos ilícitos após notificação extrajudicial, sem necessidade de ordem judicial, exceto para crimes contra a honra. Para calúnia, difamação e injúria, é necessária ordem judicial para responsabilização, embora as plataformas possam remover voluntariamente.
Além disso, contas denunciadas como falsas ou inautênticas deverão ser avaliadas após notificação. Quando uma decisão judicial já identificou conteúdo ofensivo, suas cópias devem ser removidas por todas as plataformas mediante simples notificação, sem nova ordem judicial.
Conteúdos patrocinados
Para posts impulsionados ou anúncios pagos, a responsabilização das plataformas é automática, mesmo sem notificação. O STF entendeu que essas empresas devem verificar o conteúdo antes da veiculação, já que lucram diretamente. Se o conteúdo for ilegal, as plataformas respondem mesmo sem aviso prévio.
As plataformas ficam isentas se comprovarem que agiram rápida e diligentemente para retirar o conteúdo.
Representante legal obrigatório
Todas as plataformas que operam no Brasil devem ter sede e representante legal no país para responder à justiça, cumprir ordens judiciais e arcar com multas, facilitando a responsabilização, especialmente de empresas estrangeiras.
Autorregulação
As plataformas também serão obrigadas a criar sistemas próprios para canais de denúncia, análise de notificações e relatórios anuais transparentes sobre remoções.
Aplicação
Serviços de email, videoconferência e mensagens privadas, como o WhatsApp, continuam protegidos pelo sigilo das comunicações e só respondem a ordens judiciais. Marketplaces seguem as regras do Código de Defesa do Consumidor.
As novas regras valem imediatamente, mas só para fatos que ocorrerem daqui pra frente. Processos em andamento ou com decisões já definidas não serão modificados.
O STF fez um convite ao Congresso para elaborar uma legislação mais detalhada e específica sobre essa temática.