A decisão impõe às big techs a responsabilidade de atuar preventivamente na moderação de conteúdos, em especial nos casos classificados como de “grave ilegalidade”.
Na conclusão do julgamento que definiu novas regras para a atuação das redes sociais no Brasil, o Supremo Tribunal Federal (STF) determinou que plataformas digitais devem remover publicações com conteúdo criminoso grave de forma imediata, sem necessidade de ordem judicial ou notificação ao autor da postagem.
A decisão impõe às big techs a responsabilidade de atuar preventivamente na moderação de conteúdos, em especial nos casos classificados como de “grave ilegalidade”. O STF também deixou claro que a responsabilização só será aplicada se for comprovada falha sistêmica, ou seja, não basta a presença de uma publicação isolada — é preciso haver omissão continuada da plataforma.
Conteúdos que devem ser removidos de forma imediata:
Ações e discursos antidemocráticos previstos no Código Penal;
Terrorismo e atos preparatórios de terrorismo;
Indução, instigação ou auxílio ao suicídio ou automutilação;
Incitação à discriminação por raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero;
Conteúdos homofóbicos e transfóbicos;
Crimes contra a mulher motivados por gênero;
Pornografia infantil e crimes sexuais contra vulneráveis;
Crimes graves contra crianças e adolescentes;
Tráfico de pessoas.
Outro ponto importante da decisão é a exigência de que as plataformas tenham sede ou representação legal no Brasil, com plenos poderes para atuar em nome das empresas em processos administrativos e judiciais. Essa figura deverá fornecer às autoridades todas as informações necessárias sobre moderação de conteúdo, publicidade e impulsionamento, além de prestar esclarecimentos sobre o funcionamento das plataformas.