Pular para o conteúdo

STF Define Responsabilidade das Redes Sociais por Conteúdos de Terceiros

O Supremo Tribunal Federal (STF), no dia 26 de Junho de 2025, decidiu a tese que estabelece como será a aplicação da responsabilidade das redes sociais por postagens realizadas por seus usuários. A decisão, que é um marco na regulação das plataformas digitais, fixa as situações em que as empresas de tecnologia podem ser acionadas na justiça por conta de conteúdos ilícitos de terceiros.

Esta importante decisão foi tomada na décima segunda sessão da Corte sobre o tema, concluindo o julgamento de dois recursos extraordinários que discutiam a possibilidade de punição das plataformas por não removerem conteúdos nocivos ou ilegais. Vamos entender melhor o que foi analisado pelo STF e as implicações dessa decisão.

A Responsabilidade Civil das Plataformas Digitais
A questão central em análise envolvia a responsabilidade civil das plataformas digitais, ou seja, a possibilidade de responsabilizar as empresas pela veiculação de conteúdos ofensivos, prejudiciais ou ilícitos gerados por terceiros. A responsabilidade civil implica que uma pessoa ou empresa seja chamada à Justiça para reparar danos causados, seja por ação ou omissão, incluindo o pagamento de indenizações quando necessário.

No contexto da Internet, a discussão se concentrou no artigo 19 do Marco Civil da Internet, a lei que regula o uso da rede no Brasil, estabelecendo direitos e deveres para usuários e empresas.

O Marco Civil da Internet e o Artigo 19
O Marco Civil da Internet (Lei nº 12.965/2014) é considerado a “Constituição da Internet” no Brasil. Ele estabelece, entre outros pontos, que as plataformas digitais não são responsáveis pelo conteúdo publicado por seus usuários, exceto quando, após uma ordem judicial específica, elas não tomarem providências para remover o conteúdo ilegal ou prejudicial.

A partir da redação do artigo 19, as plataformas poderiam ser responsabilizadas somente depois de uma ordem judicial, e sua responsabilidade só se aplicava caso não cumprissem a determinação judicial. Isso significa que, na prática, as plataformas não tinham obrigação de remover o conteúdo de forma preventiva, sem que houvesse a intervenção judicial.

A Decisão do STF
Por maioria de votos, o STF concluiu que as plataformas digitais devem ser responsabilizadas por conteúdos gerados por seus usuários, sem precisar esperar por uma ordem judicial. O artigo 19 do Marco Civil da Internet foi considerado parcialmente inconstitucional, ou seja, o artigo não foi totalmente invalidado, mas sofreu uma modificação importante.

Responsabilidade em Caso de Crimes Contra a Honra
No caso de crimes contra a honra, como injúria, calúnia e difamação, a ordem judicial ainda será necessária para a remoção do conteúdo. Contudo, o STF manteve a possibilidade de remoção via notificação extrajudicial, ou seja, a vítima ou seu advogado poderá acionar diretamente a plataforma para que o conteúdo seja retirado do ar sem a necessidade de uma decisão judicial.

Outras Situações: Crimes, Atos Ilícitos e Contas Inautênticas
Em casos de crimes, atos ilícitos e contas inautênticas (criadas por robôs, por exemplo), o STF decidiu que será suficiente uma notificação privada para que o conteúdo seja removido. Isso significa que, nessas situações, não será necessário recorrer à Justiça para retirar o conteúdo prejudicial. Basta uma comunicação direta da vítima ou de seu representante para que as plataformas ajam de forma mais célere.

Responsabilidade Ativa das Plataformas
O STF também definiu que as plataformas devem ser responsáveis pela remoção de conteúdos ilícitos quando envolvem:

Anúncios e impulsionamentos pagos

Redes artificiais de distribuição (como chatbots e robôs)

Essas empresas podem ser responsabilizadas mesmo que não tenham sido notificadas diretamente sobre o conteúdo. No entanto, as plataformas poderão se isentar de responsabilidade caso provem que agiram de forma diligente e em tempo razoável para tornar o material indisponível.

Responsabilidade em Casos de Crimes Graves
O STF também determinou que as redes sociais têm responsabilidade imediata na remoção de conteúdos que envolvam crimes graves. Entre os crimes citados, estão:

Atos antidemocráticos (como golpe de Estado e interrupção do processo eleitoral)

Terrorismo e seus atos preparatórios

Instigação ou auxílio ao suicídio ou automutilação

Discriminação racial, religiosa, sexual ou de gênero (homofobia e transfobia)

Crimes contra a mulher e crimes sexuais contra crianças e adolescentes

Tráfico de pessoas

A responsabilidade das plataformas será configurada caso exista uma “falha sistêmica”, ou seja, quando a plataforma não tomar as medidas necessárias para prevenir ou remover esses conteúdos de forma eficaz.

O Regime de Responsabilização para Outros Serviços
Para provedores de e-mail, aplicativos de vídeo ou voz e serviços de mensagens instantâneas, o regime de responsabilização do artigo 19 ainda se aplica. Ou seja, nesses casos, será necessário que haja uma ordem judicial para que o conteúdo seja retirado.

O Regime para Marketplaces
No caso de marketplaces (plataformas de venda de produtos na internet), a responsabilidade civil seguirá as regras do Código de Defesa do Consumidor.

Deveres das Redes Sociais
A decisão do STF também impõe novos deveres às plataformas digitais, que terão que:

Estabelecer regras claras para o recebimento e processamento de notificações.

Elaborar relatórios de transparência sobre as notificações que receberam, anúncios e impulsionamentos.

Garantir canais eletrônicos de atendimento acessíveis para que usuários possam apresentar suas notificações diretamente.

Ter sede e representante legal no Brasil, com capacidade para responder a processos administrativos e judiciais.

Apelo ao Congresso
Por fim, o STF fez um apelo ao Congresso Nacional para que seja elaborada uma nova legislação que corrija as falhas do atual regime e proporcione uma proteção mais eficaz aos direitos fundamentais no ambiente digital.

Conclusão
A decisão do STF sobre a responsabilidade das plataformas digitais por conteúdos de terceiros marca uma mudança significativa na forma como as redes sociais operarão no Brasil. As plataformas terão que adotar um papel mais ativo na remoção de conteúdos ilícitos e prejudiciais, com novas obrigações de transparência e diligência. Essa mudança representa um avanço na regulação da internet, buscando equilibrar a liberdade de expressão com a proteção contra conteúdos nocivos.

Essa decisão terá grande impacto no mercado digital e em como as plataformas lidam com a disseminação de informações e o combate aos crimes virtuais no Brasil.

Por: Dr. Marco Adriano Marchiori

Compartilhe este conteúdo!

Últimas atualizações

Outros
Marco Marchiori

Dia Internacional da Mulher: os principais direitos das mulheres no Brasil, a Lei Maria da Penha e os canais de denúncia

O Dia Internacional da Mulher, celebrado em 8 de março, representa muito mais do que uma data comemorativa. Trata-se de um marco histórico de luta por igualdade, respeito, dignidade e proteção jurídica. Ao longo das últimas décadas, o ordenamento jurídico brasileiro evoluiu significativamente para garantir direitos às mulheres e combater diferentes formas de violência e discriminação.

Read More »
Direito do Trabalho
Marco Marchiori

Superendividamento: o que é, como funciona e quais são os direitos do consumidor

O avanço da mobilidade elétrica no Brasil trouxe uma nova demanda aos condomínios residenciais e comerciais: a instalação de carregadores para veículos elétricos em vagas de garagem. No Estado de São Paulo, essa questão passou a ter regulamentação legal específica, encerrando debates que antes ficavam exclusivamente a cargo das convenções condominiais.

Read More »