As batalhas judiciais travadas por uma professora e uma dona de casa contra o Google e Facebook, respectivamente, podem mudar o rumo da internet no Brasil. Os recursos dessas plataformas estão intimamente ligados e são tratados como um dos julgamentos mais importantes da década no STF sobre a internet. Tanto é que os temas terão repercussão geral, ou seja, o que for decidido pela Corte deverá valer em todas as instâncias inferiores.
O que está em jogo é o MCI (Marco Civil da Internet), que diz que as plataformas não têm o poder de decidir que tipo de conteúdo publicado por seus usuários é lícito ou não. Se o tribunal entender que Google, Facebook e outras podem ser responsabilizadas pelo que se publica ali, abre-se o precedente para elas fazerem uma moderação de conteúdo capaz de ferir outros direitos, como o da liberdade de expressão.
O impacto da decisão é ainda mais amplo, já que o MCI usa o termo “provedor de conteúdo”. Ele diz respeito não só às plataformas, mas a todos os publishers digitais, lojas eletrônicas, fóruns de internet, aplicativos e quaisquer sites que abrigam conteúdo produzido por terceiros.
“O tema da audiência no STF não é apenas o regime de responsabilidade aplicável às chamadas big techs. O artigo 19 do Marco Civil da Internet reforça o papel do Poder Judiciário em dar a última palavra sobre o que é lícito ou ilícito. Importa para um amplo ecossistema de empresas e organizações, grandes e pequenas, que exibem conteúdos gerados por terceiros. Vale para as principais redes sociais, a Wikipedia, o ReclameAqui, o Tripadvisor, o iFood, o Mercado Livre e tantas startups que dependem de um regime jurídico claro para saber se –e em quais condições– poderão ser responsabilizadas pelos atos de seus usuários. Esse elemento pode ser decisivo sobre a viabilidade jurídica de um negócio na rede.”
Carlos Affonso Souza, diretor do ITS Rio (Instituto de Tecnologia e Sociedade) e colunista de Tilt
Em meio ao debate do PL das Fake News — que, apesar do nome, é encarado como a nova arma para regulamentar as redes no Brasil—, o STF (Supremo Tribunal Federal) começará a ouvir nesta terça-feira (28) plataformas, autoridades públicas e especialista do terceiro setor, neste que é o primeiro passo para os julgamentos acontecerem.
O encontro discutirá as ações das duas gigantes da tecnologia, que perderam nas primeiras instâncias, foram responsabilizados pela remoção e criação de conteúdos ofensivos criados por usuários e recorreram ao STF. A audiência antecede ao julgamento, que ainda não tem data para acontecer.
O que é julgado no STF?
Google x Aliandra
O primeiro recurso (tema 533) discute a responsabilidade de plataformas digitais, neste caso o Google, sobre conteúdos criados por usuários em suas plataformas.
O processo tramita desde 2010 na Justiça. O caso surgiu após Aliandra Cleide Vieira, professora do ensino médio da rede pública de Minas Gerais, pedir indenização ao Google Brasil por considerá-lo corresponsável pela criação de uma comunidade no Orkut chamada “Eu odeio a Aliandra” — para quem não lembra, o Orkut pertencia ao Google.
O Google não atendeu ao pedido da professora para retirar a comunidade do ar e acabou processado. Ao condenar a empresa, a Justiça de Minas Gerais entendeu que ela não tinha responsabilidade sobre o conteúdo, mas se tornou sujeita à responsabilização ao ignorar a ofensa sofrida pela professora. Por isso, é obrigada a pagar indenização.
Em sua defesa, o Google alega que há:
* Violação do direito à livre manifestação do pensamento e à vedação à censura;
*Dificuldade de avaliar eventual lesão a direito de usuários e terceiros devido à subjetividade dos conteúdos (sátiras, críticas e deboches). Por isso, é arbitrário a retirada unilateral dos dados pelo próprio Orkut;
* Necessidade de decisão judicial que avalie eventual ofensa.
Facebook x Lourdes
Já o segundo recurso (tema 987) foi ingressado pelo Facebook para garantir o cumprimento do artigo 19 do MCI, que diz que não cabe às plataformas decidir se os conteúdos publicados pelos usuários são lícitos ou não. E que elas só serão responsabilizadas se não tomarem providências (como excluir posts, por exemplo) se houver uma ordem judicial específica.
O caso surgiu após a dona de casa Lourdes Pavioto Corrêa, de São Paulo, ajuizar uma ação contra o Facebook ao descobrir um perfil fake com seu nome e imagem que publicava conteúdos ofensivos.
Lourdes obteve na primeira instância a remoção do perfil, mas foi indenizada. Ela recorreu, e a Turma Recursal de Piracicaba (SP) declarou inconstitucional o artigo 19 do MCI ao entender que o Facebook deveria pagar indenização, pois, mesmo sem decisão judicial sobre o caso, não retirou o perfil ao ter sido avisado pela dona de casa. A empresa não concordou e também recorreu.
No processo, o Facebook defende:
* A constitucionalidade do artigo 19 do Marco Civil da Internet para que plataformas sejam responsabilizadas sobre ofensas somente se não cumprir decisão judicial.
* A não obrigação da plataformas de fiscalizar e excluir conteúdo gerado por terceiros, sem prévia apreciação do Poder Judiciário, pois isso traria risco de censura e restrição à liberdade de manifestação.
Como isso pode mudar a relação com as redes sociais?
As batalhas judiciais travadas por uma professora e uma dona de casa contra o Google e Facebook, respectivamente, podem mudar o rumo da internet no Brasil. Os recursos dessas plataformas estão intimamente ligados e são tratados como um dos julgamentos mais importantes da década no STF sobre a internet. Tanto é que os temas terão repercussão geral, ou seja, o que for decidido pela Corte deverá valer em todas as instâncias inferiores.
O que está em jogo é o MCI (Marco Civil da Internet), que diz que as plataformas não têm o poder de decidir que tipo de conteúdo publicado por seus usuários é lícito ou não. Se o tribunal entender que Google, Facebook e outras podem ser responsabilizadas pelo que se publica ali, abre-se o precedente para elas fazerem uma moderação de conteúdo capaz de ferir outros direitos, como o da liberdade de expressão.
O impacto da decisão é ainda mais amplo, já que o MCI usa o termo “provedor de conteúdo”. Ele diz respeito não só às plataformas, mas a todos os publishers digitais, lojas eletrônicas, fóruns de internet, aplicativos e quaisquer sites que abrigam conteúdo produzido por terceiros.
“O tema da audiência no STF não é apenas o regime de responsabilidade aplicável às chamadas big techs. O artigo 19 do Marco Civil da Internet reforça o papel do Poder Judiciário em dar a última palavra sobre o que é lícito ou ilícito. Importa para um amplo ecossistema de empresas e organizações, grandes e pequenas, que exibem conteúdos gerados por terceiros. Vale para as principais redes sociais, a Wikipedia, o ReclameAqui, o Tripadvisor, o iFood, o Mercado Livre e tantas startups que dependem de um regime jurídico claro para saber se –e em quais condições– poderão ser responsabilizadas pelos atos de seus usuários. Esse elemento pode ser decisivo sobre a viabilidade jurídica de um negócio na rede.”
Carlos Affonso Souza, diretor do ITS Rio (Instituto de Tecnologia e Sociedade) e colunista de Tilt
Em meio ao debate do PL das Fake News — que, apesar do nome, é encarado como a nova arma para regulamentar as redes no Brasil—, o STF (Supremo Tribunal Federal) começará a ouvir nesta terça-feira (28) plataformas, autoridades públicas e especialista do terceiro setor, neste que é o primeiro passo para os julgamentos acontecerem.
O encontro discutirá as ações das duas gigantes da tecnologia, que perderam nas primeiras instâncias, foram responsabilizados pela remoção e criação de conteúdos ofensivos criados por usuários e recorreram ao STF. A audiência antecede ao julgamento, que ainda não tem data para acontecer.
O que é julgado no STF?
Google x Aliandra
O primeiro recurso (tema 533) discute a responsabilidade de plataformas digitais, neste caso o Google, sobre conteúdos criados por usuários em suas plataformas.
O processo tramita desde 2010 na Justiça. O caso surgiu após Aliandra Cleide Vieira, professora do ensino médio da rede pública de Minas Gerais, pedir indenização ao Google Brasil por considerá-lo corresponsável pela criação de uma comunidade no Orkut chamada “Eu odeio a Aliandra” — para quem não lembra, o Orkut pertencia ao Google.
O Google não atendeu ao pedido da professora para retirar a comunidade do ar e acabou processado. Ao condenar a empresa, a Justiça de Minas Gerais entendeu que ela não tinha responsabilidade sobre o conteúdo, mas se tornou sujeita à responsabilização ao ignorar a ofensa sofrida pela professora. Por isso, é obrigada a pagar indenização.
Em sua defesa, o Google alega que há:
* Violação do direito à livre manifestação do pensamento e à vedação à censura;
*Dificuldade de avaliar eventual lesão a direito de usuários e terceiros devido à subjetividade dos conteúdos (sátiras, críticas e deboches). Por isso, é arbitrário a retirada unilateral dos dados pelo próprio Orkut;
* Necessidade de decisão judicial que avalie eventual ofensa.
Facebook x Lourdes
Já o segundo recurso (tema 987) foi ingressado pelo Facebook para garantir o cumprimento do artigo 19 do MCI, que diz que não cabe às plataformas decidir se os conteúdos publicados pelos usuários são lícitos ou não. E que elas só serão responsabilizadas se não tomarem providências (como excluir posts, por exemplo) se houver uma ordem judicial específica.
O caso surgiu após a dona de casa Lourdes Pavioto Corrêa, de São Paulo, ajuizar uma ação contra o Facebook ao descobrir um perfil fake com seu nome e imagem que publicava conteúdos ofensivos.
Lourdes obteve na primeira instância a remoção do perfil, mas foi indenizada. Ela recorreu, e a Turma Recursal de Piracicaba (SP) declarou inconstitucional o artigo 19 do MCI ao entender que o Facebook deveria pagar indenização, pois, mesmo sem decisão judicial sobre o caso, não retirou o perfil ao ter sido avisado pela dona de casa. A empresa não concordou e também recorreu.
No processo, o Facebook defende:
* A constitucionalidade do artigo 19 do Marco Civil da Internet para que plataformas sejam responsabilizadas sobre ofensas somente se não cumprir decisão judicial.
* A não obrigação da plataformas de fiscalizar e excluir conteúdo gerado por terceiros, sem prévia apreciação do Poder Judiciário, pois isso traria risco de censura e restrição à liberdade de manifestação.
Como isso pode mudar a relação com as redes sociais?
De acordo com Marcelo Guedes Nunes, professor especialista em direito e tecnologia da PUC-SP, pode ocorrer o seguinte:
* se o STF negar os recursos das Big Techs, dará a elas e demais plataformas o poder sobre o que é ou não ofensivo contra alguém;
* se concordar com as empresas, abrirá o caminho para “censuras” prévias nas redes sociais. Se as plataformas forem responsáveis pelas publicações, elas podem proibir certos conteúdos para evitar eventuais processos.
“Como ‘conteúdo ofensivo’ é uma expressão aberta, as plataformas podem se transformar em controladoras ou censurar tudo o que é dito nas redes, um poder demasiadamente grande para empresas privadas. Atribuir aos provedores o poder de fiscalizar e remover conteúdos ofensivos é um passo perigoso.”
Marcelo Guedes Nunes, professor de Direito da PUC-SP.
Nunes e Carlos Affonso estarão na audiência no STF. Outras entidades civis defendem o recurso das empresas por entenderem que isso pode afetar a liberdade de expressão:
* Artigo 19: “geraria um grande movimento de censura das publicações de terceiros, a fim de se prevenir dos grandes valores das multas”;
* Abraji (Associação Brasileira de Jornalistas Investigativos): “[negar o recurso do Facebook pode dar] vazão a interesses escusos, preferências subjetivas e exclusão sumária de manifestações”.
* Intervozes: “Cabe ao Judiciário avaliar os direitos em jogo e da liberdade de expressão em relação a outros direitos que possam estar sendo violados. Não cabe à plataforma fazer esse balanço porque ela tende a seguir interesse próprio”, afirmou a advogada do Intervozes, Veridiana Alimonti.
Isso pode afetar o PL das Fake News?
Um dos debates sobre o PL das Fake News que tramita no Congresso trata justamente da responsabilidade das Big Techs sobre os conteúdos.
O relator da matéria na Câmara, o deputado Orlando Silva (PCdoB-SP), considera o artigo 19 do Marco Civil “defasado” e defende a responsabilidade das plataformas sobre os conteúdos.
“Não entendo por que o STF não julga a constitucionalidade desse artigo. Seria uma baliza para o debate. Outro caminho seria a legislação ajustar esse artigo para definir em que circunstâncias essas empresas devem ter responsabilidade. Hoje elas só retiram mediante decisão judicial. Lavam as mãos.”
Orlando Silva
Para o professor Marcelo Nunes, atribuir a responsabilidade pelos conteúdos às plataformas pode incentivar a circulação de fake news.
” Um dos riscos de se atribuir responsabilidade civil pelo conteúdo para as plataformas é paradoxalmente incentivar as pessoas a propagar fake news, já que a as plataformas serão processadas no lugar de quem publicou Alterar esse marco e dar às plataformas o poder de censurar conteúdos tão fluidos pode criar um monstro maior do que a radicalização de alguns grupos isolados.”
Marcelo Nunes, professor de Direito da PUC-SP
Fonte:
https://www.uol.com.br/tilt/noticias/redacao/2023/03/28/audiencia-stf-responsabilidade-google-facebook.htm