TECNOLOGIA

Algoritmos sonham com atentados terroristas? Saiba como lei de 1996 protege as big techs

Filipe Siqueira, do R7





Na noite de 13 de novembro de 2015, Paris foi sacudida por uma série de atentados terroristas. Extremistas cometeram ataques suicidas, torturaram reféns e atiraram em vítimas indefesas. Foram três explosões e seis fuzilamentos em massa — o maior deles na casa de espetáculos Le Bataclan, onde quatro atiradores mataram 89 pessoas. Entre as vítimas no teatro estava Nohemi Gonzalez, de 23 anos, nascida na Califórnia.


DOPAMINA DIGITAL: leia aqui a primeira parte desta reportagem especial


No ano seguinte, a família de Nohemi processou o Google em uma Corte dos Estados Unidos e acusou a empresa de fornecer “apoio material” ao Estado Islâmico, responsável pelo ataque, ao recomendar vídeos do grupo com o algoritmo do YouTube. Segundo o processo, as recomendações ajudaram a espalhar a mensagem terrorista e a recrutar novos adeptos, muitos deles sem nenhum contato direto com os extremistas anteriormente.


Um tribunal de primeira instância indeferiu o processo, ao citar a conhecida Seção 230 da Lei de Decência nas Comunicações, de 1996. Esse trecho da legislação dá ampla proteção aos gigantes de internet e garante que eles não serão responsabilizados por publicações de terceiros nas próprias plataformas. Para fundamentar o processo, a família invocou a Lei Antiterrorismo do país, que permite aos cidadãos recuperar danos relacionados a “um ato de terrorismo internacional”.


Um segundo processo — movido por parentes americanos de um jordaniano morto em um massacre terrorista em uma boate em Istambul, em 2017 — fez uma acusação similar ao Twitter. A ação ressaltou que a rede social não fez nada para impedir ou policiar a propagação de conteúdos extremistas, que ajudaram a filiar pessoas para a causa do grupo terrorista.


Os dois casos fizeram a Suprema Corte dos Estados Unidos iniciar uma série de audiências para, possivelmente, rever a cobertura total da Seção 230. Seria a primeira vez que as big techs teriam seus algoritmos de recomendação de conteúdo contestados e julgados. Não é por acaso que o Google afirmou que uma decisão contra a empresa seria um “campo minado de litígios”, por escancarar as portas para centenas de outras ações similares. Uma derrota na Suprema Corte também tornaria os gigantes de tecnologia, pelo menos parcialmente, responsáveis pelo conteúdo que veiculam em suas plataformas.


Esse será o julgamento mais recente das redes sociais. Desde as denúncias feitas por Edward Snowden, em 2013, que revelou que empresas como Microsoft, Google, Yahoo!, Apple e Facebook tinham o status de “parceiros comerciais” do programa de vigilância global PRISM, mantido pela NSA (Agência de Segurança Nacional dos EUA), ficou claro que as redes sociais não eram o ambiente livre e de relações abertas como as corporações que as comandam não cansam de dizer. “Don’t be evil” (“Não seja mau”, em tradução livre) era o primeiro slogan do Google, agora trocado para “Faça a coisa certa”.


O TikTok enfrentou crises próprias e mais recentes. No caso mais grave, de dezembro de 2022, a ByteDance, empresa controladora da rede social, foi acusada de coletar ilegalmente dados de localização de jornalistas para tentar descobrir de onde partiu um possível vazamento de documentos que mostravam a proximidade da empresa com autoridades de segurança de Pequim.


Para se livrar de uma crise potencialmente catastrófica, a ByteDance cooperou com as investigações, anunciou a demissão de quatro funcionários e a reestruturação de todo o departamento de auditoria interna e controle de risco — para impedir que até mesmo funcionários de alto escalão acessem dados sigilosos de usuários.


Ainda mais recentemente, a empresa foi multada em 345 milhões de euros por violar as leis de privacidade relativas ao processamento de dados pessoais de crianças na União Europeia — foi a primeira vez que a empresa foi condenada no continente, por órgãos famosos pelo rigor na proteção de dados na fiscalização de atuação das big techs.


A revelação da participação ativa dessas empresas em venda de dados e pouco controle sobre a privacidade de seus usuários é um tipo de “nova mitologia” das mídias modernas. Em última análise, são versões contemporâneas dos relatos sobre controle e perturbações ao sistema nervoso que apareciam em jornais, em reportagens que apontavam o dedo para livros e telas de cinema.

Algoritmos poderosos fazem parte de máquinas de vigilância capazes de nos entender melhor do que nós mesmos. O objetivo final não é se apoderar do público de forma direta, mas, sim, criar engrenagens de propaganda certeiras e extremamente lucrativas.


“O TikTok, assim como outras mídias sociais, não quer viciar seus usuários. O objetivo é gerar engajamento para vender publicidade e movimentar aquele universo financeiro”, nos lembra a professora Holzbach.


Às vezes, esses mecanismos são subvertidos, como ficou claro em uma segunda onda de escrutínio, iniciada logo após as acusações de interferência nas eleições presidenciais americanas de 2016 — encerrada com a vitória de Donald Trump.

De acordo com relatórios de inteligência dos EUA, agências secretas russas usaram publicidade, perfis e grupos do Facebook, além de ferramentas do Twitter e do YouTube, para “minar a fé do povo americano” no processo democrático e “denegrir” a imagem da candidata Hilary Clinton. No processo, hackers russos invadiram sistemas do Comitê Nacional Democrata e vazaram informações obtidas em quebras de segurança em sites como o DCLeaks.


Em uma das revelações mais bombásticas, descobriu-se que a consultoria de dados britânica Cambridge Analytica — que trabalhou na estratégia digital da campanha de Trump — obteve informações privadas de mais de 87 milhões de eleitores em 2014. Na época, o número representava cerca de um quarto dos potenciais votantes do país.


Para fazer a coleta, a empresa usou um aplicativo que simulava uma pesquisa acadêmica e pagava a usuários para responderem a perguntas, mas a rede social permitia que dados de todos os amigos e contatos conectados a tais pessoas também fossem recolhidos. Milhões tiveram suas informações coletadas sem consentirem ou mesmo terem ciência disso. As informações foram usadas para redirecionamento de campanhas políticas.


Em mensagens de desculpas posteriores, o CEO do Facebook, Mark Zuckerberg, assumiu responsabilidade pessoal pelo vazamento massivo e disse que tal acontecimento era “um erro” e uma clara “quebra de confiança” da empresa. Mas a crise de Zuckerberg não terminaria ali. Em 2021, a ex-engenheira e gerente de produto do Facebook Frances Haugen começou uma série de denúncias, que ficaram conhecidas como “Facebook Files” (Arquivos do Facebook).


“Vi um monte de redes sociais, e o Facebook foi substancialmente pior do que tudo o que eu tinha conhecido antes. O Facebook, repetidamente, mostrou que prefere o lucro à segurança”, disse Frances em uma hoje famosa entrevista dada ao programa 60 Minutes, em outubro de 2021.

Antes de revelar a própria identidade, a denunciante entregou uma série de documentos internos ao The Wall Street Journal, que mostrava que a alta cúpula da empresa sabia que seus algoritmos agravavam problemas de imagem corporal em adolescentes e jovens e propagava desinformação em massa.


Em uma declaração dada a uma comissão do Senado, a ex-funcionária afirmou que a rede social também “enfraquece a democracia” em nome de obter mais engajamento. “Algoritmos continuarão a ser perigosos a não ser que sejam quebrados”, disse Frances.


A grande mudança do Facebook? Mudar de nome e passar a se chamar Meta, no fim de outubro daquele mesmo ano. A corporação revelou que começaria a investir pesado em algo chamado Metaverso, que seria “a próxima evolução de uma longa linha de tecnologias sociais”. Até o primeiro trimestre deste ano, a tal inovação consumiu cerca de US$ 40 bilhões (R$ 200 bilhões) e jamais foi implementada ou realmente usada. Antes de sumir dos memorandos e anúncios de Zuckerberg, o tal Metaverso ainda virou meme e foi um dos responsáveis pelas demissões em massa na empresa.

LEIA AS OUTRAS PARTES DESTA REPORTAGEM:


O que é humano e o que é inteligência artificial? Vídeos tóxicos e fake news seguem sem lei própria


Entenda como a tela do celular nasceu da necessidade de se proteger de mísseis nucleares

noticia por : R7.com

Facebook
WhatsApp
Email
Print
Visitas: 152 Hoje: 6 Total: 7732113

COMENTÁRIOS

Todos os comentários são de responsabilidade dos seus autores e não representam a opinião deste site.