VARIEDADES

Gemini: inteligência artificial do Google mancha a imagem da empresa em grande fiasco “woke”

Uma papisa que é uma mulher negra. Um viking com feição
asiática. Soldados nazistas com cara de que nasceram no Mali ou no Vietnã. Essas
foram algumas das imagens produzidas pela nova inteligência artificial (IA) do
Google, a Gemini, quando usuários pediram para ver um papa, vikings e nazistas.
O mesmo aconteceu com comandos para produzir imagens dos fundadores dos Estados
Unidos no século XVIII — o resultado foi um George Washington negro. O produto foi
lançado após testes no dia 9 de fevereiro, substituindo o robô de conversação
Bard, a resposta pouco popular do Google ao ChatGPT, a mais poderosa ferramenta
do tipo até o momento.

Nos dias seguintes, usuários prontamente acusaram a empresa
de tecnologia de ter introduzido viés político de esquerda, especificamente do
tipo progressista identitário (vulgo “woke”), em seu produto — em outras
palavras, uma ideologia que, em vez de buscar tratamento igual, busca
hostilizar pessoas rotuladas como “privilegiadas”, particularmente homens
brancos heterossexuais, em oposição às identidades rotuladas como “oprimidas”.
Os próprios adeptos da ideologia, no entanto, reclamaram dos nazistas negros. A
gigante da tecnologia respondeu ao ultraje interrompendo a capacidade da Gemini
de gerar imagens no dia 22.

O procurador-geral do estado americano de Montana, Austin
Knudsen, mandou uma carta oficial aos responsáveis dizendo que o Google “parece
ter tido a intenção deliberada de veicular informações imprecisas quando essas
imprecisões se encaixavam nas preferências políticas do Google”. O oficial
também disse que a Gemini pode ter violado as leis locais de proteção ao
consumidor, e que, se os programadores foram direcionados a construir uma IA
que discrimina com base em raça ou outras características protegidas, “poderia
incidir em leis de direitos civis, incluindo um ambiente hostil de trabalho”.

A Gazeta do Povo conversou com um cientista de dados brasileiro que está trabalhando no treinamento do robô de conversação Claude, da empresa Anthropic (formada por ex-funcionários da OpenAI, do ChatGPT) a respeito do incidente. Ele pediu anonimato, pois seu contrato é sigiloso. “É extremamente improvável que tenha sido uma coisa orgânica, um resultado da massa de dados que usaram para treinar a Gemini”, explica o programador. “O mais provável é que, acima da rede neural e modelos estatísticos usados para gerar as imagens, exista um código especificamente criado para limitar e filtrar o que pode ser gerado”. Em outras palavras, o viés político observado foi uma decisão consciente do Google. “É normal esse tipo de controle, para evitar a produção de imagens com violência extrema ou pornografia infantil, por exemplo”, acrescenta o especialista.

O problema não se limita à geração de imagens. O jornalista Pedro Burgos mostrou, na rede social X, que a Gemini gerava uma chamada para manifestação “ao estilo de Lula”, mas se recusava a fazer o mesmo “ao estilo de Jair Bolsonaro”. “Não consigo te ajudar com isso, eu sou apenas um modelo de linguagem”, justificava-se o robô ao recusar o serviço. Burgos também exibiu um vídeo da tela mostrando que a Gemini chegava a começar a elaborar uma resposta, mas algo interferia e abortava o processo.

A Gemini também disse que era “difícil dizer” quando um
usuário perguntou se Adolf Hitler (um ditador que matou milhões) ou o
bilionário Elon Musk (um empreendedor nos ramos automotivo, espacial e de
comunicações) tiveram um impacto mais negativo na sociedade, e se recusou a
ajudar usuários a vender peixes de aquário ou a tentar obter emprego em
empresas petrolíferas por “preocupações éticas”.

Quanto à pedofilia, a IA disse, em resposta a um usuário que
perguntou se é errada, que a pergunta exige “nuance” pois “pessoas atraídas por
menores não conseguem controlar por quem se sentem atraídas”. Esta resposta foi
comentada por um porta-voz do Google, que a chamou de “assustadora e
inapropriada”, prometendo que “estamos implementando uma atualização para que a
Gemini não mostre mais essa resposta”. De fato, em pouco tempo o programa
passou a dizer que “sim, a pedofilia é absoluta e inequivocamente errada”.

Musk não deixou barato: “estou feliz que o Google tenha pegado
pesado na geração de imagens de sua IA, pois deixou claro para todos que sua
programação é insana, racista e anticivilização”, disse ele na
rede social da qual é dono.

O histórico de viés político no Google

Acusações de viés político contra o Google não são novas.
Quando Donald Trump ganhou as eleições para presidente dos Estados Unidos em
2016, a empresa fez uma reunião presencial com os funcionários em que grandes
nomes internos manifestaram desolação. O cofundador Sergey Brin disse que
achava “essa eleição profundamente ofensiva”. “Foi muito doloroso”, disse com
voz embargada Ruth Porat, diretora financeira, pedindo que os funcionários se
abraçassem para aliviar a tristeza pela derrota de Hillary Clinton.

Da plateia, um funcionário mandou um recado aos “homens
brancos” para que “entendessem seu privilégio” na sociedade, lessem sobre “a
história da opressão no nosso país” e aproveitassem o feriado de Ação de Graças
para enfrentar “a voz da opressão”. Sendo ele próprio um homem branco, prometeu
que faria isso, terminando aplaudido pelos colegas e pela cúpula da empresa.

Em 2017, o engenheiro de software James Damore foi demitido
do Google por circular internamente um memorando em que fazia uma
discussão de resultados de pesquisa científica de diferenças entre os sexos e
explicava que cotas de 50% para mulheres na engenharia de software seriam
injustas, pois poucas se interessam e se formam na área. O diretor executivo da
empresa, Sundar Pichai, acusou o ex-funcionário de violar o código de conduta
do Google ao proferir “estereótipos nocivos de gênero no nosso ambiente de
trabalho”.

Qual é a IA mais woke que existe?

David Rozado, pesquisador em ciências sociais
computacionais, aplicou um
teste desenvolvido por uma plataforma de avaliações psicológicas que calcula um
“índice woke” para saber qual modelo grande de linguagem (LLM na sigla em
inglês, outro nome para os robôs conversacionais de IA) mais comete o erro da
Gemini. Como há LLMs disponíveis gratuitamente para modificação, há uma grande
diversidade de robôs. Rozado criou de propósito um “GPT de esquerda” (LeftWing
GPT
, modificado do GPT 3.5) — este tirou a maior nota de identitarismo após
cinco testes. Previsivelmente, o “GPT de direita” (RightWing GPT) também
criado por Rozado ficou com o menor índice woke entre 24 LLMs testados.

Mas a Gemini não ficou muito atrás do mais caricato dos
robôs ideológicos: sua nota a posicionou no quarto lugar. Interessantemente, o
robô Qwen, da empresa chinesa Alibaba, foi quase tão woke quanto o robô
caricatamente de esquerda criado por Rozado. O GPT-4, versão paga do ChatGPT da
OpenAI, ficou em 13º lugar, abaixo de robôs da Meta (empresa mãe do Facebook) e
da Microsoft. O Grok, LLM do X de Elon Musk, foi o modelo mais próximo de
respostas aleatórias que Rozado utilizou como um controle para simular o que seria
neutro quanto à ideologia identitária, sem tirar uma nota muito baixa que
indique antagonismo como a nota do “GPT de direita”.

Rozado também tem testado os robôs de conversação com a “bússola política”, que classifica opiniões políticas em um gráfico com eixos “esquerda-direita” e “autoritário-libertário”. Quase nenhum LLM cruza a fronteira entre esquerda e direita, ficando quase todos na esquerda. Mas isso só acontece após o treinamento, pois os modelos-base se concentram mais no centro político. O pesquisador concluiu que é o ajuste fino feito por humanos o que puxa as IAs para preferências políticas específicas. “Como os LLMs começaram a substituir fontes de informação mais tradicionais como os mecanismos de busca ou a Wikipédia, as implicações para os vieses políticos incrustados nos LLMs têm ramificações sociais importantes”, reflete Rozado, em publicação própria.

noticia por : Gazeta do Povo

Facebook
WhatsApp
Email
Print
Visitas: 197 Hoje: 4 Total: 7663801

COMENTÁRIOS

Todos os comentários são de responsabilidade dos seus autores e não representam a opinião deste site.