O Google admitiu que seu modelo Gemini AI “errou o alvo” após uma enxurrada de críticas sobre o que muitos consideraram como “preconceito anti-branco”. Vários usuários relataram que o sistema produzia imagens de pessoas de diversas etnias e gêneros, mesmo quando isso era historicamente impreciso. A empresa disse Na quinta-feira, “pausaria” a capacidade de gerar imagens de pessoas até que pudesse lançar uma correção.
Quando solicitado a criar uma imagem de vikings, Gêmeos mostrou exclusivamente negros em trajes vikings tradicionais. Um pedido dos “pais fundadores” devolveu os povos indígenas em trajes coloniais; outro resultado retratou George Washington como negro. Quando solicitado a produzir um imagem de um papa, o sistema mostrava apenas pessoas de etnias diferentes das brancas. Em alguns casos, Gêmeos disse não poderia produzir qualquer imagem de figuras históricas como Abraham Lincoln, Júlio César e Galileu.
Muitos comentaristas de direita abordaram a questão para sugerir que esta é mais uma evidência do preconceito anti-branco da Big Tech, com o empresário Mike Solana escrita que “a IA do Google é um lunático anti-branco”.
Mas a situação destaca principalmente que os sistemas generativos de IA simplesmente não são muito inteligentes.
“Acho que é um software péssimo”, escreveu Gary Marcus, professor emérito de psicologia e ciências neurais na Universidade de Nova York e empresário de IA, na quarta-feira. Subpilha.
O Google lançou seu modelo Gemini AI há dois meses como rival do modelo GPT dominante da OpenAI, que alimenta o ChatGPT. Na semana passada, o Google lançou uma grande atualização com o lançamento limitado do Gemini Pro 1.5, que permitiu aos usuários lidar com grandes quantidades de entrada de áudio, texto e vídeo.
Gemini também criou imagens historicamente erradas, como uma que retrata a tripulação da Apollo 11 que apresentava uma mulher e um homem negro.
Na quarta-feira, o Google admitiu que seu sistema não estava funcionando corretamente.
“Estamos trabalhando para melhorar esse tipo de representação imediatamente”, disse Jack Krawczyk, diretor sênior de gerenciamento de produtos da Gemini Experiences do Google, à WIRED em um comunicado por e-mail. “A geração de imagens de IA do Gemini gera uma ampla gama de pessoas. E isso geralmente é bom porque pessoas ao redor do mundo o usam. Mas está errando o alvo aqui.”
Krawczyk explicou a situação com mais detalhes em uma postagem no X (anteriormente Twitter): “Projetamos nossos recursos de geração de imagens para refletir nossa base global de usuários e levamos a representação e o preconceito a sério. Continuaremos a fazer isso para solicitações abertas (imagens de uma pessoa passeando com um cachorro são universais!) Os contextos históricos têm mais nuances e faremos ajustes para acomodar isso.”
Ele também respondeu diretamente a alguns críticos, fornecendo capturas de tela de suas próprias interações com Gemini, que sugeriu que os erros não eram universais.
Mas os problemas que Gemini produziu foram rapidamente aproveitados por defensores on-line anti-despertar, que alegaram de diversas maneiras que o Google era “racista” ou “infectado com o vírus da mente desperta”.