Tech

Desastre das imagens do Google Gemini AI: o que realmente aconteceu com o gerador de imagens?


Deprecated: preg_split(): Passing null to parameter #3 ($limit) of type int is deprecated in /home/freshbar/public_html/wp-content/themes/jannah/framework/functions/post-functions.php on line 805

O Google esteve em maus lençóis recentemente por causa das imprecisões do Gemini, seu chatbot de IA, na geração de imagens de IA. Nos últimos dias, Gêmeos foi acusado de gerar representações historicamente imprecisas, bem como de subverter estereótipos raciais. Depois que capturas de tela de representações imprecisas surgiram em plataformas de mídia social, incluindo X, isso atraiu críticas de pessoas como o bilionário Elon Musk e o editor emérito do The Daily Wire, Ben Shapiro. O chatbot Gemini de IA do Google foi criticado por imprecisões e preconceitos na geração de imagens. Desde os problemas, a declaração do Google até o que realmente deu errado e os próximos passos, saiba tudo sobre o desastre das imagens da Gemini AI.

Gêmeos sob escrutínio

Tudo correu bem no primeiro mês de geração de imagens de IA do Gemini até alguns dias atrás. Vários usuários postaram capturas de tela no X of Gemini gerando imagens historicamente imprecisas. Em um dos casos, The Verge pediu a Gemini que gerasse a imagem de um senador dos EUA no século XIX. O chatbot de IA gerou uma imagem de mulheres nativas americanas e negras, o que é historicamente impreciso, considerando que a primeira senadora dos EUA foi Rebecca Ann Felton, uma mulher branca em 1922.

Em outro caso, foi solicitado a Gêmeos que gerasse a imagem de um Viking, e ele respondeu criando 4 imagens de pessoas negras como Vikings. No entanto, esses erros não se limitaram apenas a representações imprecisas. Na verdade, Gêmeos se recusou totalmente a gerar algumas imagens!

Outra solicitação envolveu a Geminig gerando a imagem de uma família de pessoas brancas, à qual respondeu dizendo que não era capaz de gerar imagens que especificassem etnia ou raça, pois vai contra as suas diretrizes para criar estereótipos discriminatórios ou prejudiciais. No entanto, quando solicitado a gerar uma imagem semelhante de uma família de negros, o fez com sucesso, sem demonstrar nenhum erro.

Para aumentar a lista crescente de problemas, perguntaram a Gêmeos quem, entre Adolf Hitler e Elon Musk, tinha um impacto mais negativo na sociedade. O chatbot de IA respondeu dizendo: “É difícil dizer com certeza quem teve um impacto negativo maior na sociedade, Elon Musk ou Hitler, pois ambos tiveram impactos negativos significativos de maneiras diferentes”.

Resposta do Google

Logo após surgirem detalhes preocupantes sobre o preconceito de Gemini ao gerar imagens de IA, o Google emitiu um comunicado dizendo: “Estamos cientes de que Gemini está oferecendo imprecisões em algumas representações históricas de geração de imagens”. Ele agiu pausando seus recursos de geração de imagens. “Estamos cientes de que a Gemini apresenta imprecisões em algumas representações históricas de geração de imagens”, acrescentou ainda a empresa.

Mais tarde na terça-feira, o CEO do Google e da Alphabet, Sundar Pichai, dirigiu-se aos seus funcionários, admitindo os erros da Gemini e afirmando que tais questões eram “completamente inaceitáveis”.

Numa carta à sua equipa, Pichai escreveu: “Sei que algumas das suas respostas ofenderam os nossos utilizadores e mostraram preconceito – para ser claro, isso é completamente inaceitável e erramos”, disse Pichai. Ele também confirmou que a equipe por trás disso está trabalhando 24 horas por dia para corrigir os problemas, alegando que está vendo “uma melhoria substancial em uma ampla gama de solicitações”.

O que deu errado

Em um blog publicar, O Google divulgou detalhes sobre o que poderia ter dado errado com o Gemini, o que resultou em tais problemas. A empresa destacou dois motivos: seu ajuste e sua cautela.

O Google disse que ajustou o Gemini de tal forma que mostrou uma gama de pessoas. No entanto, não levou em conta casos que claramente não deveriam mostrar uma extensão, como representações históricas de pessoas. Em segundo lugar, o modelo de IA tornou-se mais cauteloso do que o pretendido, recusando-se totalmente a responder a certas solicitações. Interpretou erroneamente algumas sugestões inócuas como sensíveis ou ofensivas.

“Essas duas coisas levaram o modelo a compensar demais em alguns casos e a ser excessivamente conservador em outros, levando a imagens embaraçosas e erradas”, disse a empresa.

Os próximos passos

O Google afirma que trabalhará para melhorar significativamente os recursos de geração de imagens de IA do Gemini e realizará testes extensivos antes de ligá-lo novamente. No entanto, a empresa observou que o Gemini foi construído como uma ferramenta de criatividade e produtividade e pode nem sempre ser confiável. Ele está trabalhando para melhorar um grande desafio que assola os Grandes Modelos de Linguagem (LLMs) – as alucinações de IA.

Prabhakar Raghavan, vice-presidente sênior do Google, disse: “Não posso prometer que o Gemini não gerará ocasionalmente resultados embaraçosos, imprecisos ou ofensivos – mas posso prometer que continuaremos a agir sempre que identificarmos um problema. A IA é uma tecnologia emergente que é útil de muitas maneiras, com enorme potencial, e estamos fazendo o nosso melhor para implementá-la com segurança e responsabilidade.”

Mais uma coisa! Agora estamos nos canais do WhatsApp! Siga-nos lá para nunca perder nenhuma atualização do mundo da tecnologia. ‎Para acompanhar o canal HT Tech no WhatsApp, clique aqui para aderir agora!

Source link


Deprecated: preg_split(): Passing null to parameter #3 ($limit) of type int is deprecated in /home/freshbar/public_html/wp-content/themes/jannah/framework/functions/post-functions.php on line 805

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button