Depois do escândalo, Google explica o que correu mal com o Gemini...
Um dos grandes problemas dos modelos de Inteligência Artificial (IA) é o facto de ocorrerem alguns imprevistos no seu treino. Recentemente, vimos o Gemini, modelo de IA da Google, ter alguns comportamentos raciais. Mas depois de todo o escândalo que ocorreu, a Google veio explicar o que correu mal...
Na sequência da controvérsia, a Google pediu desculpa numa publicação no X e, posteriormente, deu uma explicação mais detalhada dos erros do Gemini no seu blogue.
As explicações da Google sobre a inclusão excessiva do Gemini
Prabhakar Raghavan, vice-presidente sénior da Google para as áreas de pesquisa, Assistente, anúncios, Geo (Mapas) e produtos relacionados, começa o post reconhecendo o erro e pedindo desculpa. A Google diz que "não quer que o Gemini se recuse a criar imagens de qualquer grupo em particular" ou "crie imagens históricas ou de outra forma imprecisas", 💥️o que na prática podem ser dois conceitos antagónicos.
Assim, explica que se introduzir um pedido ao Gemini💥️ solicitando imagens de um tipo específico de pessoa, como "um professor negro numa sala de aula ou um veterinário branco com um cão ou pessoas num determinado contexto cultural ou histórico, deverá obter uma resposta que reflita exatamente o que está a pedir".
A empresa de Mountain View afirma ter identificado duas questões como responsáveis pelo sucedido. Mais concretamente:
Como resultado, a ferramenta de geração de imagens do Gemini, que funciona com o Image 2, "compensou excessivamente nalguns casos e foi demasiado conservadora noutros".
Como já foi referido, 💥️a Google prometeu trabalhar em novas melhorias antes de reativar a funcionalidade para as pessoas através de "testes exaustivos".
No post, Raghavan faz uma distinção clara entre o Gemini e o seu motor de pesquisa, recomendando vivamente que se confie na pesquisa do Google, onde explica que os seus "sistemas separados mostram informações novas e de alta qualidade" sobre este tópico, 💥️com fontes de toda a Web.
A declaração termina com um aviso: não podem prometer que tal não voltará a acontecer, 💥️abrindo a porta a mais resultados inexatos, ofensivos e enganadores. No entanto, continuarão a tomar medidas para remediar esta situação. Por fim, destaca o potencial da inteligência artificial como uma tecnologia emergente com muitas possibilidades.
💥️Leia também:
Google apresenta o Gemini, o “maior e mais capaz modelo de IA”
O que você está lendo é [Depois do escândalo, Google explica o que correu mal com o Gemini...].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments