Google Assistente anuncia novas medidas para combater assédio; entenda

A Google Assistente mudou a maneira de responder a assédio sexual e/ou solicitações abusivas. A iniciativa "Não fale assim comigo", anunciada nesta terça-feira (3) em uma coletiva, faz parte de uma série de medidas que a empresa tem implementado para combater o assédio virtual contra a assistente virtual de seu sistema operacional. De acordo com a Google, esse novo posicionamento do software será implementado aos poucos e receberá atualizações contínuas. A seguir, entenda como vai funcionar e qual é a importância da iniciativa.

LEIA: Dez coisas que a Google Assistente faz que poucos usuários sabem

Iniciativa foi lançada primeiro nos EUA e, hoje, está presente na Assistente Virtual do Google em 38 idiomas diferentes — Foto: Divulgação/Pexels 1 de 3 Iniciativa foi lançada primeiro nos EUA e, hoje, está presente na Assistente Virtual do Google em 38 idiomas diferentes — Foto: Divulgação/Pexels

Iniciativa foi lançada primeiro nos EUA e, hoje, está presente na Assistente Virtual do Google em 38 idiomas diferentes — Foto: Divulgação/Pexels

Como fazer a Google Assistente falar seu nome? Tire essa e outras dúvidas no Fórum do TechTudo.

Como vai funcionar e o que mudou?

Antes do novo posicionamento, os assistentes virtuais costumavam "driblar" com humor ou respostas inconclusivas as consultas invasivas e/ou agressivas feitas pelos usuários, usando frases como, por exemplo, "Não sei te responder a essa pergunta". Agora, com a mudança, as respostas terão maior assertividade, em abordagens que variam de acordo com o caso.

Para definir a maneira como a assistente responderá às agressões, a Google categorizou os diferentes tipos de mensagens assediadoras e/ou agressivas em níveis. Insultos e linguagem chula, por exemplo, foram considerados agressões de nível mais baixo, enquanto perguntas inapropriadas e palavrões ficaram na categoria de gravidade “média”. O nível mais alto ficou com vocabulário sexualmente explícito ou que ameace e/ou seja odioso em relação a gênero, raça, religião e sexualidade.

Google Assistente assédio — Foto: Reprodução/Google 2 de 3 Google Assistente assédio — Foto: Reprodução/Google

Google Assistente assédio — Foto: Reprodução/Google

Para as mensagens classificadas em níveis mais "altos" de abuso, as respostas são mais firmes, embora educadas, como "Não fale assim comigo". Já quando as consultas são classificadas em níveis mais baixos, a voz busca responder que a pergunta é inapropriada, utilizando um certo "humor" para não soar moralista ou em tom de repreensão.

Vale ressaltar que, nessas novas respostas, também foram adicionadas informações educativas sobre a temática envolvida na interação - o que, para a empresa, tem objetivo de servir como porta de entrada para o usuário aprofundar o conhecimento de tópicos como consentimento, por exemplo, além de buscar transformar o comportamento dos agressores. Até o momento, a iniciativa parece estar fazendo efeito: durante a coletiva, a Google afirmou que houve um aumento de 6% de respostas positivas ou pedidos de desculpa após a implementação da nova abordagem.

Por que essa nova abordagem é importante?

De acordo com a Head de Marketing do Google Assistente para a América Latina, Maia Mau, embora as assistentes virtuais não sejam humanas, a medida é importante porque “o Google Assistente pode assumir um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente, incluindo o virtual”. Por causa disso, um dos propósitos da iniciativa é promover entre os usuários medidas educativas em relação ao assédio e às agressões em geral.

Somente no Brasil, que é o terceiro maior mercado da assistente, cerca de 2% das respostas dadas pelo software são voltadas a abordagens abusivas - o que, de acordo com a Google, representa centenas de milhares de mensagens mensais. A empresa ressalta que, entre as solicitações, por volta de 15% das consultas contêm termos misóginos ou de assédio sexual.

Mesmo que, hoje em dia, a assistente virtual da Google não tenha gênero definido, a "Voz Vermelha", com sonoridade mais feminina, recebe mais agressões com foco na violência de gênero. Já a "Voz Laranja", que soa masculina, sofre mais com ofensas relacionadas à sexualidade, em ataques diretos à comunidade LGBTQIA+.

Google Assistente assédio — Foto: Reprodução/Google 3 de 3 Google Assistente assédio — Foto: Reprodução/Google

Google Assistente assédio — Foto: Reprodução/Google

Em seus estudos, a Google identificou que a "Voz Vermelha", além de termos de violência sexual, também costuma receber mais insultos relacionados à aparência. Mensagens como "você é feia" e "sua puta" estão entre as identificadas pela empresa.

Na coletiva, Maia Mau ressaltou que as ocorrências de abuso e assédio feitas na assistente são um reflexo do que acontece na vida em sociedade - e por isso a importância de combatê-las. Vale lembrar que, segundo dados divulgados pelo Instituto Datafolha em 2023, aconteceram mais de 26 mil casos de assédio sexual apenas no ano de 2023.

A nova estratégia da Google foi desenvolvida com base no relatório "I'd Blush if I could", da UNESCO. Lançada em 2023, a publicação solicitou às empresas de tecnologia alguns avanços e ajustes em relação à inclusão do público feminino no universo - entre eles, fazer assistentes virtuais de gênero neutro para não reforçar estereótipos de gênero.

Vale lembrar que a Google Assistente não é a única do tipo a sofrer assédio. Em 2023, a assistente do Bradesco, a BIA, recebeu cerca de 95 mil mensagens consideradas agressões do tipo. Além delas, a Cortana, da Microsoft, a Siri, da Apple, e a Alexa, da Amazon, também foram - e são - alvo de assédio diário. Todas elas contam com recursos de mensagens automáticas para bloquear esse tipo de interação.

Google Assistente: quatro curiosidades sobre o software

O que você está lendo é [Google Assistente anuncia novas medidas para combater assédio; entenda].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...