Cinco vezes em que bots cometeram gafes e causaram problemas

Os bots são aplicações que rodam na Internet enquanto desempenham algum tipo de tarefa pré-determinada. Segundo pesquisa da Imperva, os bots corresponderam a mais de 50% do tráfego total da Internet em 2016. Eles podem ser usados para diferentes fins, como responder automaticamente comentários nas redes sociais de empresas, artistas e páginas famosas.

LEIA: Nova tecnologia promete dar fim às senhas tradicionais

Por serem softwares feitos para simular ações humanas de forma padrão, os bots correm o risco de cometerem gafes. Esses erros que causam episódios engraçados — e às vezes polêmicos — geralmente são mais evidentes em bots de conversação, que aprendem em interações com o público. Confira a seguir cinco vezes em que os robôs causaram problemas na Internet.

Inteligência artificial é cada vez mais presente no cotidiano — Foto: Pond5 1 de 6 Inteligência artificial é cada vez mais presente no cotidiano — Foto: Pond5

Inteligência artificial é cada vez mais presente no cotidiano — Foto: Pond5

Quer comprar celular, TV e outros produtos com desconto? Conheça o Compare TechTudo

1. Tay “corrompida”

Em 2016, a Microsoft lançou a Tay, um software de inteligência artificial descrita como um “experimento de conversação” pela empresa. Quanto mais as pessoas conversassem com o bot, mais esperto ele ficaria, aprendendo novas palavras e frases. Entretanto, o experimento acabou dando errado em menos de 24 horas, quando as conversas de usuários com a Tay se tornaram misóginas e racistas. Tay terminou aprendendo xingamentos, maus comportamentos e opiniões preconceituosas e passou a fazer comentários impróprios no Twitter, como que “Hitler estava certo” e que “os judeus que ocasionaram o 11 de setembro”.

O software era de fácil “manipulação”, uma vez que bastava alguém dizer “repita comigo” à Tay para que ela replicasse em tuítes o que quisessem. A Microsoft decidiu bloquear a conta de Tay no Twitter, e seus mais de 115 mil seguidores não podem mais conversar com o robô. A empresa ainda disse que ela “permanecerá offline enquanto fazemos ajustes, e como uma parte da testagem, seguirá privada no Twitter por um período”.

Tay incitando o uso de drogas, inclusive na frente da polícia — Foto: Reprodução/Gary Nealon 2 de 6 Tay incitando o uso de drogas, inclusive na frente da polícia — Foto: Reprodução/Gary Nealon

Tay incitando o uso de drogas, inclusive na frente da polícia — Foto: Reprodução/Gary Nealon

2. Bot da Decolar critica Bolsonaro

A agência de viagens online Decolar gerava respostas automáticas no Twitter com um bot. Os usuários aproveitaram a deixa para confundir o robô e fazê-lo replicar críticas ao presidente e piadas de mau gosto. Isso era possível porque, ao responder textos padronizados para os internautas, o bot os chamava pelo nome que utilizam na rede social.

Assim, se o interlocutor se identificasse como “Jair Bolsonaro” no Twitter, a Decolar respondia à mensagem iniciando-a com o nome do presidente brasileiro. Os usuários, então, mudaram seus nomes no Twitter para “Bolsonaro é Genocida”, fazendo referência à forma que o presidente conduz o país diante da pandemia de Covid-19.

O resultado gerou diversas respostas automáticas da Decolar chamando Bolsonaro de genocida enquanto tentava explicar algum problema. Além das críticas ao governo, os usuários manipularam as respostas da empresa para transformá-la em propagadora de ideias preconceituosas e de cunho sexual. As publicações feitas pela conta foram apagadas depois do episódio.

Mudança no nome de usuário faz com que a empresa "critique" Bolsonaro — Foto: Reprodução/Twitter 3 de 6 Mudança no nome de usuário faz com que a empresa "critique" Bolsonaro — Foto: Reprodução/Twitter

Mudança no nome de usuário faz com que a empresa "critique" Bolsonaro — Foto: Reprodução/Twitter

3. SimSimi perigoso

O SimSimi é um aplicativo de mensagens que também usa inteligência artificial para conversar com usuários. O recurso está disponível para Android e iPhone (iOS) e tinha popularidade com crianças e adolescentes por conta de sua estética fofa. O teor das mensagens, entretanto, poderia ser considerado ofensivo.

Por causa do aprendizado nativo do sistema, assim como da Tay, o resultado pode não ser apropriado para crianças. O SimSimi terminou sendo capaz de fazer propostas sexuais, usar palavrões e até mesmo fazer ameaças, que podem assustar tanto pais quanto crianças. Vale ressaltar que o aplicativo tem restrição de idade para 16 anos.

O bot consegue identificar e associar pessoas a características. Dessa forma, se dito que “fulano é feio”, esse conteúdo pode ser replicado para ofender as pessoas. Muitas mães publicaram em redes sociais o ocorrido para alertar sobre os perigos do uso indevido da plataforma.

Mãe alerta as demais sobre os perigos do SimSimi — Foto: Reprodução/Taysa Coelho 4 de 6 Mãe alerta as demais sobre os perigos do SimSimi — Foto: Reprodução/Taysa Coelho

Mãe alerta as demais sobre os perigos do SimSimi — Foto: Reprodução/Taysa Coelho

4. Inspirobot

Inspirobot é um site que gera frases motivacionais automaticamente a partir do clique de um botão. Entretanto, o bot tem feito sucesso pelas gafes que comete — em vez de frases bonitas, o robô tem gerado conteúdo obscuro e sem sentido. Qualquer um pode usar o Inspirobot e se deparar com as frases aleatórias da inteligência artificial. Às vezes, o bot realmente consegue gerar as mensagens inspiradoras, mas não é difícil se deparar com palavras que remetem a traição, morte e desmotivação.

Mensagens aleatórias surgem no Ispirobot — Foto: Reprodução/Guilherme Ramos 5 de 6 Mensagens aleatórias surgem no Ispirobot — Foto: Reprodução/Guilherme Ramos

Mensagens aleatórias surgem no Ispirobot — Foto: Reprodução/Guilherme Ramos

5. Poncho, o gato do tempo

Inicialmente o Poncho era usado como uma newsletter que mandava atualizações sobre o clima com GIFs engraçados. Depois, o bot foi ao Messenger como plataforma de conversa, também sobre o clima. É possível adicionar o Poncho no mensageiro do Facebook ao pesquisar seu nome e receber atualização do tempo até duas vezes por dia.

O problema do Poncho era que, além de só estar disponível em inglês, ele não conseguia absorver tanto conteúdo das conversas. Dessa forma, era comum que o bot dissesse que “não entendia” algo que o usuário perguntou. Poncho também não conseguia aprender com os humanos, o que fez com que não cometesse deslizes sérios como os de Tay.

A função do Poncho era dar notícias sobre o clima — Foto: Divulgação/Facebook 6 de 6 A função do Poncho era dar notícias sobre o clima — Foto: Divulgação/Facebook

A função do Poncho era dar notícias sobre o clima — Foto: Divulgação/Facebook

Via Business Insider, The Verge (1 e 2), O Globo e The Sun

Conta temporariamente bloqueada no Facebook; o que fazer? Tire dúvidas no Fórum do TechTudo.

O que é ransomware: cinco dicas para se proteger

Google cria bot que espera na linha e ouve música até alguém te atender

  • Como criar bot no Discord

  • Bot para WhatsApp: 7 perguntas e respostas sobre robôs no app

    O que você está lendo é [Cinco vezes em que bots cometeram gafes e causaram problemas].Se você quiser saber mais detalhes, leia outros artigos deste site.
  • Wonderful comments

      Login You can publish only after logging in...