Cinco vezes em que bots cometeram gafes e causaram problemas
Os bots são aplicações que rodam na Internet enquanto desempenham algum tipo de tarefa pré-determinada. Segundo pesquisa da Imperva, os bots corresponderam a mais de 50% do tráfego total da Internet em 2016. Eles podem ser usados para diferentes fins, como responder automaticamente comentários nas redes sociais de empresas, artistas e páginas famosas.
LEIA: Nova tecnologia promete dar fim às senhas tradicionais
Por serem softwares feitos para simular ações humanas de forma padrão, os bots correm o risco de cometerem gafes. Esses erros que causam episódios engraçados — e às vezes polêmicos — geralmente são mais evidentes em bots de conversação, que aprendem em interações com o público. Confira a seguir cinco vezes em que os robôs causaram problemas na Internet.
/s.glbimg.com/po/tt2/f/original/2018/12/18/1812-virus-pond5.jpg)
Inteligência artificial é cada vez mais presente no cotidiano — Foto: Pond5
Quer comprar celular, TV e outros produtos com desconto? Conheça o Compare TechTudo
1. Tay “corrompida”
Em 2016, a Microsoft lançou a Tay, um software de inteligência artificial descrita como um “experimento de conversação” pela empresa. Quanto mais as pessoas conversassem com o bot, mais esperto ele ficaria, aprendendo novas palavras e frases. Entretanto, o experimento acabou dando errado em menos de 24 horas, quando as conversas de usuários com a Tay se tornaram misóginas e racistas. Tay terminou aprendendo xingamentos, maus comportamentos e opiniões preconceituosas e passou a fazer comentários impróprios no Twitter, como que “Hitler estava certo” e que “os judeus que ocasionaram o 11 de setembro”.
O software era de fácil “manipulação”, uma vez que bastava alguém dizer “repita comigo” à Tay para que ela replicasse em tuítes o que quisessem. A Microsoft decidiu bloquear a conta de Tay no Twitter, e seus mais de 115 mil seguidores não podem mais conversar com o robô. A empresa ainda disse que ela “permanecerá offline enquanto fazemos ajustes, e como uma parte da testagem, seguirá privada no Twitter por um período”.
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2020/8/y/jOGm8JTCCBH9TK4utFzw/tay-tweets.jpg)
Tay incitando o uso de drogas, inclusive na frente da polícia — Foto: Reprodução/Gary Nealon
2. Bot da Decolar critica Bolsonaro
A agência de viagens online Decolar gerava respostas automáticas no Twitter com um bot. Os usuários aproveitaram a deixa para confundir o robô e fazê-lo replicar críticas ao presidente e piadas de mau gosto. Isso era possível porque, ao responder textos padronizados para os internautas, o bot os chamava pelo nome que utilizam na rede social.
Assim, se o interlocutor se identificasse como “Jair Bolsonaro” no Twitter, a Decolar respondia à mensagem iniciando-a com o nome do presidente brasileiro. Os usuários, então, mudaram seus nomes no Twitter para “Bolsonaro é Genocida”, fazendo referência à forma que o presidente conduz o país diante da pandemia de Covid-19.
O resultado gerou diversas respostas automáticas da Decolar chamando Bolsonaro de genocida enquanto tentava explicar algum problema. Além das críticas ao governo, os usuários manipularam as respostas da empresa para transformá-la em propagadora de ideias preconceituosas e de cunho sexual. As publicações feitas pela conta foram apagadas depois do episódio.
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2020/a/S/AckjN9Qlyczu1tDMwdvQ/decolar.jpg)
Mudança no nome de usuário faz com que a empresa "critique" Bolsonaro — Foto: Reprodução/Twitter
3. SimSimi perigoso
O SimSimi é um aplicativo de mensagens que também usa inteligência artificial para conversar com usuários. O recurso está disponível para Android e iPhone (iOS) e tinha popularidade com crianças e adolescentes por conta de sua estética fofa. O teor das mensagens, entretanto, poderia ser considerado ofensivo.
Por causa do aprendizado nativo do sistema, assim como da Tay, o resultado pode não ser apropriado para crianças. O SimSimi terminou sendo capaz de fazer propostas sexuais, usar palavrões e até mesmo fazer ameaças, que podem assustar tanto pais quanto crianças. Vale ressaltar que o aplicativo tem restrição de idade para 16 anos.
O bot consegue identificar e associar pessoas a características. Dessa forma, se dito que “fulano é feio”, esse conteúdo pode ser replicado para ofender as pessoas. Muitas mães publicaram em redes sociais o ocorrido para alertar sobre os perigos do uso indevido da plataforma.
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2020/0/H/SUBYOFT5CeSQWSazmORw/screen-shot-2018-04-18-at-3.41.09-pm.png)
Mãe alerta as demais sobre os perigos do SimSimi — Foto: Reprodução/Taysa Coelho
4. Inspirobot
Inspirobot é um site que gera frases motivacionais automaticamente a partir do clique de um botão. Entretanto, o bot tem feito sucesso pelas gafes que comete — em vez de frases bonitas, o robô tem gerado conteúdo obscuro e sem sentido. Qualquer um pode usar o Inspirobot e se deparar com as frases aleatórias da inteligência artificial. Às vezes, o bot realmente consegue gerar as mensagens inspiradoras, mas não é difícil se deparar com palavras que remetem a traição, morte e desmotivação.
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2020/H/0/dcSMLuTJmay43BFhiG2g/tec.png)
Mensagens aleatórias surgem no Ispirobot — Foto: Reprodução/Guilherme Ramos
5. Poncho, o gato do tempo
Inicialmente o Poncho era usado como uma newsletter que mandava atualizações sobre o clima com GIFs engraçados. Depois, o bot foi ao Messenger como plataforma de conversa, também sobre o clima. É possível adicionar o Poncho no mensageiro do Facebook ao pesquisar seu nome e receber atualização do tempo até duas vezes por dia.
O problema do Poncho era que, além de só estar disponível em inglês, ele não conseguia absorver tanto conteúdo das conversas. Dessa forma, era comum que o bot dissesse que “não entendia” algo que o usuário perguntou. Poncho também não conseguia aprender com os humanos, o que fez com que não cometesse deslizes sérios como os de Tay.
/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2020/X/j/vbJqzQSvO1OswlAXNGqw/pomcho.jpg)
A função do Poncho era dar notícias sobre o clima — Foto: Divulgação/Facebook
Via Business Insider, The Verge (1 e 2), O Globo e The Sun
Conta temporariamente bloqueada no Facebook; o que fazer? Tire dúvidas no Fórum do TechTudo.
O que é ransomware: cinco dicas para se proteger
Google cria bot que espera na linha e ouve música até alguém te atender
Como criar bot no Discord
Bot para WhatsApp: 7 perguntas e respostas sobre robôs no app
O que você está lendo é [Cinco vezes em que bots cometeram gafes e causaram problemas].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments