Morte, prisão injusta e humilhação: o efeito da fé cega na tecnologia

Após ter sido espancada pelo marido, Lobna Hemid recorreu à polícia. Ela foi mandada para casa após a situação ser avaliada pelo algoritmo do governo espanhol que verifica a gravidade de casos de violência doméstica. Algumas semanas depois, o homem assassinou a mulher.

No novo episódio de Deu Tilt, o podcast do para humanos por trás das máquinas, Diogo Cortiz e Helton Simões Gomes apresentam casos de confiança cega na tecnologia que fazem pensar sobre o uso acrítico da inteligência artificial para lidar com crimes, casos de violência ou abordagens policiais.

Isso traz uma questão que a gente precisa discutir como sociedade, que é essa confiança cega que a humanidade passa a ter na inteligência artificial. Começamos a ter uma dificuldade maior em saber em que momento acaba uma decisão humana e começa uma decisão com as máquinas e vice-versa
💥️Diogo Cortiz

    Datena faz autocrítica pela metade

    Josias de Souza

    Datena faz autocrítica pela metade

  • A complexa trajetória da seleção feminina em Paris

    Milly Lacombe

    A complexa trajetória da seleção feminina em Paris

  • Brasil de prata, mulheres de ouro

    PVC

    Brasil de prata, mulheres de ouro

  • O exemplo das mulheres do vôlei e do futebol

    Juca Kfouri

    O exemplo das mulheres do vôlei e do futebol

Estão acontecendo coisas que mostraram que passamos dos limites muitas vezes nessa confiança
💥️Helton Simões Gomes

No caso da Espanha, o aplicativo é o VioGén. A partir da resposta a 35 perguntas - com alternativas de "sim" ou "não" - o app concluiu se o risco de uma nova agressão doméstica é alto ou baixo. Hemid foi encaminhada de volta para casa e seu marido solto no dia seguinte, ainda que a agressão tenha usado um pedaço de madeira e feita na frente dos quatro filhos do casal, que possuem idades entre 6 e 12 anos.

Para Helton, o caso ressalta a importância de olhar para os sistemas de inteligência artificial apenas ferramentas e não como os tomadores de decisão.

Casos brasileiros recentes mostram os efeitos negativos do uso pouco crítico e automático da inteligência artificial. Um deles foi o episódio com o personal trainer João Antônio Trindade Bastos, de 23 anos. Enquanto acompanhava a final do Campeonato Sergipano de Futebol de 2024, ele foi algemado e conduzido no meio de milhares de pessoas pela polícia. A prova? O sistema de reconhecimento facial o apontou como um criminoso foragido. João só foi liberado após mostrar a carteira de identidade.

O governo suspendeu o uso do programa. No ano passado, durante uma micareta também em Sergipe, Thaís Santos foi abordada duas vezes no mesmo dia pela polícia. Também confundida pelo reconhecimento facial. Relembre a história aqui.

São três casos que mostram que funcionários públicos acreditaram tanto na tecnologia que colocaram a integridade física, a honra e a saúde mental das pessoas em risco
💥️Helton Simões Gomes

Continua após a publicidade

Diogo também lembrou que esse é um fenômeno global, que está acontecendo em diferentes partes do mundo.

Além de ser muito sensível, isso não afeta toda a população de forma igual. A taxa de erros de reconhecimentos faciais é muito maior com a população negra
💥️Diogo Cortiz

Helton pontua que, nesses casos, o problema do resultado falho está na forma como os sistemas são treinados, pois usam dados enviesados.

Outra questão que não dá para ignorar é que esses dados usados por IA são produzidos por uma sociedade que não é neutra, que é baseada em uma série de desigualdades e que, se submetermos essas informações para as máquinas, elas vão aprender a replicar comportamentos enviesados
💥️Helton Simões Gomes

💥️Por que a Meta dá de graça IA que não custou barato e é vendida por rivais?

Continua após a publicidade

Newsletter

Um boletim com as novidades e lançamentos da semana e um papo sobre novas tecnologias. Toda sexta.

Quero receber

A Meta, dona de Facebook, Instagram e WhatsApp, está liberando sem cobrar o uso do seu modelo de inteligência artificial, que é tão poderoso quanto o sistema por trás do ChatGPT.

Como, quando a esmola é muita, o santo desconfia, logo surge a pergunta: por que uma das empresas mais poderosas do mundo está dando de graça um serviço pelo qual os concorrentes dela cobram —e caro?

No episódio desta semana de Deu Tilt, o podcast do para os humanos por trás das máquinas, Helton Simões Gomes e Diogo Cortiz discutem por que a empresa de Mark Zuckerberg investiu bilhões no treinamento e desenvolvimento de uma ferramenta para torná-la aberta e gratuita.

💥️Novo apagão cibernético global está mais perto do que você imagina

O dia 19 de julho de 2024 vai entrar para a história da tecnologia como um dia de caos. Empresas que usam Windows, da Microsoft, viram a "tela azul da morte" como um prenúncio catastrófico.

Continua após a publicidade

No episódio desta de Deu Tilt, o podcast do para humanos por trás das máquinas, Helton Simões Gomes e Diogo Cortiz explicam por que o apagão cibernético que se abateu sobre o mundo pode até ter passado, mas está muito próximo de se repetir muito em breve.

As razões que estão por trás desse último caos global não foram resolvidas e não serão porque são sistêmicas. Não são problemas, mas sim condições do modelo que a gente vive hoje em dia
💥️Helton Simões Gomes

💥️DEU TILT

Toda semana, Diogo Cortiz e Helton Simões Gomes conversam sobre as tecnologias que movimentam os humanos por trás das máquinas. O programa é publicado às terças-feiras no YouTube do e nas plataformas de áudio. Assista ao episódio da semana completo.

O que você está lendo é [Morte, prisão injusta e humilhação: o efeito da fé cega na tecnologia].Se você quiser saber mais detalhes, leia outros artigos deste site.

Wonderful comments

    Login You can publish only after logging in...