Esqueçam “O Exterminador Implacável”. Mas temos de resolver as questões &am
💥️O que significa ser humano na era digital? A pergunta serve de mote a um dos keynotes que 💥️Alix Rübsaam costuma fazer pelo mundo, como oradora da Singularity University, e que trouxe a Portugal, a propósito da primeira edição do Executive Program.
Especialista em filosofia da tecnologia💥️, investiga o impacto social e cultural das tecnologias exponenciais e, atualmente, tem dois💥️ projetos em mãos, um deles focado nos efeitos de algoritmos automatizados de tomada de decisão, inteligência artificial e o chamado “bias” algorítmico - decisões tomadas no processo de design que refletem os valores, opiniões e preconceitos de quem desenvolve a tecnologia, levando a resultados tendenciosos.
SingularityU Portugal estreia programa para pôr líderes a pensar (e depois a transformar)
Ver artigo💥️O segundo projeto está relacionado com a 💥️análise da digitalização da informação, dos seus efeitos na tomada de decisões e na ética. O foco aqui é reposicionar os tomadores de decisão face à forma como se informam, investigar e desafiar paradigmas computacionais e imaginar uma abordagem à ética que seja adequada aos dilemas do século XXI.
Depois de explicar aos participantes da primeira edição do Executive Program que a ascensão da inteligência artificial não significa que o fim da humanidade está próximo, 💥️Alix Rübsaam falou com o ysoke TEK sobre a visão limitadora da IA como “exterminador implacável” e de como será mais importante dar resposta aos problemas reais como a desigualdade ou mesmo a exclusão, e a discriminação algorítmica.
💥️Clique nas imagens para mais detalhe
Para a especialista, 💥️as questões éticas são extremamente importantes para que a inteligência artificial seja implementada de forma mais consciente e responsável, melhorando assim os seus resultados.
💥️ysoke TeK: 💥️Disse no seu keynote que todos temos a nossa própria definição do que significa ser humano e que podemos estar todos certos (ou errados) nas nossas ideias, mas como é que a Alix vê a os humanos hoje? No que é nos poderemos vir a tornar?
💥️Alix Rübsaam: No que diz respeito à forma como nos relacionamos com as tecnologias e, especialmente 💥️no mundo da inteligência artificial, estão dois desenvolvimentos fundamentais em curso. Um deles é a 💥️tendência de identificarmos as nossas máquinas como se fossem de alguma forma humanas, como se fossem de alguma forma semelhantes a nós. Quando na realidade💥️ são uma extensão do que somos.
Em segundo lugar, ontem tivemos uma sessão diferente [no Executive Program] em que mergulhámos no ✅bias algorítmico, e se pensarmos bem, 💥️o que significa para os humanos desenvolver essas tecnologias e o quanto da nossa humanidade aparece nelas? Acho que esses são dois aspetos muito importantes que não devemos esquecer.
É importante lembrar que toda tecnologia que construímos reflete os nossos valores e a nossa maneira de pensar.
Penso que, quando perguntamos o que somos como humanos hoje e o que poderemos ser amanhã, as tecnologias podem ser uma espécie de “janela”: se pensarmos onde estamos a concentrar esforços, atualmente, é muito no uso de tecnologias para nos conectarmos uns com os outros, para acelerar processos. Portanto, podemos ver quais são os nossos valores atuais. Não estou a dizer que são valores universais, certo? Vão mudando ao longo do tempo, mas acredito que💥️ a tecnologia pode ser um espelho daquilo que consideramos importante. É por isso que estamos à procura de respostas. E acho que podemos seguir vários caminhos com isso.
💥️ysoke TeK: 💥️E uma vez que mencionou a comunicação como um dos valores atuais, vê as relações humanas, sejam elas de amizade ou românticas, a mudar no futuro? Vê uma sociedade de humanos, máquinas e ciborgues a viverem juntos?
💥️Alix Rübsaam: Acredito que é possível que olhemos para muitas das tecnologias que temos e as utilizemos para 💥️satisfazer as nossas necessidades. Já o que isso pode dizer sobre as relações humanas, não sei, porque não sou especialista no tema.
Para mim o termo ciborgue é enganador, porque pressupõe que existe um limite que cruzaremos, onde haverá uma integração da tecnologia nos nossos corpos e seremos algo além de humanos.
Enquanto se compararmos as pessoas de hoje com as pessoas de há 500 anos,💥️ já temos uma quantidade de tecnologia incorporada e em nosso redor, em termos de medicina, implantes e muitas outras coisas. Se essa é a definição usada, 💥️então porque é ainda não somos ciborgues?
Por vezes temos tendência para 💥️separar as tecnologias que temos em categorias - por exemplo "vai ser uma singularidade", “vai ser um ciborgue", ou algo do tipo - e 💥️perdemos de vista a realidade em que estamos hoje. Se realmente estivermos interessados em usar termos como ciborgue então deveríamos ser muito críticos e pensar que talvez já estejamos lá hoje. E se já estamos lá hoje, talvez não seja útil passar muito tempo a tentar descobrir quem é ou não é um ciborgue...
💥️ysoke TeK: A Alix também costuma criticar o sensacionalismo dos títulos de notícias e livros que anunciam o fim da humanidade causado por uma “IA malévola”. Só olha para a inteligência artificial como uma coisa boa que só traz vantagens? Não existe maldade na IA?
💥️Alix Rübsaam: Não, acho que existem problemas muito reais com a IA hoje. Temos exclusão desenfreada, desigualdade desenfreada, proliferação de discriminação humana nos sistemas… Isto acontece porque 💥️estamos a automatizar tecnologia e a conferir aos sistemas de IA que construímos uma aura de objetividade, como se fossem de alguma forma mais neutros do que nós, o que não é verdade. Eles simplesmente reproduzem o que colocamos neles.
São problemas reais e passo muito do meu tempo a tentar perceber como podemos lidar com eles. Existem muitas maneiras de abordar as questões, mas é um processo mais demorado do que normalmente gostaríamos de ter na construção dos nossos sistemas de IA. São questões do presente e não apenas do futuro.
As manchetes sensacionalistas de "estamos todos condenados porque a IA existe" são uma distração para os problemas reais que estão a acontecer.
Já estamos a ver exclusão hoje, já estamos a ver discriminação hoje. Acredito que devemos concentrar-nos nisso.
💥️A maneira como treinamos e direcionamos os nossos sistemas é inerentemente tendenciosa e tem falhas, assim como o pensamento humano. Ver que estamos a criar um sistema com esse tipo de desvio é um grande problema ético.
O aparecimento de um exterminador não é um problema ético. E parece-me que 💥️quanto mais tempo passamos a falar sobre exterminadores, menos tempo passamos a falar sobre as questões que realmente importam.
💥️ysoke TEK: Mas como é que poderemos resolver esses desafios na área da ética?
💥️Alix Rübsaam: Há várias maneiras de abordagem. 💥️Uma das formas é aumentar a consciencialização. Muitas vezes, temos líderes que instruem as suas equipas ou organizações que otimizam os sistemas para determinadas coisas, mas que não olham para quem de facto está desenvolver esses sistemas. 💥️Por vezes até deficiências na composição do grupo ou de perspetiva das pessoas “sentadas à mesa” fazem diferença, porque influenciam os resultados do que se está a construir.
É importante 💥️pensar e estabelecer estruturas dentro das organizações para questionar e confrontar algumas das coisas que surgem das composições de grupo, de quem toma decisões, de como as instruções que foram dadas são interpretadas pelas equipas, de qual o objetivo real que estamos a otimizar.
💥️A forma como fazemos perguntas é muito orientadora. Portanto, pensar sobre como definimos as metas para o nosso sistema, como a solução que estamos a usar realmente se aplica ao problema que estamos a tentar resolver e, finalmente, pensar sobre onde e como aplicamos a solução que construímos. Estamos a introduzir a IA num novo ambiente onde há novas variáveis que podem alterar o funcionamento dela?
Se não tivermos uma resposta para todas essas áreas de perguntas, quando chegarmos à fase de implementação corremos o risco de termos um sistema muito tendencioso e problemático.
Portanto, é necessário aumentar a consciencialização sobre como os sistemas autónomos funcionam, o que estão a fazer e o que não estão a fazer. 💥️Implementá-los de forma pensada e responsável levará a melhores resultados.
O que você está lendo é [Esqueçam “O Exterminador Implacável”. Mas temos de resolver as questões &am].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments