Do Clubhouse ao Twitter Spaces, mídia social enfrenta desafio de moderação de áudio ao vivo
O Clubhouse, que introduziu controles de usuário de maneira semelhante, investigou se ações como bloqueio, que podem impedir que usuários entrem em certas salas, podem ser utilizadas para assediar ou excluir usuários (Imagem: REUTERS/Florence Lo/Illustration)
O crescimento explosivo do 💥️Clubhouse, uma rede social baseada em áudio impulsionada por aparições de celebridades da tecnologia como 💥️Elon Musk e 💥️Mark Zuckerberg, gerou um escrutínio sobre como o aplicativo vai tratar conteúdo problemático, de discurso de ódio a assédio e desinformação.
Moderar a discussão em tempo real é um desafio para uma safra de plataformas que usam chat de voz ao vivo, de serviços centrados em videogames como Discord ao novo recurso de áudio ao vivo do 💥️Twitter, o Spaces. O 💥️Facebook também está explorando essa frente.
“O áudio apresenta um conjunto fundamentalmente diferente de desafios para a moderação do que a comunicação baseada em texto. É mais efêmero e mais difícil de pesquisar e agir”, disse o diretor jurídico da Discord, Clint Smith, em uma entrevista.
As ferramentas para detectar conteúdo de áudio problemático ficam atrás daquelas usadas para identificar texto; e transcrever e examinar bate-papos de voz gravados é um processo mais complicado para pessoas e máquinas. A falta de pistas extras, como os sinais visuais de vídeo ou comentários de texto que os acompanham, também pode torná-lo mais desafiador.
“A maior parte do que você tem em termos de ferramentas de moderação de conteúdo é realmente construída em torno de texto”, disse Daniel Kelley, diretor associado do Centro de Tecnologia e Sociedade da Liga Antidifamação.
Nem todas as empresas fazem ou mantêm gravações de voz para investigar relatórios de violações de regras. Embora o Twitter mantenha o áudio do Spaces por 30 dias ou mais se houver um incidente, o Clubhouse diz que exclui sua gravação se uma sessão ao vivo termina sem um relatório imediato do usuário, e o Discord não grava nada.
Em vez disso, o Discord, que enfrentou pressão para conter conteúdo tóxico como assédio e material de supremacia branca em bate-papos de texto e voz, oferece aos usuários controles para silenciar ou bloquear pessoas e depende deles para sinalizar áudio problemático.
Esses modelos de comunidade podem fortalecer os usuários, mas podem ser facilmente abusados e sujeitos a preconceitos.
O Clubhouse, que introduziu controles de usuário de maneira semelhante, investigou se ações como bloqueio, que podem impedir que usuários entrem em certas salas, podem ser utilizadas para assediar ou excluir usuários.
Os desafios de moderar áudio ao vivo confrontam a batalha global sobre moderação de conteúdo em grandes plataformas de mídia social, que são criticadas por seu poder e opacidade, e têm atraído reclamações de ambos os lados como demasiadamente restritiva ou perigosamente permissiva.
As plataformas online também têm lutado por muito tempo para frear o conteúdo prejudicial ou gráfico ao vivo em seus sites.
Em 2023, um vídeo ao vivo de um suicídio no Facebook se espalhou por vários sites. Em 2023, um tiroteio em uma sinagoga alemã foi transmitido ao vivo no site de jogos Twitch, da Amazon.
“É muito importante para esses serviços aprenderem com o lançamento do streaming de vídeo para entender que eles enfrentarão os mesmos tipos de questões”, disse Emma Llanso, integrante do Conselho Consultivo de Segurança do Twitch. “O que acontece quando as pessoas querem usar seu serviço para transmitir áudio ao vivo de um encontro com a polícia ou de um ataque violento?”
O que você está lendo é [Do Clubhouse ao Twitter Spaces, mídia social enfrenta desafio de moderação de áudio ao vivo].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments