Modelo de conversação de IA da Meta é capaz de identificar mais de 4000 idiomas falados
Mark Zuckerberg, CEO da Meta, deu hoje a conhecer um novo modelo de conversação baseado em IA, o Massively Multilingual Speech. Segundo o anúncio, o sistema é capaz de converter voz para texto e texto para voz, com suporte de mais de 1100 idiomas, tendo sido treinado com mais de 4000 idiomas.
O combate contra o fim de muitos idiomas no mundo
Muitas das línguas do mundo correm o risco de desaparecer, e as limitações do reconhecimento de fala atual e da tecnologia de geração só vão acelerar essa tendência.
A Meta refere que quer tornar mais fácil para as pessoas aceder a informações e usar dispositivos no seu idioma preferido, mesmo que sejam os menos falados no mundo. Por isso, hoje anunciou uma série de modelos de inteligência artificial (IA) que podem ajudar as pessoas a fazer exatamente isso.
O papel dos modelos Massively Multilingual Speech
Os modelos Massively Multilingual Speech (MMS) que a empresa já tinha apresentado no passado, passam do suporte de conversão de texto/voz e voz/texto de 100 idiomas para o suporte de mais de 1100. Agora, o sistema é também capaz de identificar mais de 4000 idiomas falados.
Também existem muitos casos de uso para tecnologia de fala – desde tecnologia de realidade virtual e aumentada até serviços de mensagens – que podem ser usados no idioma preferido de uma pessoa e podem entender a voz de todos.
A Meta avança modelos e código passam a ser open-source para que outras pessoas na comunidade de investigação possam desenvolver o trabalho e ajudar a preservar os idiomas do mundo e aproximar o mundo.
Com este projeto, a Meta espera contribuir para preservar a diversidade linguística no Mundo.
O que você está lendo é [Modelo de conversação de IA da Meta é capaz de identificar mais de 4000 idiomas falados].Se você quiser saber mais detalhes, leia outros artigos deste site.
Wonderful comments