Uma série de áudios divulgados na internet mostram o que parece ser Gates emitindo uma série de frases. “Uma cãibra não é um pequeno perigo ao nadar”; “Escreva uma nota para o amigo que você ama”. Parecem frases sem sentido para Bill Gates pronunciar em voz altas, mas existe uma lógica: trata-se na verdade de um um sistema de aprendizado de máquina chamado MelNet, projetado e criado por engenheiros no Facebook, capaz de replicar vozes de pessoas famosas.
O fundador da Microsoft é o mais conhecido dos poucos indivíduos que o Melnet é capaz de imitar. Os outros, incluindo George Takei, Jane Goodall e Stephen Hawking, podem ser ouvidos neste link — sob o título “Selected Speakers”.
Um dos recursos usados para treinar o MelNet foi um conjunto de dados de 452 horas das palestras do TED. O restante veio de audiobooks, escolhidos porque a “maneira altamente animada” dos falantes é um alvo desafiador.
A qualidade dos clones de voz tem melhorado nos últimos anos. Grande parte desse progresso remonta a 2016, com o lançamento de SampleRNN e WaveNet. O último é um programa que transforma texto em fala com aprendizado de máquina criado pelo DeepMind, o laboratório de inteligência artificial Google, em Londres, que agora controla o Google Assistant.
A abordagem básica dos programas WaveNet, SampleRNN e similares é alimentar uma tonelada de dados no sistema e usá-los para analisar as nuances de uma voz humana. Os sistemas “texto para fala” mais antigos não geram áudio, mas o reconstituem: cortando amostras de fala em fonemas e juntando-os novamente para criar novas palavras. Mas, enquanto o WaveNet e outros foram treinados usando formas de onda de áudio, o MelNet, do Facebook, usa um formato mais rico e mais informativo para seu aprendizado: o espectrograma.
Em um documento anexado, os pesquisadores do Facebook observam que, enquanto a WaveNet produz saída de áudio de alta fidelidade, a MelNet é superior na captura de “estrutura de alto nível” — consistências sutis contidas na voz do falante que são, ironicamente, quase impossíveis de descrever em palavras, mas totalmente perceptíveis ao ouvido humano.
Eles dizem que isso ocorre porque os dados capturados em um espectrograma são “ordens de magnitude mais compactas” do que os presentes no formato “ondas de áudio”. Essa densidade permite que os algoritmos produzam vozes mais consistentes.
Contudo, existem limitações. O modelo não pode replicar como uma voz humana muda segundo as emoções do falante (drama ou tensão, por exemplo). Curiosamente, isso é semelhante às restrições que vimos na geração de texto de IA, que captura a coerência do texto superficialmente, mas não a longo prazo.
Feitas as devidas ressalvas, os resultados são surpreendentemente bons. E impressionantemente, o MelNet é um sistema multifuncional. Ele não apenas gera vozes realistas, mas também pode ser usado para gerar música — que não faz jus a obra original, mas já é um primeiro passo nesse sentido.
E para não sermos irresponsáveis, é importante pontuar os benefícios e malefícios desta tecnologia. Assistentes que usam inteligência artificial ficarão melhores, teremos modelos de voz realistas para pessoas com dificuldades de fala, além de uma gama de possibilidades de uso na indústria do entretenimento. Entretanto, abre-se caminho para a desintegração da confiança nas formas tradicionais de evidências em áudio, além do potencial de fraudes e calúnias generalizadas.