Google cria Inteligência Artificial que entende livros inteiros

Kris Gaiato

Quando se trata de músicas, vídeos, textos e discursos, o maior desafio para a Inteligência Artificial é compreender o contexto que está sendo apresentado. Por exemplo, se durante um vídeo uma pessoa desaparecer e retornar posteriormente, muitos modelos vão esquecer que ela já esteve lá.

A Google enfrentou esse problema com o Transformer, uma rede neural que compara palavras em um mesmo parágrafo para entender a relação entre elas. Esse modelo é capaz de compreender textos de até mil palavras, sintetizá-los e traduzir frases inteiras. Apesar disso, quando a compreensão de um texto, vídeo ou imagem depende de um contexto mais complexo… As capacidades do Transformer não são suficientes.

Para corrigir esse erro, a Google lançou o Reformer, um modelo aprimorado que supre as deficiências do seu irmão mais novo. Com ele é possível criar artigos inteiros para Wikipedia através da síntese de múltiplos textos, isso porque Reformer tem a capacidade de compreender até um milhão de palavras — e com apenas 16GB de memória.

Veja mais no Tecmundo

Amazônia Brasil Rádio Web ao vivo!

Dê sua opinião, não fique calado!

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.