Pesquisadores da Universidade da Califórnia, nos Estados Unidos, desenvolveram uma maneira de traduzir a atividade cerebral de humanos em palavras. Isso foi possível graças a um dispositivo que, instalado na cabeça de pacientes, era capaz de ler seu cérebro e registrar sinais elétricos – que foram convertidos, depois, em uma voz robótica, ao melhor estilo Google Tradutor.
Primeiro, os pesquisadores usaram eletrodos intracranianos para monitorar o cérebro de cinco pessoas enquanto elas pronunciavam 101 frases diferentes. As frases foram cuidadosamente escolhidas para conter todos os fonemas que existem em inglês. A ideia era mapear, com a ajuda dos eletrodos, a atividade das diferentes áreas do cérebro envolvidas no ato de falar.
Quando uma pessoa conversa, uma parte do cérebro chamada córtex pré-motor envia sinais para as dezenas de músculos relacionados à fala – localizados em partes como os lábios, língua, laringe e mandíbula. Com ajuda de uma inteligência artificial, esses sinais viraram sons, repetidos por uma voz de computador exatamente da forma como os pacientes haviam dito.
Segundo destaca a New Scientist, foi preciso apenas 25 minutos de repetições para que o algoritmo ficasse afiado o suficiente na tarefa. Então, os pesquisadores recrutaram um grupo com centenas de falantes de inglês tentassem interpretar o que ouviam da voz artificial. O questionário era de múltipla escolha: eles tinham que definir, a partir de uma lista de palavras, qual delas mais parecia à que estavam ouvindo.
O teste tinha três níveis de dificuldade, com 10, 25 ou 50 alternativas diferentes. Como era de se esperar, o desempenho dos voluntários variou de acordo com o grau de exigência do exercício de listening. Aqueles que analisaram 25 alternativas tiveram até 43% de sucesso. Quem ficou com 50 opções diferentes, porém, fez a escolha certa 21% das vezes.
De acordo com os cientistas, a inteligência artificial aprendeu fácil diferenciar sons como “sh” e “z” mas se confundiu bastante na hora de captar “consoantes oclusivas”. Na linguística, ganham esse nome aqueles fonemas que pronunciamos bloqueando totalmente a passagem do ar – o “p” de “pai” ou o “t” de “tio”, por exemplo, em português. Quando a inteligência artificial tinha de reproduzir palavras do tipo, então, as opções soavam mais confusas, e provocavam mais erros nos participantes.
No vídeo abaixo, é possível ouvir o exemplo da voz de um participante lendo uma sentença e, depois, a versão sintética, criada pelo algoritmo que leu seu cérebro. Spoiler: o segundo exemplo é mais fácil de entender que o primeiro – mas, em ambos os casos, ainda é preciso uma doa dose de abstração para captar a mensagem em sua totalidade.
Vale ressaltar que até que nossos pensamentos fiquem totalmente acessíveis dentro de nossa cabeça, há ainda uma boa estrada. Isso porque a pesquisa foi feita a partir de palavras que foram repetidas em voz alta. Segundo os pesquisadores, ainda não se sabe se é possível decodificar pensamentos isolados – ou seja, ler, literalmente, a mente de alguém.
Apesar dessa limitação, o grupo acredita que a técnica poderá ajudar pessoas que perderam a capacidade de falar (seja por doenças degenerativas, cânceres ou acidentes vasculares), mas mantém as áreas cerebrais responsáveis pela comunicação ainda ativas.
O caso do físico inglês Stephen Hawking é o mais famoso nesse sentido. Com o cérebro capaz de pensar e escrever sobre buracos negros, ele tinha o corpo paralisado pela ELA (Esclerose Lateral Amiotrófica), um tipo de doença degenerativa grave. Sentado em sua cadeira, ele dava palestras inteiras com a ajuda de um dispositivo ativado pela musculatura de sua bochecha, selecionando palavras em uma tela touch-screen quando necessário. Ferramentas do tipo, porém, ainda não são capazes de devolver uma comunicação normal, já que se limitam a até dez palavras por minuto. Estima-se que, em uma conversa normal, costumamos pronunciar até 150 palavras no mesmo intervalo de tempo.
“Pela primeira vez, esse estudo demonstra que é possível gerar sentenças faladas com base na atividade verbal de uma pessoa”, disse em comunicado Edward Chang, co-autor do estudo, que foi publicado na revista científica Nature. “Esta é uma prova empolgante de que, com a tecnologia que já está ao nosso alcance, podemos criar um dispositivo clinicamente viável que pode de fato ajudar pacientes que perderam a fala”.
Novo implante converte sinais do cérebro em fala Publicado primeiro em https://super.abril.com.br/feed
Nenhum comentário:
Postar um comentário