As inteligências artificiais como o ChatGPT foram alimentadas com enorme quantidade de textos da internet (elas analisaram esses textos para mapear as relações entre as palavras, e a partir disso se tornaram capazes de entender perguntas e construir respostas).
Mas no futuro, com o uso crescente de IAs para gerar sites e textos online, esse processo pode dar um curto-circuito. É o que afirmam cientistas das universidades de Oxford e Cambridge, que publicaram um estudo (1) apontando isso.
Eles demonstraram que, quando uma IA é “treinada” com textos que também foram gerados por IA, seu algoritmo se deteriora de forma progressiva.
O robô vai esquecendo as reais relações entre os dados e gera respostas cada vez mais incorretas, até chegar a um estado que os pesquisadores chamaram de “colapso do modelo” – no qual o algoritmo se torna incapaz de se recuperar, não importa quanto poder de processamento tenha à disposição.
Fonte 1. The curse of recursion: training on generated data makes models forget. I Shumailov e outros, 2023.
IAs podem se autodestruir, diz estudo Publicado primeiro em https://super.abril.com.br/feed
Nenhum comentário:
Postar um comentário