Inteligências artificiais (IAs) capazes de gerar imagens estão ficando cada vez melhores em produzir seus pedidos. Se antes era fácil identificar sinais de que uma foto, ilustração ou montagem era obra de um robô, agora eles estão ficando mais e mais sutis.
O problema: softwares do tipo podem ser usados para disseminar desinformação, produzindo imagens falsas ou alterando fotos reais. Como identificar a autoria delas?
Nesta semana, o Google deu um passo importante na missão de tornar criações artificiais facilmente reconhecíveis. Desenvolvida pela Deepmind, equipe de IA da empresa, o SynthID é uma ferramenta que promete adicionar uma marca d’água imperceptível a fotos geradas pelo Imagen, a IA geradora de imagens da Google. Essa marcação passaria batido para nós, mas seria facilmente detectada por ela.
Uma marca d’água comum, daquelas que você encontra em imagens pela internet, é facilmente driblada com conhecimento suficiente de edição. Sejam com cortes ou técnicas de apagamento. Mas a marca do SynthID não sai. As mudanças na imagem são feitas a nível de pixel, então além de não comprometer a qualidade, elas ficam tão intrinsecamente vinculadas à original que modificações mais diversas – filtros, correção de cor ou perdas de compressão – não são suficientes para eliminá-la.
Como uma I.A. constrói imagens?
Inteligências artificiais funcionam a partir do aprendizado de máquina. Elas são treinadas com milhões de dados para que possam aprender a reconhecer (e reproduzir) padrões. É um aprimoramento constante: conforme vão produzindo mais, vão ficando cada vez melhores.
Todas as imagens que uma geradora IA recebe são acompanhadas de uma descrição. Por exemplo, a imagem de uma gato cinza vai ter a legenda “gato cinza”. Dentro dessa quantidade estratosférica de dados, vão ter muitos gatos e muitos gatos cinzas. A IA pega essas informações e as traduz para conjuntos numéricos. Assim, ela “aprende” que determinadas características e determinados padrões numéricos estão relacionados a gatos cinzas.
Então, quando você digita “gato cinza” na aba, ela sabe exatamente como montar o seu pedido. De tanto ver imagens de gatos cinzas, ela agora “sabe” o que é um.
(Se quiser entender em maior profundidade como esse sistema, recomendamos a leitura desta reportagem da Super.)
Por ora, o Google não compartilhou muito do funcionamento do SynthID – provavelmente, para evitar que a ferramenta, ainda em versão beta, seja alvo de ataques hackers. Como desenvolvedores vão constantemente buscar formas de minar o programa (e vencer a marca d`água), o time da DeepMind também vai precisar mantê-lo sob vigia e atualização constante.
O que sabemos é que o SynthID coloca uma camada imperceptível ao olho humano (mas visível à análise da máquina) nas imagens produzidas pelo Imagen. Depois, essa mesma ferramenta consegue investigar fotos atrás dessa impressão digital e apontar o quão provável é que ela tenha sido gerada artificialmente.
Dentro de casa
Existe aí uma questão, caro leitor, que você talvez tenha notado: todos os passos desse sistema passam necessariamente por produtos da Google, o SynthID e o Imagen. Imagens geradas pelo popular Midjourney, por exemplo, estão fora do escopo. Softwares como o Staple Diffusion e o Dall-E 2 também. Isso é um problema para uma ferramenta que visa, nas palavras da empresa, “informar as pessoas quando estão interagindo com mídias geradas e ajudar a prevenir a propagação de desinformação.”
A expansão do projeto para terceiros é um plano futuro. A equipe da DeepMind pensou o SynthID para ser usado em toda a internet, mas, primeiro, eles vão acompanhar a repercussão e feedbacks da versão beta para saber se as peças fundamentais da ferramenta funcionam bem.
“O SynthID pode ser expandido para uso em outros modelos de IA e planejamos integrá-lo a mais produtos em um futuro próximo, capacitando pessoas e organizações a trabalharem de forma responsável com conteúdo gerado por IA,” afirma a companhia em um comunicado.
O SynthID também não vai ser o elixir mágico para salvar contra notícias enganosas em grande escala – sua avó talvez não vá usar o programa para conferir se uma imagem que recebeu no WhatsApp é falsa. Mesmo assim, ter um jeito de identificar conteúdos gerados por inteligência artificial é importante para estabelecer confiança nas informações que trafegam por aí.
“Embora não seja uma resposta mágica para resolver o problema da desinformação, o SynthID é uma solução técnica recente e promissora para esta questão urgente de segurança da IA,” defende o Google.
Para além do SynthID, outros desenvolvedores tentam proteger imagens autênticas dos robôs I.A.. O Glaze, por exemplo, promete criar uma “camuflagem” nos arquivos – e, assim, evitar que artistas tenham o seu estilo copiado pelos softwares. Entenda como ele funciona aqui.
Google desenvolve programa para identificar imagens feitas por inteligência artificial Publicado primeiro em https://super.abril.com.br/feed
Nenhum comentário:
Postar um comentário