A inteligência artificial da Google acaba de mostrar que veio para ficar no mundo da segurança digital. A empresa anunciou que seu sistema de IA, chamado Big Sleep, conseguiu identificar 20 vulnerabilidades em programas bastante usados, como o editor de imagens ImageMagick e a biblioteca de áudio e vídeo FFmpeg — dois softwares open source presentes em muitos aplicativos e sistemas por aí.
IA caçadora de bugs? Sim, isso existe!
O Big Sleep é fruto de uma parceria entre a equipe de IA da DeepMind (a mesma que criou o AlphaGo) e o time de especialistas em segurança da Project Zero, que já tem fama por encontrar falhas críticas em grandes sistemas.
O mais impressionante? Segundo a Google, o Big Sleep descobriu e reproduziu essas falhas sozinho, sem ajuda humana. Só na hora de relatar os problemas é que entra um especialista humano para revisar e garantir que os relatórios tenham qualidade e sejam úteis para os desenvolvedores corrigirem os erros.
O que sabemos sobre as falhas?
Por enquanto, a Google não revelou detalhes sobre os bugs encontrados — e isso é normal. Divulgar informações antes que as falhas sejam corrigidas pode abrir portas para ataques. Mas só o fato de uma IA estar encontrando falhas reais já mostra que estamos diante de um novo capítulo na segurança digital.
Um novo jeito de caçar falhas
Ferramentas como o Big Sleep fazem parte de uma tendência maior: o uso de modelos de linguagem (LLMs), como o ChatGPT, para encontrar vulnerabilidades em códigos de programas. Outras iniciativas semelhantes, como RunSybil e XBOW, também estão mostrando resultados promissores.
Aliás, o XBOW recentemente se destacou ao liderar um ranking de caçadores de bugs na plataforma HackerOne, um dos maiores sites de recompensas por descobertas de segurança.
Nem tudo são flores…
Apesar do potencial, essas ferramentas ainda enfrentam desafios. Vários desenvolvedores têm reclamado de relatórios com “bugs fantasmas” — problemas que a IA aponta, mas que não existem de verdade. Alguns chegaram até a comparar esses relatórios com “lixo gerado por IA”.
Como disse um desenvolvedor:
“O problema é que estamos recebendo muita coisa que parece ouro, mas no fim das contas é só porcaria.”
Mesmo assim, o consenso é que estamos apenas no começo de uma nova era. E se a tecnologia ainda não é perfeita, ela já está mostrando que pode ser uma grande aliada na proteção dos nossos sistemas no futuro.
