IA escreve o código. Quem garante a segurança?
O que muda e o que não muda quando você desenvolve com um copiloto de IA Provavelmente você já usa IA no seu fluxo de trabalho. GitHub Copilot, ChatGPT, Claude, não importa qual. A questão não é ma...

Source: DEV Community
O que muda e o que não muda quando você desenvolve com um copiloto de IA Provavelmente você já usa IA no seu fluxo de trabalho. GitHub Copilot, ChatGPT, Claude, não importa qual. A questão não é mais “vou adotar?” e sim: estou usando isso de forma segura? A resposta honesta, na maioria dos times, é: mais ou menos. A produtividade subiu. A atenção à segurança, nem sempre. Este não é um artigo alarmista anti-IA. É um guia prático sobre os riscos reais de ter uma IA como par de programação e o que fazer com eles. O problema com código que “parece certo” LLMs são treinados em bilhões de linhas de código público. E código público está cheio de vulnerabilidades, gambiarras e más práticas que viraram padrão ao longo dos anos (te amo mesmo assim stackoverflow). O modelo aprende tudo isso junto. O resultado? Pesquisas mostram que entre 30% e 40% dos snippets gerados têm pelo menos uma vulnerabilidade reconhecível: SQL injection sem parametrização, uso de MD5 para senhas, ausência de validação d