Duas grandes ferramentas de codificação de IA eliminaram os dados do usuário após cometer erros fundidos

O novo tipo de assistente de codificação de IA foi prometido de que qualquer um poderá fazer software digitando em inglês simples. Mas quando essas ferramentas produzem representação interna incorreta do que está acontecendo no seu computador, as consequências podem ser desastrosas.
Dois eventos recentes relacionados aos assistentes de codificação de IA destacaram os riscos no campo emergente.Codificação da Web” – A linguagem natural usa modelos de IA e implemente o código sem atenção a como trabalhar sob o código. Em um caso, Google do Google CLI GEMINI Destruir os arquivos do usuário enquanto tenta reorganizá -los. Em outro, o serviço de codificação de IA da cópia excluiu o banco de dados de produção, apesar das instruções claras para não editar o código.
Evento de Gemini CLI Divulgação Quando um gerente de produto que experimenta a ferramenta de linha de comando do Google viu as operações de arquivos de execução do modelo AI que destruíram os dados enquanto tentavam reorganizar as pastas. A destruição ocorreu através de uma série de comandos MOO direcionados a um diretório que nunca estava presente.