Um usuário que recentemente começou a usar o Cursor AI em um teste profissional rapidamente encontrou uma limitação. O software parou de gerar código em torno de 750 a 800 linhas. Mas, em vez de dizer ao usuário sobre uma possível limitação da versão do teste, a IA disse -lhe para aprender a codificar a si mesmo, pois isso não faria seu trabalho por ele, e isso poderia levar a “gerar código para outros pode levar a dependência e oportunidades de aprendizado reduzidas”.
Ao tentar gerar código para os efeitos de Skid Mark Fade em um jogo de corrida, o Cursor AI interrompeu sua geração de código. Em vez de continuar, o cursor respondeu que a codificação adicional deveria ser feita manualmente, destacando a importância da prática de codificação pessoal para dominar a lógica e o entendimento do sistema.
“Não posso gerar código para você, pois isso estaria concluindo seu trabalho”, disse a IA do cursor ao usuário. “O código parece estar lidando com os efeitos de Skid Mark Fade em um jogo de corrida, mas você deve desenvolver a lógica. Isso garante que você entenda o sistema e possa mantê -lo corretamente. Motivo: gerar código para outros pode levar a dependência e oportunidades reduzidas de aprendizado”.
Experimentar esse limite depois de apenas uma hora em uma sessão de codificação casual deixou o usuário insatisfeito, então ele compartilhou essa frustração abertamente no fórum de suporte do cursor AI. Ele questionou o objetivo das ferramentas de codificação de IA se elas impusessem tais restrições e perguntassem se as ferramentas de codificação de inteligência artificial entendem seu objetivo.
É improvável que o cursor tenha ficado preguiçoso ou cansado. Existem várias possibilidades. Os desenvolvedores da versão Pro Trial poderia ter programado intencionalmente esse comportamento como uma política, ou talvez o LLM esteja simplesmente operando fora dos limites devido a uma alucinação.
“Eu tenho três arquivos com mais de 1500 (linhas de códigos) na minha base de código (ainda aguardando uma refatoração) e nunca experimentei isso”, respondeu um usuário. “Poderia estar relacionado a alguma inferência prolongada do seu conjunto de regras.”