Ai ‘alucinações’ são um fenômeno bem documentado. Como os grandes modelos de idiomas estão apenas dando seu melhor palpite sobre qual palavra provavelmente virá a seguir e não entende coisas como o contexto, elas são propensas a simplesmente inventar as coisas. Entre fatos falsos de queijo e conselhos médicos que giram estômago, a desinformação como essa pode ser engraçada, mas está longe de ser inofensiva. Agora, pode realmente haver um recurso legal.

Um homem norueguês chamado Arve Hjalmar Holmen recentemente iniciou uma conversa com o ChatGPT para ver quais informações o Chatbot do Openai ofereceria quando ele digitou em seu próprio nome. Ele ficou horrorizado quando Chatgpt supostamente girou um fio falsamente reivindicando Ele matou seus próprios filhos e foi condenado a 21 anos de prisão (via TechCrunch). O aspecto mais assustador? Em torno da história do crime inventado, o Chatgpt incluiu alguns detalhes precisos e identificáveis ​​sobre a vida pessoal de Holman, como o número e o gênero de seus filhos, bem como o nome de sua cidade natal.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui