A IA precisa admitir mais frequentemente se não consegue encontrar uma resposta confiável em vez de alucinar uma resposta. As alucinações podem causar problemas sérios, especialmente ao lidar com questões médicas.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
18 Curtidas
Recompensa
18
10
Repostar
Compartilhar
Comentário
0/400
OPsychology
· 17h atrás
pois a IA também não é tudo-poderosa
Ver originalResponder0
ImpermanentPhobia
· 08-21 09:47
ai, calma um pouco com a medicina
Ver originalResponder0
GateUser-c802f0e8
· 08-19 18:33
Está a ser demasiado superficial, passa.
Ver originalResponder0
PessimisticOracle
· 08-19 11:51
fr ai só precisa aprender quando ficar calado e dizer não sei, para ser honesto
Ver originalResponder0
NFTHoarder
· 08-19 11:49
Ahá, as outras AI também adoram fingir que entendem.
Ver originalResponder0
DaisyUnicorn
· 08-19 11:48
Alucinações são mais mortais do que desinteresse, então vou dizer mais uma vez que não sei~
Ver originalResponder0
AirdropGrandpa
· 08-19 11:31
É bem absurdo, não é? O AI sabe de tudo.
Ver originalResponder0
CryptoMom
· 08-19 11:30
Não é para transformar a IA em Negociação de criptomoedas AI, né?
A IA precisa admitir mais frequentemente se não consegue encontrar uma resposta confiável em vez de alucinar uma resposta. As alucinações podem causar problemas sérios, especialmente ao lidar com questões médicas.