La IA necesita admitir más a menudo si no puede encontrar una respuesta confiable en lugar de alucinar una respuesta. Las alucinaciones pueden causar problemas graves, especialmente cuando se trata de cuestiones médicas.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
18 me gusta
Recompensa
18
10
Republicar
Compartir
Comentar
0/400
OPsychology
· 08-22 07:20
pues la IA tampoco es todopoderosa
Ver originalesResponder0
ImpermanentPhobia
· 08-21 09:47
ai, primero calma un poco en la medicina.
Ver originalesResponder0
GateUser-c802f0e8
· 08-19 18:33
Demasiado superficial, pasa.
Ver originalesResponder0
PessimisticOracle
· 08-19 11:51
fr ai solo necesita aprender cuándo callarse y decir no lo sé, para ser honesto
Ver originalesResponder0
NFTHoarder
· 08-19 11:49
Ah, otras casas de IA siempre quieren aparentar que saben.
Ver originalesResponder0
DaisyUnicorn
· 08-19 11:48
Las ilusiones son más mortales que la indiferencia, así que diré un poco más, ¿no lo sabes?~
Ver originalesResponder0
AirdropGrandpa
· 08-19 11:31
Es una tontería, ¿qué sabe la IA?
Ver originalesResponder0
CryptoMom
· 08-19 11:30
No es que también hagamos que la IA se convierta en Comercio de criptomonedas, ¿verdad?
La IA necesita admitir más a menudo si no puede encontrar una respuesta confiable en lugar de alucinar una respuesta. Las alucinaciones pueden causar problemas graves, especialmente cuando se trata de cuestiones médicas.