IA : quels modèles hallucinent le plus ?
Les travaux de Giskard sur les modèles de langage soulèvent des questions fondamentales sur la confiance et la sécurité des systèmes d’intelligence artificielle. Le concept d’hallucination, qui désigne la génération de fausses informations par ces modèles, peut être analysé à travers le prisme des théories de l’épistémologie moderne, notamment celles