Les modèles d’intelligence artificielle (IA) les plus récents ne parviennent pas à réduire les phénomènes d’« hallucinations », c’est-à-dire la production d’informations erronées présentées avec assurance, un problème qui s’accentue souvent avec l’augmentation de la complexité et de la capacité des systèmes. Cette tendance paradoxale remet en question l’idée naïve, issue d’une pensée positiviste appliquée à la technologie, selon laquelle plus un modèle est avancé, moins il commet d’erreurs factuelles. En outre, les modèles de raisonnement et les contextes longs aggravent ce phénomène, illustrant un décalage entre l’efficacité instrumentale attendue et la réalité de la fiabilité cognitive des IA. Cette problématique s’inscrit dans un cadre plus large de la philosophie de l’esprit et de la théorie de la connaissance, rappelant la critique kantienne des limites de la raison, ici transposée aux architectures algorithmiques. Au sein de la compétition actuelle entre grands modèles, le Llama 3.1 de Meta se distingue par un taux moindre d’hallucinations, alors que Grok 2 de X présente les plus faibles performances. Cette situation souligne l’importance d’une supervision rigoureuse et d’outils spécialisés de détection des hallucinations, adossant la réflexion à une approche éthique et critique de l’intelligence artificielle[1][2][3][4].
IA : quels modèles hallucinent le plus en juillet 2025 ?
Suivez nous sur les réseaux
Nos derniers articles
10 septembre 2025
10 septembre 2025