Les travaux de Giskard sur les modèles de langage soulèvent des questions fondamentales sur la confiance et la sécurité des systèmes d’intelligence artificielle. Le concept d’hallucination, qui désigne la génération de fausses informations par ces modèles, peut être analysé à travers le prisme des théories de l’épistémologie moderne, notamment celles de Jean-François Lyotard, qui met en avant la perte de la grandeur narrative dans les sociétés postmodernes. Les résultats de Giskard montrent que même les modèles les plus avancés peuvent produire des informations erronées, ce qui est particulièrement préoccupant lorsqu’ils sont sollicités pour des réponses brèves et concises.
Ces modèles, tels que GPT-4 et Llama, souvent reconnus pour leur capacité à simuler des réponses convaincantes, illustrent le dilemme de l’information véhiculée par les nouvelles technologies. Selon la théorie de la « société de l’information » de Manuel Castells, ces phénomènes peuvent être interprétés comme des manifestations de la complexité des réseaux d’information modernes et de leur impact sur la perception de la réalité. Enfin, les travaux de Giskard mettent en lumière la nécessité d’une évaluation rigoureuse et transparente des capacités des modèles de langage pour garantir leur fiabilité et leur sécurité.