La question de la fiabilité des détecteurs de texte généré par l’IA soulève des interrogations intellectuelles et conceptuelles profondes. En effet, ces outils, bien que perfectionnés, semblent encore incapables de fournir des résultats précis à 100 %[1][5]. Ce phénomène rappelle les réflexions de penseurs comme Jean-François Lyotard, qui a théorisé la perte de la confiance dans les grands récits, incluant ici les promesses de l’IA[5]. Les détecteurs d’IA, malgré leur avancement, ne sont pas exemptés de biais et d’erreurs, comme le montre l’exemple de textes historiques signalés à tort comme étant générés par l’IA[5]. Cette situation illustre la tension entre la technologie avancée et la complexité humaine, où la confiance en l’IA est souvent déçue par ses limites pratiques[4][5].
Les courants de pensée critiques, comme la philosophie de la technologie, mettent en lumière ces problèmes, soulignant que l’IA, bien que puissante, ne peut pas encore surpasser la créativité et la complexité humaine dans la rédaction de textes[5].