**Résumé conceptuel :**
L’émergence de l’IA générative, catalyseur d’innovation depuis ChatGPT (2022), soulève des enjeux épistémologiques majeurs, à la croisée des théories de la fiabilité systémique (Heidegger) et des risques technologiques (Beck). Le danger central réside dans l’instabilité intrinsèque des modèles, susceptibles de générer des réponses *subtilement fallacieuses*, évoquant le concept de *« boîte noire »* (Latour) où l’opacité algorithmique entrave la traçabilité des décisions. Ce phénomène s’inscrit dans les réflexions sur l’*agency* non-humaine (Bennett), l’IA agissant comme un acteur ambigu dont l’influence sur les choix humains peut conduire à des distorsions cognitives collectives.
La vulnérabilité de ces systèmes aux manipulations malveillantes ou aux biais involontaires rejoint les travaux sur la *sécurité algorithmique* (Floridi), où l’intégrité des données d’entraînement et la robustesse des architectures deviennent des impératifs éthiques. L’article suggère implicitement un dépassement du cadre purement technologique vers une approche socio-technique, inspirée par les théories de la *co-construction homme-machine* (Suchman), pour garantir une gouvernance responsable. La préservation de la « valeur » de l’IA renvoie ainsi à un équilibre fragile entre innovation disruptive et régulation préventive, écho contemporain du dilemme habermassien entre progrès technique et préservation de l’agir communicationnel.
*(195 mots)*