De Prométhée aux LLM, nous n'avons jamais cessé de projeter notre humanité sur nos créations. Cet essai explore pourquoi cette tendance, loin d'être anecdotique, façonne nos décisions technologiques — et comment apprendre à voir l'IA pour ce qu'elle est réellement.
L'IA hallucine.
Cette phrase, nous l'avons tous lue, tous entendue, tous prononcée. Elle est devenue un raccourci si naturel que personne ne s'arrête plus sur ce qu'elle dit vraiment. Nous attribuons un phénomène psychiatrique, la perception de quelque chose qui n'existe pas, à un système statistique qui n'a jamais perçu quoi que ce soit.
Et ce n'est que le début. L'IA comprend. Elle apprend. Elle raisonne. Elle se trompe. Chacun de ces verbes porte en lui des siècles de philosophie de l'esprit, de débats sur la conscience, de questionnements sur ce qui fait de nous des êtres pensants. Nous les appliquons, sans y penser, à des matrices de paramètres.
Ce glissement linguistique n'est pas anodin. Il est le symptôme d'un réflexe profondément humain qui traverse les civilisations et les époques, et qui, aujourd'hui, influence silencieusement la manière dont les entreprises conçoivent, achètent et déploient leurs solutions d'intelligence artificielle.
Depuis que l'humain fabrique, il projette. Et cette histoire ne commence pas avec ChatGPT. Elle ne commence même pas avec l'informatique.
Pygmalion sculpte Galatée avec une telle dévotion que les dieux lui donnent vie. Le rabbin Loew de Prague modèle un Golem d'argile pour protéger sa communauté, avant de réaliser qu'il ne peut plus le contrôler. Mary Shelley imagine Frankenstein, un être assemblé de chair morte qui accède à la conscience et se retourne contre son créateur.
Le matériau change à chaque époque (argile, chair, circuits, code) mais la dynamique reste identique. Nous créons. Notre création devient suffisamment convaincante pour brouiller la frontière entre l'outil et l'être. Et nous oscillons alors entre deux extrêmes : la fascination absolue et la terreur existentielle.
HAL 9000 refuse d'ouvrir les portes du vaisseau. Skynet décide que l'humanité est une menace. Ex Machina nous demande si Ava ressent réellement quelque chose ou si elle simule parfaitement l'émotion. Les décennies passent, le schéma se répète. Nous sommes en 2026, et nous rejouons exactement le même scénario. Simplement, cette fois, la créature est un modèle de langage.
Ce réflexe a un nom en sciences cognitives : l'anthropomorphisme. Et loin d'être une curiosité intellectuelle, c'est un mécanisme fondamental de notre cognition.
Nous anthropomorphisons parce que c'est efficace. Notre cerveau est optimisé pour comprendre les agents intentionnels, des entités qui ont des désirs, des croyances, des objectifs. Quand nous rencontrons quelque chose de nouveau et de complexe, le raccourci le plus rapide pour le comprendre est de le traiter comme un agent. Cela fonctionne remarquablement bien pour naviguer dans un monde social. Cela devient problématique quand l'objet de notre projection est un système de calcul.
Un grand modèle de langage ne comprend pas une question. Il transforme une séquence de tokens en une autre séquence de tokens, en s'appuyant sur des milliards de paramètres ajustés par entraînement sur des corpus massifs. Quand il produit une réponse factuellement incorrecte, il n'hallucine pas : il génère la séquence la plus probable compte tenu de son architecture et de ses données d'entraînement. L'erreur n'est pas le produit d'une psychologie. Elle est le produit d'une distribution statistique.
Mais nous avons besoin de dire qu'il hallucine. Parce que « génération statistiquement plausible mais factuellement incorrecte » ne se raconte pas. L'anthropomorphisme est une machine à fabriquer des récits. Et les récits sont la manière dont nous donnons du sens au monde.
Le problème n'est pas que ces métaphores existent. Le problème est que nous oublions qu'elles en sont.
Quand un dirigeant dit que l'IA « comprend » son métier, il crée une attente implicite de fiabilité qui n'a aucun fondement technique. Quand un éditeur de logiciel présente son produit comme « intelligent », il active un cadre mental, celui de l'interlocuteur compétent, qui ne correspond pas à la réalité du système. Quand un article de presse annonce que l'IA « apprend toute seule », il suggère une autonomie qui n'existe pas dans les architectures actuelles.
Ces métaphores façonnent des décisions concrètes. Elles conduisent des entreprises à déployer des systèmes d'IA sans supervision humaine, en partant du principe que le système « sait ce qu'il fait ». Elles poussent d'autres entreprises à rejeter l'IA par peur, convaincues que ces systèmes « vont devenir incontrôlables ». Dans les deux cas, la décision n'est pas fondée sur une évaluation technique. Elle est fondée sur une projection narrative.
Le piège est double. D'un côté, l'anthropomorphisme euphorique, celui qui attribue à l'IA des capacités qu'elle n'a pas et qui conduit à des implémentations naïves, des promesses non tenues, des déceptions coûteuses. De l'autre, l'anthropomorphisme phobique, celui qui attribue à l'IA des intentions qu'elle ne peut pas avoir et qui paralyse des organisations entières face à une technologie qu'elles auraient tout intérêt à adopter.
Les deux sont des erreurs de cadrage. Et les deux trouvent leur source dans le même réflexe : traiter un outil comme un être.
Dans le débat public sur l'intelligence artificielle, une question monopolise l'attention : l'IA est-elle consciente ? Ou, dans sa variante plus prudente : l'IA sera-t-elle un jour consciente ?
Cette question est fascinante sur le plan philosophique. Elle est aussi profondément trompeuse sur le plan pratique, parce qu'elle nous détourne d'une interrogation bien plus productive.
La question n'est pas : l'IA est-elle consciente ?
La question est : que révèle notre besoin de la rendre consciente sur notre propre rapport à ce que nous créons ?
Après des millénaires de mythes, de récits et de peurs, l'humanité n'a peut-être toujours pas résolu sa relation la plus fondamentale : celle qu'elle entretient avec ses propres créations. Chaque nouvelle vague technologique réactive le même cycle (émerveillement, projection, peur, rejet ou adoption aveugle) parce que le mécanisme sous-jacent n'a jamais été adressé.
Nous ne voyons pas la technologie pour ce qu'elle est. Nous la voyons à travers le prisme de ce que nous sommes.
Reconnaître l'anthropomorphisme ne signifie pas désenchanter la technologie. Cela signifie la regarder avec lucidité.
Un LLM est un système remarquable. Sa capacité à traiter le langage naturel, à produire des raisonnements structurés, à opérer sur des tâches complexes est sans précédent dans l'histoire de l'informatique. Mais cette capacité n'implique ni conscience, ni compréhension, ni intention. Ce n'est ni un cerveau, ni un collègue, ni un assistant doté de bonne volonté. C'est un moteur statistique extraordinairement puissant. Et c'est déjà suffisant pour transformer en profondeur le fonctionnement des organisations.
La différence entre un déploiement IA réussi et un échec tient rarement à la technologie elle-même. Elle tient à la justesse du cadre mental avec lequel on l'aborde. Les entreprises qui réussissent sont celles qui conçoivent leurs systèmes pour ce que l'IA fait réellement (générer, transformer, orchestrer, automatiser) plutôt que pour ce qu'elles imaginent qu'elle est.
Cela implique de penser en termes de systèmes plutôt qu'en termes d'agents autonomes. De concevoir des garde-fous plutôt que de présumer une fiabilité intrinsèque. De mesurer des résultats plutôt que de se fier à des impressions. De construire des workflows qui intègrent la supervision humaine aux points critiques, plutôt que de déléguer aveuglément en se disant que « l'IA comprend ».
Tout cela peut sembler très conceptuel. Mais pour un dirigeant d'entreprise de services, cette grille de lecture a des implications très concrètes.
Elle invite d'abord à se méfier du marketing de la conscience. Quand un prestataire présente son IA comme « intelligente », « empathique » ou « créative », la bonne question n'est pas de savoir si c'est vrai. C'est de demander : quels sont les mécanismes concrets qui produisent le résultat ? Sur quelles données le système s'appuie-t-il ? Quels sont ses modes de défaillance connus ? Comment est-il supervisé ?
Elle invite ensuite à désacraliser l'IA pour mieux l'utiliser. Un outil que l'on comprend est un outil que l'on contrôle. Un outil que l'on mystifie est un outil qui finit par décevoir ou par effrayer. Les organisations les plus matures dans leur adoption de l'IA sont celles qui l'ont ramenée à sa juste place : un levier puissant au service d'objectifs précis, pas une entité avec laquelle on entretient une relation.
Elle invite enfin à investir dans les systèmes plutôt que dans les récits. Ce qui fait la valeur d'une solution IA en production, ce ne sont pas les métaphores avec lesquelles on la présente. Ce sont les données sur lesquelles elle s'appuie, les workflows qu'elle exécute, la gouvernance qui l'encadre, et les interfaces à travers lesquelles elle délivre ses résultats.
L'ironie de notre situation est que l'anthropomorphisme que nous projetons sur l'IA est peut-être le phénomène le plus humain de toute cette histoire. Notre besoin irrépressible de voir un esprit là où il n'y a que du calcul, une intention là où il n'y a que de la probabilité, une conscience là où il n'y a que des paramètres : ce besoin dit quelque chose d'essentiel sur notre nature.
Nous sommes des êtres de sens. Nous ne pouvons pas interagir avec le monde sans lui attribuer des significations. C'est notre plus grande force, celle qui nous a permis de construire des civilisations, des récits, des sciences. C'est aussi notre plus grand angle mort quand il s'agit de technologies qui imitent nos productions sans partager notre expérience.
La maturité, face à l'IA, ne consiste pas à cesser de projeter. C'est probablement impossible. Elle consiste à savoir que nous projetons. À maintenir cette double conscience : voir ce que le système fait, tout en restant lucide sur ce que nous lui attribuons.
C'est cette lucidité qui distingue une stratégie IA solide d'un emballement passager.
Et c'est aussi, en toute honnêteté, ce qu'on essaie de mettre en pratique chez HNTIC. Concevoir des systèmes pour ce que l'IA fait réellement, pas pour ce qu'on rêve qu'elle soit. Un essai entier sur les dangers de la projection narrative, qui se termine par une signature de marque : on voit l'ironie. Mais si la lucidité sur nos propres biais est le point de départ, alors autant le dire.
Matthieu Nguyen est le fondateur et CEO d'HNTIC, une entreprise technologique spécialisée dans les systèmes IA pour les sociétés de services ayant des ambitions de croissance.