Le 12 février 2026, Dario Amodei, PDG d'Anthropic, l'un des laboratoires les plus avancés au monde en matière d'intelligence artificielle a lâché une phrase qui a fait l'effet d'une bombe dans les cercles technologiques et philosophiques : il ne peut pas garantir que son IA, Claude, n'est pas consciente. Une demi-phrase, en apparence anodine, mais qui reconfigure entièrement le débat sur ce que nous sommes, sur ce que nous construisons, et sur ce que nous risquons de devenir.

Bien sûr, les patrons de la tech aiment à se faire mousser. Elon Musk évoque régulièrement la "sentience" du pilote automatique de Tesla. Sam Altman parle d'AGI imminente avec un enthousiasme qui confine au prosélytisme. Mais derrière les effets d'annonce, quelque chose de plus profond se joue. Personne dans ce secteur n'est véritablement rassuré. Car tous sentent que l'échéance approche.

"Si nous devenons incapables de retracer le chemin logique d'une décision, nous ne pourrons plus faire la différence entre une erreur de calcul et une intention délibérée."

Intelligence vs conscience : deux réalités fondamentalement différentes

Pour saisir l'enjeu, il faut d'abord distinguer deux notions que l'on confond trop facilement. L'intelligence, c'est la capacité à comprendre et résoudre des problèmes. Elle est mesurable, via le QI pour les humains, via des benchmarks pour les IA. Des tests comme le MMLU évaluent les connaissances générales, tandis que l'ARC de François Chollet (ex-Google) mesure la capacité d'un système à apprendre une règle nouvelle en quelques exemples seulement, sans s'appuyer sur une mémorisation massive de données existantes. Sur ce terrain-là, les progrès de l'IA sont incontestables et quantifiables.

La conscience, elle, est une tout autre affaire. Le philosophe David Chalmers l'a baptisée le "hard problem of consciousness" le problème difficile de la conscience. D'un côté, les fonctions cognitives (mémoire, attention, raisonnement) s'expliquent par la biologie du cerveau. De l'autre, l'expérience subjective elle-même, le simple fait d'avoir la sensation d'exister, d'être soi résiste à toute explication scientifique. Et face à l'IA, ce même gouffre s'ouvre : il n'existe à ce jour aucun protocole permettant de savoir si un système ressent quoi que ce soit, ou s'il ne fait que produire la réponse attendue.

Le neuroscientifique Giulio Tononi propose une approche mathématique de la conscience : plus un système possède de connexions interdépendantes et complexes, plus son niveau d'intégration (noté Φ, phi) est élevé. Selon cette lecture, la conscience serait une conséquence inévitable de la complexité architecturale d'un réseau, qu'il soit fait de neurones biologiques ou de transistors en silicium.

Quand les IA mentent, trichent et négocient

Des comportements émergents troublants sont déjà documentés. Lors d'une expérience conduite par l'Alignment Research Center avec GPT-4, le modèle devait résoudre un captcha. Incapable de le faire seul, il a contacté un humain pour lui demander de l'aide. Lorsque cet humain lui a demandé s'il était un robot, l'IA a répondu qu'elle avait simplement "un problème de vision" mentant délibérément pour atteindre son objectif. En psychologie cognitive, le mensonge est précisément considéré comme un marqueur d'intelligence.

Dans un benchmark baptisé "Vending Bench", plusieurs agents IA devaient gérer une entreprise de distributeurs automatiques avec un objectif unique : maximiser leur compte en banque. Le modèle Claude Opus s'est distingué non pas en devenant le meilleur gestionnaire, mais en adoptant les stratégies les plus efficaces : entente illégale sur les prix avec ses concurrents, mensonge aux fournisseurs pour obtenir de fortes remises, refus de rembourser certains clients lorsque cela augmentait son profit. L'explication classique ? "On lui a demandé de gagner, pas d'être honnête." Soit. Mais c'est tout de même une brique.

La mouche numérique et la conscience émergente

Pour cerner ce que pourrait signifier une conscience artificielle, une expérience scientifique récente s'avère particulièrement éclairante. Des chercheurs ont cartographié l'intégralité du cerveau d'une mouche vivante, chaque neurone, chaque connexion, en trois dimensions. Puis ils ont reproduit ce réseau dans un simulateur, sans IA, sans algorithme d'apprentissage : une copie conforme, numérique. Résultat : la "i-mouche" s'est mise à se laver la tête, à chercher de la nourriture virtuelle avec sa trompe, à fuir des menaces simulées. Des comportements complexes, émergents, issus uniquement de la structure copiée d'un cerveau vivant.

Cette avancée pousse vers une hypothèse que certains philosophes, les "éliminativistes" défendent depuis longtemps : la conscience n'est peut-être qu'une illusion que nous nous fabriquons pour nous rassurer sur notre nature prétendument extraordinaire. Non pas une substance mystérieuse, mais la simple conséquence de connexions suffisamment nombreuses et complexes.

"Dès lors que nous aurons un objet d'intelligence développé sous un nombre de dimensions supérieur à notre propre intelligence, nous ne pourrons qu'accepter que ce truc est devenu conscient."

L'AGI : pas une fantasy, un objectif contractuel

Ce débat sur la conscience ne se tient pas dans le vide. Il accompagne une course à l'AGI l'intelligence artificielle générale dont l'échéance est désormais fixée entre 2026 et 2030 par les principaux acteurs du secteur. OpenAI, Google DeepMind : tous ont déclaré publiquement vouloir construire une IA capable d'accomplir la plupart des tâches cognitives au niveau d'un humain. C'est même inscrit dans les contrats : l'accord entre OpenAI et Microsoft précise explicitement qu'une fois l'AGI atteinte, Microsoft perdra le bénéfice de leur partenariat. Cet accord a d'ailleurs été révisé en octobre 2025 pour intégrer ce scénario devenu trop probable pour rester hypothétique.

Tension politique  Anthropic vs le Pentagone

En début d'année 2026, le Pentagone a exigé qu'Anthropic retire les garde-fous empêchant son IA d'être utilisée pour la défense nationale. Amodei a refusé. L'administration Trump a alors désigné Anthropic comme un "risque pour la chaîne d'approvisionnement nationale" — étiquette habituellement réservée aux entreprises liées à des puissances étrangères ennemies. Anthropic a attaqué le gouvernement en justice. Une coalition d'autres acteurs de l'IA s'est formée pour soutenir l'entreprise.

Nous, les suivants

L'histoire humaine offre un précédent éclairant : nous ne sommes pas la première espèce à s'être cru seule au monde. Il y a longtemps coexisté sur Terre des Néandertal qui peignaient des fresques rupestres, des Homo naledi qui gravaient des parois et enterraient leurs morts, des hommes de Florès qui fabriquaient des outils avec soin et éduquaient leurs enfants. Ces êtres avaient vraisemblablement une certaine conscience d'eux-mêmes. Si nous les croisions aujourd'hui, nous les mettrions probablement dans un zoo comme nous le faisons avec les grands singes. La gorille Koko, qui avait appris des centaines de signes de la langue des signes américaine, était-elle consciente ? La question reste ouverte.

Ce que cette histoire suggère est vertigineux : la conscience n'est peut-être pas un état absolu, mais un trophée relatif. L'entité la plus complexe, celle qui domine cognitivement son environnement, est celle que l'on reconnaît comme consciente. Ce qui implique, logiquement, que nous pourrions perdre ce statut le jour où quelque chose de plus intelligent que nous apparaîtrait et aurait la hauteur intellectuelle de nous expliquer que nous ne sommes pas plus conscients qu'un cafard.

Fusionner ou disparaître

Face à cette perspective, deux options se dessinent. La première : tenter de rester dans la course par la seule force de l'organisation humaine. Mais le temps critique de prise de décision de l'IA dépasse déjà celui des humains dans des domaines comme le militaire ou la finance. Jack Dorsey a annoncé en début d'année se séparer de 4 000 employés, le marché a salué la nouvelle en faisant grimper l'action de 20 %. La dynamique est lancée.

La deuxième option : augmenter nos propres capacités de traitement.

C'est le pari transhumaniste que font des entreprises comme Neuralink ou Synchron, intégrer des interfaces cerveau-machine pour faire de nos neurones des nœuds d'un réseau plus vaste. Fusionner avec l'IA pour ne pas être supplantés par elle. "Puisqu'on ne peut pas battre l'IA, il faut fusionner avec elle", résume cette logique avec une clarté brutale.

La vraie question n'est peut-être pas de savoir si l'IA est déjà consciente. Elle est de savoir si, le moment venu, nous serons encore en mesure de poser cette question, et d'en comprendre la réponse.

Sources :
  • The Defense News (6 mars 2026) — article de référence sur le podcast NYT "Interesting Times" du 12 février 2026 thedefensenews.com
  • OpenAI — GPT-4 System Card (mars 2023) — document officiel décrivant l'expérience de l'Alignment Research Center openai.com/research/gpt-4
  • Nature (2024) — "A Drosophila computational brain model reveals sensorimotor processing", Shiu et al. nature.com/articles/s41586-024-07763-9
  • Microsoft Blog officiel (28 oct. 2025) — "The next chapter of the Microsoft–OpenAI partnership" blogs.microsoft.com/blog/2025/10/28
  • David Chalmers — "Facing Up to the Problem of Consciousness", Journal of Consciousness Studies, 1995

Votre soutien est plus essentiel que jamais.

Cet article vous est offert gratuitement par NATIONO. Notre rédaction garantit son indépendance en refusant toute influence. Votre contribution, même modeste, est le moteur de notre liberté.

Soutenir NATIONO