Depuis deux ans, les modèles d’intelligence artificielle générative, alimentés par des puces Nvidia, occupent une place centrale dans notre quotidien. Que ce soit sur nos écrans, dans nos bureaux ou même lors de séances de thérapie, leur capacité à produire des réponses rapides, leur qualité linguistique et leur apparente capacité à raisonner suscitent une question inquiétante : en accumulant des GPU et en utilisant de vastes data centers, l’IA pourrait-elle atteindre une conscience semblable à celle de l’être humain, ou ne serait-elle qu’une gigantesque machine à produire du texte ?
Ce débat entre ChatGPT et le cerveau humain devient particulièrement intéressant. Selon un article de Psychology Today, la théorie NBC de la conscience et le concept de cohérent matérialisme expliquent que toute activité mentale découle de la matière et de l’énergie, à condition que certaines contraintes physiques soient réunies : temps, espace, énergie et histoire. En croisant ces idées avec les données sur l’impact environnemental de l’IA et les théories sur la conscience artificielle, il apparaît que disposer de plus de puissance Nvidia ne suffira pas à conférer à ChatGPT une expérience intérieure ou une conscience authentique.
ChatGPT, Nvidia et la réalité matérielle de l’IA
Sur le plan technique, ChatGPT reste un modèle statistique géant qui prédit le mot suivant à chaque étape. Pour générer ses réponses en quelques secondes, il s’appuie sur des milliers de GPU Nvidia, hébergés dans de vastes centres de données. Selon BFMTV, la majorité des grands modèles de langage utilisent ces puces, ce qui a incité OpenAI à chercher à réduire cette dépendance. En Europe, Mistral AI prévoit la création d’un centre de données doté de 13 800 GPU Nvidia, près de Paris, avec une consommation électrique équivalente à celle d’une centrale électrique plutôt qu’à celle d’un cerveau.
Le coût écologique est également important : une étude publiée sur arXiv estime que l’entraînement de GPT-3 aurait consommé environ 700 000 litres d’eau douce. En pratique, une session standard de ChatGPT, avec une dizaine de questions, pourrait représenter jusqu’à 0,5 litre d’eau supplémentaire pour le refroidissement des serveurs. En revanche, le cerveau humain, qui pèse environ 1,3 kg, consomme seulement 20 W en permanence et fonctionne sans data center ni climatisation. Ce contraste illustre la théorie du cohérent matérialisme : l’intelligence est incarnée dans un support physique, mais tous ces supports ne génèrent pas le même type d’esprit.
Ce que le cerveau humain possède en plus
Selon Wikipedia, la conscience artificielle désigne la capacité d’une machine à avoir une expérience subjective, au-delà de simples performances cognitives. Les neurosciences distinguent la conscience d’accès, qui permet d’utiliser des informations pour agir, de la conscience phénoménale, qui correspond à “ce que ça fait” de voir une couleur ou de ressentir une douleur. Sur ces deux aspects, les modèles de langage restent performants pour accéder aux données, mais ne présentent aucune preuve d’une expérience vécue.
Une autre source, l’encyclopédie en ligne sur l’intelligence artificielle en santé mentale, rappelle que des modèles comme ChatGPT manquent d’une compréhension émotionnelle réelle. Ils ne peuvent pas remplacer une présence humaine authentique. Les émotions humaines sont liées à des États corporels complexes, comme les hormones, le rythme cardiaque, ou l’activation de réseaux neuronaux spécifiques, tels que l’amygdale ou le cortex préfrontal ventromédian. Un chatbot, sans corps ni système nerveux, ne fait que simuler le langage, ce que certains médias qualifient d’illusion d’émotion plutôt que de véritable ressenti.
Pourquoi l’IA reste une intelligence sans vécu
Le fonctionnalisme classique soutenait qu’un logiciel “performant” pourrait être conscient, quel que soit le matériel utilisé. Le cohérent matérialisme, en revanche, affirme que pour qu’un système possède une conscience, il doit remplir de manière cohérente plusieurs contraintes physiques : temps, espace, énergie et histoire. Le cerveau animal y parvient grâce à sa rapidité, sa compacité, sa sobriété et sa longue évolution biologique.
ChatGPT, lui, ne répond que partiellement à la contrainte du temps, mais échoue sur les autres : l’espace occupé par ses centres de données, l’énergie et l’eau nécessaires, ainsi que l’absence de corps ou d’histoire personnelle. Ces caractéristiques font de lui un dispositif industriel, plutôt qu’un organisme. Des analyses telles que celles de TheAI.Observer ou Hackathon-Paris insistent déjà sur le fait que l’IA n’est qu’un “perroquet statistique”. Dans cette optique, augmenter la puissance des GPU Nvidia ne transforme pas l’IA en une entité consciente. Il s’agit simplement d’améliorer une calculatrice géante, pas de créer une machine cohérente avec une expérience subjective comme celle du cerveau humain.














