Sélectionner une page

L’essentiel à retenir

Le TSU (Thermodynamic Server Unit) est une nouvelle génération de processeurs développée par l’entreprise Extropic. Contrairement aux puces classiques (CPU/GPU) qui luttent contre la chaleur pour effectuer des calculs précis (0 ou 1), le TSU exploite le “bruit thermique” et l’agitation naturelle des électrons pour réaliser des calculs probabilistes. Cette approche permet de contourner le mur énergétique actuel de l’IA, offrant une puissance de calcul massive pour une consommation électrique quasi nulle par rapport aux standards actuels.

On a un problème. Un gros.

Tu as sûrement vu passer les chiffres. Sam Altman qui demande 7 trilliards de dollars. Microsoft et Google qui envisagent sérieusement de racheter des centrales nucléaires pour faire tourner leurs data centers.

Pourquoi ? Parce qu’on a atteint un mur.

L’intelligence artificielle, telle qu’on la conçoit aujourd’hui, est une aberration énergétique. On utilise des puces hyper-rigides, conçues pour la certitude absolue (des 0 et des 1 parfaits), pour simuler du hasard et des probabilités (ce qu’est l’IA générative). C’est comme utiliser un bulldozer pour planter des tulipes. Ça marche, mais c’est lourd, c’est lent, et ça consomme un carburant dingue.

C’est là qu’intervient Guillaume Verdon. Ce français, ancien de chez Google (la division quantique), a posé une hypothèse qui change tout. Et si, au lieu de lutter contre la chaleur et le bruit des électrons, on les utilisait ?

Si tu es un décideur tech ou un entrepreneur, tu dois comprendre ce changement de paradigme. Ce n’est pas juste une nouvelle puce un peu plus rapide. C’est un retour à la physique fondamentale pour sauver l’économie de l’IA.

On va parler ici d’une technologie qui pourrait bien rendre ton budget GPU obsolète : TSU et Calcul Thermodynamique.

C’est quoi concrètement, le TSU et le Calcul Thermodynamique ?

Commençons par évacuer le jargon.

Aujourd’hui, tes ordinateurs fonctionnent sur une logique binaire. Le courant passe (1) ou ne passe pas (0). Pour maintenir cet ordre strict, il faut refroidir les puces. En permanence.

Dès que tu fais bouger un bit d’information, tu génères de la chaleur. C’est la limite de Landauer. C’est une loi physique, pas une opinion. Plus tu calcules, plus tu chauffes. Et nos GPU actuels, aussi puissants soient-ils, passent leur temps à se battre contre cette chaleur. Ils consomment 10 000 fois plus d’énergie que le minimum théorique imposé par la physique. C’est du gaspillage pur.

Le TSU (Thermodynamic Server Unit) prend le problème à l’envers.

Au lieu d’essayer de supprimer le “bruit” (l’agitation naturelle des électrons due à la chaleur), le TSU l’utilise comme source de calcul.

Imagine que tu cherches la balle la plus lourde dans une boîte remplie de milliers de balles.

  • L’approche classique (GPU) : Tu prends chaque balle, tu la pèses, tu notes le résultat, tu tries. C’est long et laborieux.

  • L’approche thermodynamique (TSU) : Tu secoues la boîte. Les balles les plus lourdes tombent naturellement au fond grâce à la gravité et à l’agitation.

Le TSU fait exactement ça avec des électrons. Il utilise le chaos naturel de la matière pour trouver des solutions probables à des problèmes complexes. C’est ce qu’on appelle le TSU et le Calcul Thermodynamique.

C’est une puce qui ne calcule pas contre la nature, mais avec elle.

Pourquoi l’IA actuelle va droit dans le mur sans cette technologie ?

Soyons clairs : le modèle actuel n’est pas tenable.

Je discutais l’autre jour avec un DSI d’une grosse PME industrielle. Il me disait : “On veut intégrer de l’IA générative en local pour nos process, mais le coût matériel est juste délirant”.

Il a raison.

L’IA générative (les LLM comme GPT-4 ou Claude) ne fait pas de calculs exacts. Elle fait des prédictions. Elle “devine” le mot suivant. C’est un processus probabiliste.

Or, on fait tourner ces processus probabilistes sur des machines déterministes (nos ordinateurs classiques). Pour simuler du hasard sur une machine qui déteste le hasard, il faut une puissance de calcul phénoménale. C’est une inefficacité structurelle.

C’est là que le TSU change la donne.

En utilisant le TSU et le Calcul Thermodynamique, on aligne le matériel (hardware) avec le logiciel (software). On utilise une puce physiquement probabiliste pour faire tourner des algorithmes probabilistes.

Résultat ? On supprime l’intermédiaire inutile. On n’a plus besoin de simuler le hasard, on l’a “gratuitement” grâce à la physique des électrons.

Les enjeux pour toi sont simples :

  1. Coût : Si cette technologie tient ses promesses, le coût de l’inférence (faire tourner l’IA) pourrait être divisé par 1000.

  2. Souveraineté : Tu pourrais faire tourner des modèles massifs en local, sans dépendre du cloud d’Amazon ou de Microsoft.

  3. Énergie : On arrête de faire bouillir les océans pour générer des images de chats.

Comment fonctionne cette magie noire (expliqué simplement) ?

Pas besoin d’un doctorat en physique pour saisir l’opportunité.

Le principe repose sur l’exploitation du “bruit thermique”. Dans n’importe quel circuit électronique, les électrons bougent un peu n’importe comment à cause de la température. D’habitude, les ingénieurs d’Intel ou de Nvidia détestent ça. Ils mettent des barrières, des corrections d’erreurs, des “gardes-fous” pour s’assurer que le signal reste pur.

Guillaume Verdon et son équipe chez Extropic ont décidé d’enlever les gardes-fous.

Voici la logique étape par étape :

  1. Lâcher prise : On laisse le système évoluer librement sous l’influence de la chaleur ambiante.

  2. L’échantillonnage : Le TSU capture des états aléatoires générés par ce bruit thermique. Ces états correspondent à des distributions de probabilités (exactement ce dont un réseau de neurones a besoin).

  3. L’accélération : Comme on ne force pas le système à être dans un état précis (0 ou 1) mais qu’on le laisse “fluctuer”, la vitesse de transition est extrêmement rapide et demande très peu d’énergie.

  4. Le résultat : On obtient un résultat mathématique utilisable pour l’IA, généré par la physique elle-même, et non par une simulation logicielle gourmande.

C’est un peu comme faire de l’aïkido avec l’électricité. Tu utilises la force de l’adversaire (la chaleur) pour gagner, au lieu de la bloquer.

C’est pour cette raison que le TSU et le Calcul Thermodynamique sont souvent décrits comme la seule voie viable pour l’après-loi de Moore.

img-2

Est-ce que ça remplace vraiment nos GPU ?

C’est la question à un million. Faut-il jeter tes H100 à la poubelle ? Pas tout de suite.

Le TSU n’est pas fait pour lancer Excel ou faire ta comptabilité. Pour des tâches qui demandent une précision absolue (1 + 1 = 2), le processeur classique reste roi.

Mais pour l’IA, c’est une autre histoire. Regardons les différences concrètes.

Critère GPU Classique (Nvidia, etc.) TSU (Extropic / Calcul Thermodynamique)
Philosophie Déterministe (Précision absolue) Probabiliste (Gestion du flou/hasard)
Gestion de la chaleur Ennemi n°1 (Systèmes de refroidissement massifs) Carburant (Source d’entropie utilisée pour le calcul)
Consommation Énorme (10 000x la limite physique) Minimale (Proche de la limite physique)
Usage idéal Calculs exacts, Rendu graphique, Logiciels classiques IA Générative, Réseaux de neurones, Optimisation complexe
Scalabilité Limitée par l’énergie et la chaleur Limitée par la fabrication (encore au début)

Selon les premiers papiers de recherche d’Extropic, cette architecture permettrait d’accélérer les algorithmes d’IA générative de plusieurs ordres de grandeur tout en consommant une fraction de l’énergie.

Ce n’est pas une simple “amélioration”. C’est une rupture.

Quelles sont les erreurs à ne pas commettre sur ce sujet ?

En tant que dirigeant, tu vas entendre beaucoup de bruit autour de cette tech dans les mois à venir. Voici où ne pas mettre les pieds.

1. Confondre TSU et Ordinateur Quantique

C’est l’erreur classique. L’ordinateur quantique (QPU) utilise des qubits, la superposition et l’intrication. C’est génial, mais c’est instable, ça demande un froid proche du zéro absolu et c’est encore très théorique pour le business. Le TSU et le Calcul Thermodynamique fonctionnent à température ambiante. C’est de la physique classique, pas quantique. C’est beaucoup plus “terre à terre” et potentiellement déployable bien plus vite.

2. Croire que le Software va tout sauver

J’entends souvent : “On va optimiser le code, ça va passer”. Faux. L’optimisation logicielle a des limites. Quand tu dois multiplier des milliards de matrices pour un seul prompt GPT, tu te heurtes à la physique. Si tu ne changes pas le hardware, tu resteras bloqué par la facture électrique.

3. Sous-estimer l’impact sur le Business Model

Si le coût du calcul tombe à zéro (ou presque), la barrière à l’entrée de l’IA s’effondre. Aujourd’hui, OpenAI a un “moat” (fossé défensif) parce que entraîner un modèle coûte 100 millions. Avec des puces thermodynamiques, ce fossé pourrait disparaître. N’importe quelle PME pourrait entraîner son propre modèle expert. Si tu ne prépares pas tes données maintenant, tu seras en retard quand le hardware sera disponible.

Conclusion

On vit un moment charnière.

Jusqu’à présent, la “Loi de Moore” consistait à graver des transistors de plus en plus petits. C’est fini. On est arrivé à la taille de l’atome. On ne peut pas aller plus bas sans que la physique quantique ne vienne tout casser.

L’industrie tech a deux choix :

  1. Continuer à empiler des GPU jusqu’à devoir recouvrir la planète de panneaux solaires.

  2. Changer la façon dont on calcule.

Le TSU et le Calcul Thermodynamique représentent cette deuxième option. C’est le pari de l’intelligence par le chaos. C’est le pari de dire que l’imperfection physique est en fait une ressource.

Pour toi, entrepreneur, le message est simple : l’IA d’aujourd’hui est chère et centralisée à cause de contraintes matérielles. L’IA de demain, libérée par la thermodynamique, sera omniprésente, locale et bon marché.

Prépare ton entreprise à ce monde-là.


FAQ

Le TSU est-il déjà disponible sur le marché ? Non, pas encore en grande série. Extropic a présenté des prototypes et des preuves de concept. La technologie est en phase de développement matériel, mais les premiers tests valident la théorie.

Quelle est la différence avec une puce neuromorphique ? Les puces neuromorphiques tentent d’imiter l’architecture biologique du cerveau (synapses). Le TSU se concentre spécifiquement sur l’utilisation du bruit thermique pour les calculs probabilistes. Les deux approches visent l’efficacité énergétique, mais par des chemins différents.

Est-ce que cela va remplacer les développeurs ? Non. Cela va changer tourne le code, pas qui l’écrit. Par contre, cela permettra aux développeurs de créer des applications IA beaucoup plus complexes sans se soucier autant des contraintes de ressources serveur.

Pourquoi Guillaume Verdon est-il central dans cette histoire ? Guillaume Verdon (alias “Beff Jezos” sur Twitter/X) est le fondateur d’Extropic. C’est un physicien et ingénieur qui a théorisé cette approche en reliant la thermodynamique hors équilibre et l’apprentissage profond (Deep Learning). Il est la figure de proue de ce mouvement.

Le TSU et le Calcul Thermodynamique sont-ils écologiques ? Oui, c’est leur argument principal. En travaillant avec la thermodynamique plutôt que contre elle, on élimine le besoin massif de refroidissement et on réduit la consommation électrique des calculs d’IA de manière drastique.

img-3

Restez informé et inspiré

Chaque mois, des ressources et des actualités.

Pin It on Pinterest

Social Selling CRM
Résumé de la politique de confidentialité

Ce site utilise des cookies afin que nous puissions vous fournir la meilleure expérience utilisateur possible. Les informations sur les cookies sont stockées dans votre navigateur et remplissent des fonctions telles que vous reconnaître lorsque vous revenez sur notre site Web et aider notre équipe à comprendre les sections du site que vous trouvez les plus intéressantes et utiles.