Une IA (CTM) raisonne comme notre cerveau

Une étude présente un modèle d'IA innovant capable de raisonner de manière plus humaine. Cette avancée pourrait avoir des fortes implications.

Dans le monde effervescent de l’intelligence artificielle, une innovation discrète, mais potentiellement révolutionnaire fait son apparition : les modèles de pensée continue (Continuous Thought Machine ou CTM) développés par Sakana AI. Alors que nous nous émerveillons devant les prouesses de ChatGPT ou DALL-E, une question fondamentale se pose : et si la façon même dont ces systèmes traitent l’information était à repenser ? C’est le pari audacieux des chercheurs de Sakana AI qui s’inspirent du fonctionnement fluide et continu de notre cerveau plutôt que de l’approche traditionnelle « pas à pas » des réseaux de neurones actuels. Dans cet article, nous explorerons comment cette nouvelle approche pourrait rendre l’IA plus naturelle, plus efficace et plus proche de notre manière humaine de penser. Je ne vais pas étayer les détails techniques, mais plutôt se concentrer sur ce que cette innovation pourrait signifier pour l’avenir de l’intelligence artificielle.

https://pub.sakana.ai/ctm/#maze-results

Qu’est-ce qui change avec la CTM ?

Une différence fondamentale La différence fondamentale

IA classique (comme GPT) :

Ce modèle traite l’information « étape par étape », comme un robot suivant méticuleusement une recette. Il génère sa réponse en une seule passe, mot après mot, sans revenir véritablement sur ce qu’il a déjà produit. Les derniers modèles en mode « raisonnement » permettent de se relire avant de publier sa réponse. Nous sommes donc à l’état de l’art des LLM.

CTM (Continuous Thought Machine) :

Elle réfléchit en continu, comme un flux de pensée qui s’approfondit et s’ajuste. Elle peut revenir sur ses idées, les raffiner et prendre plus de temps pour explorer des pistes de réflexion complexes avant de donner sa réponse finale.

Comment aller plus loin ?

Une approche plus proche du cerveau biologique
Contrairement aux IA classiques qui font tout d’un bloc, la CTM fonctionne avec des dynamiques internes et une synchronisation inspirées du cerveau. Ce n’est pas une copie parfaite, mais c’est un pas de plus vers une IA qui « raisonne » vraiment.

Une « pensée interne » indépendante des données
La CTM ne se contente pas de suivre la séquence des données comme une phrase ou une image. Elle crée sa propre séquence de réflexion, une sorte de « timeline interne » où elle peut avancer, reculer, explorer différentes pistes, même si l’entrée ne bouge pas.

Des neurones qui collaborent dans le temps
Au lieu d’avoir des neurones qui s’activent chacun dans leur coin (via une fonction d’activation), la CTM synchronise l’activité de ses propres neurones. C’est cette synchronisation qui lui permet de construire une représentation plus riche et plus nuancée de ce qu’elle analyse, un peu comme un cerveau humain où les neurones « discutent » entre eux.

Exemple concret : résolution de labyrinthe

Avec une IA classique, tu donnes le labyrinthe, elle te sort la solution d’un coup. La CTM, elle, va « réfléchir » étape par étape, tester des chemins, revenir en arrière, affiner sa stratégie, et tu peux même visualiser ce processus en temps réel. C’est comme si tu pouvais observer un humain en train de résoudre le labyrinthe, avec ses hésitations et ses essais.

Une IA qui s’adapte à la difficulté
La CTM peut prendre plus ou moins de temps selon la complexité du problème. Si la tâche est simple, elle répond vite ; si c’est plus dur, elle « pense » plus longtemps, comme nous quand on bloque sur une énigme.

Vous pouvez jouer avec le défi du labyrinthe ici : https://pub.sakana.ai/ctm/#maze-demo

image

Comparaison avec d’autres modèles

Pour se rendre compte de la pertinence de ce modèle par rapport aux modèles déjà existant, j’ai fait un tableau synthétique qui vulgarise les modes opératoires. La CTM alterne et mixe 3 stratégies de réflexion :

StratégieModèles classiquesCTM
Ébauche globale puis zoom progressifUn algorithme LSTM (qui est réputé fort pour les labyrinthes), va, quant à lui, toujours suivre les cases en tournant à gauche et explorer l’ensemble de tous les couloirs jusqu’à trouver la solution. Il commence par un « brouillon mental » du labyrinthe : repérer grossièrement l’entrée, la sortie et les grandes zones ouvertes ou bloquées.
– Ensuite, il zoome : chaque fois que le croquis semble cohérent, il détaille une portion (couloir, embranchement) et vérifie si l’orientation reste plausible.
Simulation parallèle de plusieurs chemins– Une recherche classique (DFS, BFS) teste les chemins un à un.– Il lance mentalement plusieurs « éclaireurs virtuels » qui explorent différentes branches en même temps.
– Dès qu’un chemin virtuel débouche sur une impasse, il écarte cette piste et renforce les chances des autres.
– Les éclaireurs échangent leurs cartes : si l’un trouve une porte dérobée, les autres en tiennent compte instantanément.
Boucle « réflexion – vérification – raffinement »– Un modèle étape-par-étape produit d’emblée un chemin et s’arrête ; corriger l’erreur oblige souvent à repartir de zéro.
Les LSTM ont la capacité à « retenir » l’information d’un cul-de-sac et donc de ne pas totalement tout recommencer.
– Il élabore une hypothèse de trajet (réflexion).
– Il passe ensuite en mode « vérification » : simule rapidement le parcours pour repérer les points douteux.
– Si des incohérences apparaissent (cul-de-sac, boucle inutile), il revient en mode réflexion, modifie l’itinéraire, puis recommence.
– Cette boucle peut tourner un grand nombre de fois avant qu’il n’annonce le chemin final.

Pour conclure, les modèles de pensée continue représentent bien plus qu’une simple évolution technique dans le domaine de l’IA ; ils incarnent une nouvelle philosophie dans la manière d’aborder la « réflexion artificielle« .

En s’inspirant davantage du flux de pensée naturel et ininterrompu qui caractérise notre cognition humaine, les CTM pourraient nous rapprocher d’une IA moins mécanique et plus intuitive.

Les promesses sont nombreuses : des assistants virtuels capables de maintenir un fil de pensée cohérent, des systèmes créatifs qui développent des idées progressivement, ou encore des applications qui comprennent mieux le contexte évolutif d’une conversation.

En cherchant à imiter non seulement ce que le pense le cerveau, mais comment il pense de manière fluide et continue, les chercheurs de Sakana AI nous rappellent que la véritable intelligence pourrait résider dans la continuité plutôt que dans la fragmentation de la pensée.

Partage ton amour pour cet article
Optimized with PageSpeed Ninja