En 1982, Carver Mead introduit la notion de circuits inspirés par le fonctionnement du cerveau, alors que l’informatique conventionnelle domine sans partage. Les architectures traditionnelles peinent à reproduire la flexibilité et l’efficacité énergétique des systèmes biologiques.Des ingénieurs et chercheurs issus de disciplines longtemps cloisonnées unissent alors leurs efforts pour dépasser les limites du calcul classique. Cette convergence donne naissance à une discipline hybride, à la croisée de l’électronique, de la biologie et des sciences cognitives.
Aux origines de l’ingénierie neuromorphique : quand la biologie inspire la machine
Difficile d’aborder l’ingénierie neuromorphique sans revenir à cette obsession tenace qui anime la communauté scientifique : décoder le cerveau humain. Explorer la nature, démonter ses circuits, tenter d’en saisir les algorithmes, puis rêver de les copier pour concevoir des systèmes artificiels,cette ambition a longtemps paru utopique. Pourtant, elle a déclenché une rupture dans l’histoire de l’informatique, poussant les équipes à sortir du schéma rigide et séquentiel des ordinateurs classiques. À la clé : des machines capables, un jour, de rivaliser avec la souplesse du vivant.
Retour aux années 1940. Warren McCulloch et Walter Pitts proposent une première modélisation du réseau de neurones artificiels, entièrement façonnée à partir du système nerveux biologique. À l’époque, leur schéma est sommaire, mais la volonté est là : injecter une pointe d’intelligence humaine au sein de circuits de silicium. Peu à peu, ce mélange d’intuition et de mathématiques va séduire un vaste cercle de chercheurs, bien au-delà de l’informatique pure.
Des collaborations inédites émergent alors. Biologistes, informaticiens, physiciens croisent méthodes et langages pour concevoir de nouvelles générations de machines moins énergivores, capables d’apprentissage et d’évolution. Ce croisement des disciplines donne le jour à des types d’innovations que l’on peut synthétiser ainsi :
- des systèmes neuronaux artificiels capables de rivaliser avec l’intelligence humaine,
- des systèmes de vision artificielle puissants et rapides,
- des robots autonomes doués de réflexes, dotés de sens proches du vivant.
Peu à peu, réseaux de neurones et perceptrons deviennent incontournables et donnent à l’intelligence artificielle un ancrage plus biologique, plus proche de ce qui se joue vraiment dans notre crâne.
Quels sont les inventeurs qui ont façonné ce domaine ?
L’ingénierie neuromorphique n’aurait jamais pris forme sans une poignée de visionnaires,des chercheurs dont les intuitions, parfois météoriques, ont bouleversé le paysage scientifique. Dès la sortie des années 1940, Warren McCulloch et Walter Pitts publient une théorie du neurone formel : le dialogue entre logique et biologie qu’ils initient ouvre la brèche de la pensée mécanisée.
Ce socle intellectuel prépare le terrain à Frank Rosenblatt. À la fin des années 1950, il met au point le perceptron, un réseau de neurones artificiel qui annonce l’ère de l’apprentissage automatique. En parallèle, Claude Shannon établit la théorie de l’information, alors que John von Neumann formalise l’idée de systèmes automatiques. Deux pierres angulaires pour toutes les recherches à venir sur les systèmes complexes.
Puis, changement d’époque : début des années 1980, Carver Mead invente le mot « neuromorphique» et passe à la réalisation matérielle avec les premiers circuits électroniques qui s’inspirent de l’anatomie cérébrale. Dans la décennie précédente, la conférence organisée par John McCarthy et Marvin Minsky marque durablement les esprits, installant l’intelligence artificielle dans les discours scientifiques. Tous s’inscrivent dans une filiation où l’on croise des figures tutélaires comme Alan Turing ou Stephen Cole Kleene, qui, chacun à leur façon, posent les jalons fondamentaux,machines abstraites, automates, formalisme mathématique.
Chaque personnage, au fil du temps, enrichit cet édifice collectif : modèles intellectuels, percées techniques, jusqu’à construire un domaine résolument hybride, où la logique électronique rencontre le mystère du vivant.
Des premières expérimentations aux avancées majeures de l’intelligence artificielle
L’essor de l’intelligence artificielle est indissociable des expérimentations pionnières menées sur ces machines évoquant le cerveau. Le perceptron de Rosenblatt est déjà le signe que l’on peut capter et traduire certaines logiques cognitives à l’aide de réseaux électroniques. L’idée de simuler l’intelligence humaine à partir de modèles mathématiques prend alors corps dans de vraies machines.
Progressivement, la recherche se frotte à des défis plus complexes : conception de machines abstraites, interprétation de la reconnaissance de formes ou du langage naturel. Au fil des années 1960, le tout premier agent conversationnel, ELIZA, voit le jour. Sa capacité à simuler un entretien, même rudimentaire, fascine. D’autres systèmes apparaissent à la suite, capables de jongler avec des bases de connaissances sophistiquées et de résoudre des tâches délicates. À chaque étape, le but consiste à rendre la machine capable de tirer des enseignements propres, de s’adapter en autonomie croissante.
Désormais, la dynamique s’intensifie grâce aux architectures hybrides. Exemple parlant : SpikingBrain, déployé récemment à l’Académie chinoise des sciences. Ce réseau à impulsions, ou SNN, a été pensé pour consommer peu d’énergie tout en maintenant une efficacité élevée, notamment face aux méthodes classiques utilisées par de larges modèles actuels. Disponible en accès ouvert, il démontre un changement profond de mentalité : aligner l’intelligence artificielle sur la sobriété énergétique à tous les étages.
L’ingénierie neuromorphique aujourd’hui : impacts, enjeux et perspectives à explorer
Désormais, la vague neuromorphique offre une alternative de plus en plus solide à la spirale énergétique des grands modèles de langage de type ChatGPT, Claude, Gemini ou Llama. Les géants du secteur investissent dans des solutions toujours plus imposantes, dévorant au passage des ressources considérables. Cette tendance a un effet de ricochet : de nouvelles équipes planchent sur le matériel pour repenser entièrement la manière même dont l’intelligence est traitée. En misant sur des technologies comme la VLSI ou les memristors, ils s’efforcent de concevoir des circuits qui marient architecture neuronale, efficacité et économie d’énergie.
Ce tournant technologique se traduit déjà en résultats tangibles. Les systèmes neuromorphiques commencent à transformer la vision artificielle, le pilotage des mouvements, la robotique autonome ou encore la fusion des données provenant de différents types de capteurs. À titre d’illustration : une seule puce neuromorphique, lorsqu’elle reprend les schémas du système nerveux biologique, peut exécuter des calculs complexes en consommant bien moins que ce qu’exigent les architectures traditionnelles. Aujourd’hui, l’accumulation des données et le poids grandissant des centres de traitement posent une question directe : comment concevoir des machines capables d’évoluer, d’apprendre sans relâche, et d’agir presque instantanément,tout en restant sobres ?
Le spectre des recherches ne cesse de s’étendre, porté par la fertilité du dialogue entre intelligence artificielle, électronique avancée et neurosciences. Les défis sont nombreux,miniaturisation, résistance, plasticité, capacité à expliquer le fonctionnement interne,mais la direction reste ferme : s’approcher au plus près de l’intelligence humaine telle qu’elle s’exprime chez le vivant, tout en gardant un haut niveau de fiabilité et de performance.
L’ingénierie neuromorphique, c’est désormais un carrefour permanent entre science, technologie et imagination. La machine n’a jamais été aussi proche de l’inspiration biologique. À chaque innovation, ce domaine dévoile une facette nouvelle de son potentiel. Le prochain pas décisif ? Peut-être à une synapse d’ici.


