Thèse Nikhil GARG
Soutenance : 5 Décembre 15H00
Visio totale
Jury
Fabien ALIBART | Chargé de recherche | Laboratoire Nanotechnologies & Nanosystèmes (LN2), CNRS, Université de Sherbrooke | Directeur de thèse | |||
Sylvain SAIGHI | Full professor | IMS Bordeaux | Rapporteur | |||
Elisa VIANELLO | Senior scientist | CEA-Leti | Rapporteur | |||
Dominique DROUIN | Professeur | Université de Sherbrooke | CoDirecteur de thèse | |||
Laura BEGON-LOURS | Assistant professor | ETH Zurich | Examinateur | |||
Jean-Michel PORTAL | Professeur | Aix-Marseille University | Examinateur |
Résumé :
L’intégration de l’intelligence artificielle (IA) dans l’informatique en périphérie (EC) et les dispositifs portables présente des défis importants en raison des contraintes strictes en matière de puissance de calcul et de consommation d’énergie. L’informatique neuromorphique, inspirée par la conception économe en énergie du cerveau et ses capacités d’apprentissage continu, offre une solution prometteuse pour ces applications. Cette thèse propose un cadre flexible de co-conception algorithme-circuit qui aborde à la fois le développement des algorithmes et la conception matérielle, facilitant ainsi le déploiement efficace de l’IA sur du matériel spécialisé à ultra-basse consommation d’énergie.
La première partie se concentre sur le développement d’algorithmes et introduit la plasticité synaptique dépendante de la tension (VDSP), une règle d’apprentissage non supervisée inspirée du cerveau. Le VDSP vise à mettre en œuvre en ligne le mécanisme de plasticité de Hebb en utilisant des synapses memristives à l’échelle nanométrique. Ces dispositifs imitent les synapses biologiques en ajustant leur résistance en fonction de l’activité électrique passée, permettant ainsi un apprentissage en ligne efficace. Le VDSP met à jour la conductance synaptique en fonction du potentiel de membrane du neurone, éliminant ainsi le besoin de mémoire supplémentaire pour stocker les timings des pics d’activité. Cette approche permet un apprentissage en ligne sans les circuits de formage d’impulsions complexes habituellement requis pour la plasticité dépendante du timing des pics (STDP) avec des memristors. Nous montrons comment le VDSP peut être avantageusement adapté à trois types de dispositifs memristifs (synapses à filament d’oxyde métallique et jonctions tunnel ferroélectriques) avec des caractéristiques de commutation analogiques distinctives. Les simulations au niveau du système de réseaux neuronaux à impulsions utilisant ces dispositifs ont validé leurs performances sur des tâches de reconnaissance de motifs sur MNIST, atteignant jusqu’à 90 % de précision avec une meilleure adaptabilité et une réduction du réglage des hyperparamètres par rapport au STDP. De plus, nous avons évalué la variabilité des dispositifs et proposé des stratégies d’atténuation pour améliorer la robustesse.
Dans la deuxième partie, nous implémentons un neurone analogique de type « leaky integrate-and-fire » (LIF), accompagné d’un régulateur de tension et d’un atténuateur de courant, afin d’interfacer sans heurts les neurones CMOS avec des synapses memristives. La conception du neurone inclut une fuite double, facilitant l’apprentissage local via le VDSP. Nous proposons également un mécanisme d’adaptation configurable qui permet de reconfigurer les neurones LIF adaptatifs en temps réel. Ces circuits polyvalents peuvent s’interfacer avec une gamme de dispositifs synaptiques, permettant ainsi le traitement de signaux avec une variété de dynamiques temporelles. En intégrant ces neurones dans un réseau, nous présentons un bloc de construction neuronal auto-apprenant CMOS-memristor (NBB), composé de circuits analogiques pour la lecture en croix et de neurones LIF, ainsi que de circuits numériques pour basculer entre les modes d’inférence et d’apprentissage. Des réseaux neuronaux compacts, capables de s’adapter eux-mêmes, d’apprendre en temps réel et de traiter des données environnementales, lorsqu’ils sont réalisés sur du matériel à ultra-basse consommation d’énergie, ouvrent de nouvelles perspectives pour l’IA dans l’informatique en périphérie. Les avancées à la fois en matériel (circuits) et en algorithmes (apprentissage en ligne) accéléreront considérablement le déploiement des applications d’IA en exploitant l’informatique analogique et les technologies de mémoire à l’échelle nanométrique.
Abstract :
Integrating artificial intelligence (AI) into edge computing (EC) and portable devices presents significant challenges due to stringent constraints on computational power and energy consumption. Neuromorphic computing, inspired by the brain’s energy-efficient design and continuous learning capabilities, offers a promising solution for these applications. This thesis proposes a flexible algorithm-circuit co-design framework that addresses both algorithm development and hardware design, facilitating the efficient deployment of AI on specialized, ultra-low-power hardware.
The first part focuses on algorithm development and introduces voltage-dependent synaptic plasticity (VDSP), a brain-inspired unsupervised learning rule. VDSP is aimed at the online implementation of Hebb’s plasticity mechanism using nanoscale memristive synapses. These devices mimic biological synapses by adjusting their resistance based on past electrical activity, enabling efficient online learning. VDSP updates synaptic conductance based on the membrane potential of the neuron, eliminating the need for additional memory to store spike timings. This approach allows for online learning without the complex pulse-shaping circuits typically required for spike-timing-dependent plasticity (STDP) with memristors. We show how VDSP can be advantageously adapted to three types of memristive devices (metal-oxide filamentary synapses, and ferroelectric tunnel junctions) with distinctive analog switching characteristics. System-level simulations of spiking neural networks using these devices validated their performance on MNIST pattern recognition tasks, achieving up to 90% accuracy with improved adaptability and reduced hyperparameter tuning compared to STDP. Additionally, we evaluated device variability and proposed mitigation strategies to enhance robustness.
In the second part, we implement an analog leaky integrate-and-fire (LIF) neuron, accompanied by a voltage regulator and current attenuator, to seamlessly interface CMOS neurons with memristive synapses. The neuron design features dual leakage, facilitating local learning through VDSP. We also propose a configurable adaptation mechanism that allows adaptive LIF neurons to be reconfigured in run-time. These versatile circuits can interface with a range of synaptic devices, allowing the processing of signals with a variety of temporal dynamics. Integrating these neurons into a network, we present a CMOS-memristor self-learning neural building block (NBB), consisting of analog circuits for crossbar reading and LIF neurons, along with digital circuits for switching between inference and learning modes. Compact neural networks that can self-adapt, learn in real time, and process environmental data, when realized on ultra-low-power hardware, open new possibilities for AI in edge computing. Advances in both hardware (circuits) and algorithms (online learning) will greatly accelerate the deployment of AI applications by leveraging analog computing and nanoscale memory technologies.