Vers l’apprentissage automatique embarqué (Épisode 1/3)

L’avènement des objets connectés dans notre quotidien soulève de nombreuses problématiques en termes de ressources énergétiques et de traitement des données. Le développement de ces technologies nécessite des changements d’approches impliquant les nanotechnologies.

Ce dossier « Vers l’apprentissage automatique embarqué » est proposé en collaboration avec l’Institut des Nanotechnologies de Lyon. Au fil de 3 épisodes, nous vous invitons à explorer les enjeux de l’apprentissage automatique embarqué, les défis scientifiques et technologiques qu’ils soulèvent, et les perspectives offertes par les nanotechnologies dans ce domaine.

Épisode 1 : Qu’est-ce que l’apprentissage automatique embarqué et pourquoi s’y intéresser ?

Au point de départ : l’avènement de l’Internet des objets

L’Internet des objets (Internet of Things, IoT) désigne l’interconnexion entre l’Internet et des objets, permettant ainsi une communication entre nos biens physiques et leurs existences numériques. Leur avènement à grande échelle permet aujourd'hui à des milliards de capteurs intelligents de sonder notre environnement pour nous informer et nous aider à naviguer dans notre monde. Ceci a pour conséquence de générer une immense quantité de données à traiter, analyser et interpréter. Le nombre de capteurs et d'objets intelligents à la périphérie (edge) de l'IoT est estimé à 50 milliards et ne cesse d'augmenter. Aujourd'hui, les techniques d'intelligence artificielle (IA) ou, plus précisément, d'apprentissage automatique, sont utilisées pour traiter ces données dans un large éventail d'applications : suivi médical, reconnaissance vocale, recommandation de produits, etc.

Les limites du cloud dans le traitement des données issues de l’Internet des objets

Centre de calcul ECL

La grande majorité des ressources de calcul de l'IA se trouvent dans le cloud, où les mégadonnées (big data) traditionnelles sont déjà stockées : enregistrements d'achats en ligne, contenu des médias sociaux, etc. Il n'est alors plus envisageable, aujourd’hui, de s'appuyer uniquement sur ce modèle de cloud computing pour gérer la quantité massivement distribuée de données générées à la périphérie. Il y a plusieurs raisons à cela :

  • les ressources de l'infrastructure réseau n'ont plus la capacité de déplacer les données de la périphérie vers le cloud ;
  • les données sont vulnérables aux attaques ;
  • le délai et le coût de transmission sont prohibitifs ;
  • les ressources énergétiques, et l'empreinte carbone correspondante, sont insoutenables – l'entraînement d'un modèle pour la traduction automatique émet la même quantité de CO2 que cinq voitures au cours de leur vie (carburant inclus) !

Dans les applications en temps réel, où les exigences de délai sont particulièrement strictes (véhicules autonomes par exemple), les approches basées sur le cloud ne seraient même pas en mesure de respecter les délais de décision de manière cohérente et fiable.

L’IA à la périphérie : une tendance qui nécessite des changements d'approche fondamentaux

Ces limites ont donné lieu à l'émergence de l’IA à la périphérie : une nouvelle tendance où les tâches d’apprentissage automatique sont effectuées au plus près des sources de données, à la périphérie. On parle alors d’apprentissage automatique embarqué. Cependant, les ressources matérielles dans les dispositifs à la périphérie (capteurs intelligents, objets autonomes) sont limitées en termes de puissance de calcul disponible, de capacité de mémoire et surtout, d'énergie.

Il apparaît alors nécessaire d’adapter les modèles d’apprentissage automatique actuels. Un véritable changement de paradigme dans les architectures de calcul est obligatoire dans toutes les strates de la chaîne de valeur grâce au développement simultané et imbriqué de nouvelles architectures matérielles, de nouvelles façons de représenter les données et de nouveaux modèles d'IA.

La place des nanotechnologies dans l’apprentissage automatique embarqué

Le principal inconvénient des approches conventionnelles réside dans le goulot d'étranglement du transport des données entre le processeur et la mémoire, qui nécessite des quantités d'énergie et du temps de plusieurs ordres de grandeur plus élevés qu'une seule opération de calcul. Les applications d'IA pour le traitement des données nécessitent des structures et des technologies de calcul avancées, au-delà de celles que l'on trouve couramment dans les processeurs. Cela pousse physiquement le traitement des données vers les structures de la mémoire, suscitant des recherches sur le calcul proche mémoire ou même en mémoire. Le prochain défi fondamental consiste à explorer les technologies émergentes :

  • de mémoire non volatile qui conservent les données même sans alimentation,
  • de nouveaux transistors verticaux et 3D pour traiter les données de manière plus efficace,
  • de la photonique silicium pour marier le calcul, la communication et le stockage.
Logo INL

Ces voies de recherche visent à répondre aux exigences de l'efficacité énergétique, de performances et de densité ultra-élevées des opérations de calcul d'IA de pointe. Ces problématiques se situent à l’échelle nanométrique. C’est ainsi une préoccupation forte dans les laboratoires de l’Institut des Nanotechnologies de Lyon, qui participe en parallèle à plusieurs programmes de recherche complémentaires pour répondre à ces nouveaux enjeux d’apprentissage automatique embarqué.

Suivez la suite de ce dossier en 3 épisodes ! Dans le prochain épisode, nous parlerons des technologies émergentes pour l'IA matérielle écoénergétique...

Ces axes de recherche sur l'apprentissage automatique embarqué sont portés par Ian O'Connor et Alberto Bosio, professeurs à l'École Centrale de Lyon/INL.