Skip to content
Simio background artwork

Réseaux neuronaux : Qu’est-ce que c’est et quelle est son histoire ?

Personnel de Simio

novembre 3, 2021

Le concept d’une « machine qui pense » ou d’une entité inanimée qui pense remonte aux scientifiques de la Grèce antique qui cherchaient à doter des objets de capacités analytiques. Cependant, le succès des Grecs de l’Antiquité dans la réalisation de la machine à penser a été sévèrement limité en raison des limites de la compréhension du fonctionnement du cerveau humain et de l’activité nerveuse. Il a fallu quelques siècles entre le moment où la machine à penser a été conceptualisée et celui où le cerveau humain a pu produire des schémas complexes grâce à des cellules cérébrales connectées, également appelées neurones.

L’article de recherche « A Logical Calculus of the Ideas Immanent in Nervous Activity » de Warren S. McCulloch et Walter Pitts, publié en 1943, a permis au monde de découvrir l’activité neuronale du cerveau. Les collaborateurs ont décrit le processus par lequel les neurones du système nerveux s’envoient des signaux les uns aux autres pour déclencher une impulsion. Ils ont postulé qu’un neurone, qui est connecté à des milliers d’autres neurones, envoie et reçoit une quantité variable d’énergie et qu’un neurone n’envoie de l’énergie que lorsque son seuil a été atteint.

Cet important document a ensuite ouvert la voie à l’intégration des réseaux neuronaux dans les domaines STEM de l’IA, de l’apprentissage automatique et de l’apprentissage profond. La recherche est devenue le fondement de l’exploitation des réseaux neuronaux dans les programmes informatiques pour leur permettre de reconnaître des modèles et de résoudre des problèmes de manière indépendante.

Qu’est-ce qu’un réseau neuronal ?

Les réseaux neuronaux reflètent les modèles comportementaux du cerveau humain en imitant le processus de communication des neurones biologiques pendant les activités neuronales. Dans les domaines de l’apprentissage automatique et de l’apprentissage profond, les réseaux neuronaux sont appelés réseaux neuronaux artificiels (ANN) ou réseaux neuronaux simulés (SNN). Ces connotations soulignent le fait que l’application des réseaux neuronaux dans ces domaines s’inspire du cerveau humain.

Les réseaux neuronaux artificiels se composent de couches de nœuds, notamment d’une couche d’entrée, de couches cachées uniques ou multiples et d’une couche de sortie. Les nœuds représentent des neurones artificiels et chaque nœud est associé à des poids et à des seuils. Lorsque la sortie d’un nœud individuel est supérieure au seuil défini, le nœud est activé et envoie des données à la couche de nœuds suivante au sein de son réseau. Inversement, si la sortie ne dépasse pas le seuil du nœud, aucune donnée n’est envoyée à la couche suivante du réseau de nœuds. Ainsi, le caractère d’un neurone peut être défini comme une unité logique à seuil (TLU) qui entre diverses quantités pondérées, additionne ces quantités et, une fois que les quantités additionnées atteignent ou dépassent son seuil défini (thêta), il émet une quantité.

L’étiquetage de caractères tels que la quantité d’entrée, le seuil et la sortie permet de mieux comprendre le fonctionnement des réseaux neuronaux. Par exemple, une entrée et son poids sont étiquetés – X 1, X 2,…, X n et W 1, W 2, …,W n. X représente l’entrée d’un neutron ou d’un nœud et W son poids. Ainsi, la somme de l’entrée et de son poids devient – X!*W! ce qui donne le niveau d’activation (a) d’un nœud. Soit a = (X1 * W1) + (X2 * W2) +…+ (Xn * Wn).

Dans les scénarios où le niveau d’activation (a) est égal ou supérieur au seuil (thêta), une sortie (y) est produite, mais si le niveau d’activation est inférieur à thêta, il n’y a pas de sortie. Ainsi, le seuil thêta doit être atteint ou dépassé pour qu’un neurone soit activé et envoie une sortie pondérée à la couche de nœuds suivante.

Comment les unités logiques à seuil apprennent

Les réseaux neuronaux doivent être entraînés pour améliorer leur précision en matière de résolution de problèmes et de prise de décision avant d’être utilisés dans des applications d’intelligence artificielle. Pour améliorer la précision d’un réseau neuronal, il faut d’abord comprendre le processus d’apprentissage des unités logiques à seuil.

Comment les unités logiques à seuil apprennent-elles et comment les réseaux neuronaux sont-ils formés ?

La réponse courte est qu’une TLU apprend en modifiant continuellement ses poids et son seuil. La réponse plus longue concerne le processus de formation supervisée et non supervisée. Dans le cas de la formation supervisée, les réseaux neuronaux sont formés en entrant une série d’exemples de.. :

  • Divers éléments à classer et
  • Les classifications appropriées attribuées aux articles

Le réseau neuronal prend les informations fournies et les utilise pour modifier ses poids jusqu’à ce qu’il fasse correspondre les éléments aux classifications appropriées. Le réseau neuronal analyse donc à la fois les données d’entrée et de sortie pour élaborer des réponses qui associent les quantités entrées à une sortie.

Pour la formation non supervisée, seule une série d’éléments à classer ou de données d’entrée est fournie. Le réseau neuronal applique l’analyse statistique pour repérer les différences ou les anomalies au sein de l’ensemble des données d’entrée. En d’autres termes, la formation non supervisée permet au réseau neuronal de travailler avec des données et de produire des résultats sans qu’aucune sortie ne vienne colorer les orientations analytiques du réseau.

L’utilisation d’un scénario du monde réel aide à comprendre comment les réseaux neuronaux apprennent. Par exemple, un nœud singulier peut être entraîné à analyser si un équipement supplémentaire est nécessaire dans un atelier en utilisant des valeurs binaires. Supposons tout d’abord que trois facteurs influencent sa prise de décision :

  1. La capacité d’accueil est-elle suffisante ? (Oui = 1, Non = 0)
  2. La demande justifie-t-elle un équipement supplémentaire ? (Oui = 1, Non = 0)
  3. Les fonds sont-ils suffisants ? (Oui = 1, Non = 0)

Ensuite, les hypothèses d’entrée suivantes s’appliquent :

  • X1 = 1, oui suffisamment d’espace est disponible pour les nouveaux équipements
  • X2 = 0, la demande ne justifie pas le besoin de nouveaux équipements
  • X3 = 0, pas assez de fonds pour de nouveaux équipements.

Ensuite, des poids doivent être attribués à chaque entrée. Ici, un poids plus important signifie une plus grande influence sur la décision finale à prendre :

  • W1 = 3, car l’espace est important pour accueillir de nouveaux équipements
  • W2 = 5, la demande est essentielle pour décider si un nouvel équipement est nécessaire
  • W3 = 2, Il est toujours possible de trouver des fonds si le besoin de nouveaux équipements est urgent.

Enfin, une valeur seuil doit être attribuée pour garantir que le réseau neuronal évalue les informations fournies pour répondre correctement. Ici, la valeur seuil est de 4 et se traduit par une valeur de biais de -4. En entrant toutes ces valeurs dans la formule ci-dessus, « a = (X1 * W1) + (X2 * W2) +…+ (Xn * Wn) », nous obtenons :

Y = (1 * 3) + (0 * 5) + (0 * 2) – 4 = -1.

Le calcul final est de -1 et il est inférieur à la fonction d’activation nécessaire pour produire une sortie. La sortie de ce nœud est donc 0, ce qui signifie qu’un nouvel équipement n’est pas nécessaire ou ne peut pas être acheté pour le moment.

La formation au réseau neuronal mise en évidence dans ces exemples est de type « feedforward », car les flux ne vont que dans une seule direction : de l’entrée vers la sortie. La rétropropagation est une autre technique utilisée pour former les réseaux neuronaux. Pour la rétropropagation, les erreurs attribuées à chaque neurone sont incluses dans les calculs afin de permettre les ajustements appropriés des paramètres d’un modèle de réseau.