Rétropropagation du gradient
Il existe beaucoup de méthodes d’apprentissage, intéressons-nous d’abord à la méthode de rétropropagation du gradient. Le principe est de corriger les erreurs commises par les paramètres initiaux (générés aléatoirement).
On envoie donc en entrée un exemple donné dont la sortie est connue. On récupère la sortie donnée par notre neurone, puis on applique une formule mathématique complexe afin de calculer l’erreur commise
(e = g’(h)[sa – sr] ou e est l’erreur, g’ la dérivée de la formule d’application, h la formule d’agrégation, sa le vecteur attendu et sr le vecteur retourné par le neurone)
Enfin, on propage l'erreur vers l'arrière pour modifier nos paramètres en conséquence.
e i s o r t i e = g ′ ( h i s o r t i e ) [ t i − y i ] {displaystyle e_{i}^{sortie}=g'(h_{i}^{sortie})[t_{i}-y_{i}]}
Algorithme génétique
Une autre méthode d’apprentissage est l’utilisation d’algorithmes génétiques vus il y a quelques semaines (je vous enjoins encore une fois à aller (re)lire cet article pour bien comprendre). Ceux-ci peuvent en effet être bien utiles dans notre cas.
D’abord un petit rappel s’impose : un algorithme génétique reprend la théorie de l’évolution de Darwin, pour une population d’éléments quelconques (donc ici les paramètres), on a :
– Sélection naturelle, traduite ici par la sélection des meilleurs éléments
– Hérédité, traduite ici par le croisement des éléments pour en donner un ou des meilleurs
– Variations entre individus, traduite ici par la mutation et l’utilisation des particularités des éléments
Ainsi, on a juste à appliquer cet algorithme sur les paramètres du neurone qui constituent la boîte noire, et on aura alors une intelligence artificielle reprenant à la fois le concept du neurone, mais aussi le concept de l’évolution des espèces.