Exemple : la reconnaissance d’images
De nos jours, on est capable d’utiliser un réseau neuronal afin de reconnaitre le contenu d’une image.
De base il était hors de question d’envoyer une image brute à l’algorithme, car sur une image de 1980*720p, cela fait légèrement moins d’1,5 million de pixels à traiter, soit 1,5 million d’entrées dans notre réseau, ce qui aurait été beaucoup trop complexe.
Un algorithme intermédiaire traditionnelle (pas une IA) était donc utilisé uniquement pour extraire les caractéristiques essentielles de l’image.
Mais les caractéristiques en questions dépendaient du type d’objet que l’on cherchait à trouver. En bref l’algorithme final était capable de savoir si l’animal de la photo était un chien ou un chat, mais incapable de savoir si c’était un animal ou un véhicule, la majeur partie du travail était au niveau de l’algorithme intermédiaire, codé par un humain, donc non-autonome..
Pour pallier ce problème, on utilise maintenant le « deep learning », soit l’apprentissage profond, initié par le français Yann Le Cun. Pour (grandement) simplifier, avec l’évolution qu’a suivi l’informatique (tant la partie logicielle que matérielle) on est maintenant capable de traiter bien plus d’informations simultanément.
De plus, les bases de données d’images classifiées se sont grandement remplies, notamment une qui s’appelle ImageNet, par conséquent la phase d’apprentissage (ou d’analyse) du réseau neurones et bien plus complète et performante.
Bien sur, ce système n’est pas parfait et des erreurs subsistent.
Le deep learning est probablement voué à de grandes évolutions, notamment dans le domaine de l’audio description.
La semaine prochaine, nous verrons un exemple concret d’application d’un réseau neuronal.