Récapitulatif des modèles d’IA

Aujourd'hui, nous entendons parler de l'IA chaque jour. Et il peut être déconcertant de ne pas tout à fait bien comprendre l'ensemble des modèles qui peuplent la jungle des intelligences artificielles. C'est la raison pour laquelle je me suis mis au défi d'écrire un article, je n'espère pas trop complexe à lire, sur l'ensemble des modèles pour que chacun puisse voir plus clair.

Aujourd’hui, nous entendons parler de plusieurs modèles d’IA chaque jour. Et il peut être déconcertant de ne pas tout à fait bien comprendre l’ensemble des modèles qui peuplent la jungle des intelligences artificielles. C’est la raison pour laquelle je me suis mis au défi d’écrire un article, je n’espère pas trop complexe à lire, sur l’ensemble des modèles pour que chacun puisse voir plus clair.

Les débuts : Le Perceptron (1957)

Le perceptron, inventé par Frank Rosenblatt, est souvent considéré comme le premier modèle formel d’intelligence artificielle. Inspiré de la biologie, il s’agit d’un modèle mathématique simple qui simule le fonctionnement des neurones humains. Bien qu’il ait suscité beaucoup d’enthousiasme à l’époque, il était limité par son incapacité à résoudre des problèmes non linéaires, une lacune mise en évidence par le livre « Perceptrons » de Marvin Minsky et Seymour Papert (1969).

le perceptron
source

Dans le schéma ci-dessus, X représente l’information d’entrée. W concerne le « poids » de cette information, comme une sorte de coefficient multiplicateur. Le perceptron en fait la somme de tous ces poids et par une fonction d’activation, elle fournira une information de sortie (le point rouge).

L’émergence des Réseaux Neuronaux (années 1980)

Après une période de stagnation appelée « l’hiver de l’IA », les réseaux neuronaux ont fait leur retour grâce à la réinvention de l’algorithme de rétropropagation du gradient (backpropagation). Cette avancée a permis de former des réseaux plus profonds et plus complexes, ouvrant la voie à des applications telles que la reconnaissance d’image et la prédiction.

retropropagation
source

C’est parce que la machine a eut la capacité de revoir l’ensemble de ses poids, qu’elle peut apprendre par elle-même. Elle ajuste ainsi, toute seule, la répartition des poids dans ses neurones afin de trouver la réponse. C’est l’usage principal du machine learning pour les modèles supervisés.

Les Premiers Succès des Systèmes Experts (1990)

Dans les années 1970-80, les systèmes experts ont dominé le paysage de l’IA. Ces modèles, basés sur des règles explicites définies par des experts humains, ont été utilisés dans des domaines comme la médecine (MYCIN) et l’ingénierie. Cependant, leur rigidité face à des problèmes complexes a limité leur adoption à grande échelle.

image png
image 1 png

Deep Blue de IBM

Pour la petite histoire, en février 1996, le monde assiste à un duel historique : l’ordinateur Deep Blue défie le champion du monde d’échecs, Garry Kasparov. Deep Blue, un supercalculateur de près de 2 mètres de haut et pesant 700 kg, remporte la première partie !

Cependant, Kasparov, le génie humain, ne se laisse pas intimider. Il remporte trois victoires et le match se termine avec un score de 4-2 en sa faveur.

Deep Blue, avec ses 256 processeurs spécialisés fonctionnant en parallèle, a montré la puissance de l’intelligence artificielle. Mais Kasparov a prouvé que l’esprit humain restait maître du jeu.

image 2 png
Deeper Blue

La revanche de la machine

Un an après leur premier affrontement, Kasparov et Deep Blue se rencontrent à nouveau. Deep Blue, désormais surnommé « Deeper Blue », a été amélioré. Il est plus puissant, plus rapide, plus intelligent.

Le résultat est sans appel : pour la première fois de l’histoire, un champion du monde d’échecs est battu par une machine. Deep Blue remporte le match 3,5 à 2,5.

Deeper Blue, c’est 1,80 m de haut, 1,4 tonne et 20 personnes nécessaires à son fonctionnement. Ce supercalculateur, capable d’analyser des centaines de millions de positions par seconde, a été conçu avec l’aide de grands maîtres d’échecs.

L’Avènement du Deep Learning (années 2010)

L’évolution du calcul, combinée à l’augmentation des données disponibles, a permis au deep learning d’émerger. Les architectures comme les réseaux convolutifs (CNN) et les réseaux récurrents (RNN) ont révolutionné des domaines comme la vision par ordinateur, le traitement du langage naturel et bien plus encore.

Les Applications :

  • AlexNet (2012) a démontré le potentiel des CNN en remportant le concours ImageNet.
  • Les RNN, et plus tard les LSTM, ont été cruciaux pour le traitement des séquences.

Partage ton amour pour cet article
Optimized with PageSpeed Ninja