Étiquette : machine learning

Les différents types de réseaux de neurones : réseau de convolution

Les différents types de réseaux de neurones : réseau de convolution

Reprenons la série des articles traitant des différents réseaux de neurones. Dans cet article je vais t'expliquer comment fonctionne un réseau de convolution.

Dans l'article précédent nous avions vu comment fonctionnait un réseau de neurone artificiel. Si tu n'as jamais entendu parlé du fonctionnement, je te conseille de le lire avant de continuer. Comme je l'ai déjà expliqué, même en simplifiant, il y a une partie "technique" et "représentative" que je ne peux pas soustraire à l'explication. Je vais essayer de mettre le plus d'illustration possible pour bien comprendre. Chaque réseau à sa spécialité, ils ont des fonctionnement différents avec des résultats plus ou moins performants. Les réseaux de convolution sont très bon pour l'analyse des images. 

Réseau de convolution

Je ne vais pas faire de l'histoire sur la création, ni qui, Wikipédia s'y prête très bien pour ce genre d'information. Allons dans le technique et pragmatique tout de suite ! Toujours en quatre étapes.

Conception en 4 étapes

Une image est composé de petits carrés que l'on nomme "pixel". Dans une image en noir et blanc, nous parlerons de 2 dimensions (array) car il y a blanc et noir. De plus, chaque pixel aura une valeur comprise entre 0 et 255 nuances de "gris" (rien à voir avec le film). Le blanc est représenté par le 0.
Pour une image en couleur, elle aura trois dimensions (array), repartie en 3 couleurs primaires, bleu, vert et rouge. Idem avec 255 nuances. Pourquoi 0 et 255  ? Selon mes recherches, c’était l’ensemble du code couleur RGB des écrans dans les années 80, les chercheurs ont gardé cette base.

pixel-image-reseau-convolution

Voilà une manière de comment l'ordinateur voit une image. Pour faire simple il n'y a pas de nuance dans les futurs exemples, c'est soit blanc donc 0 soit noir 1.

pixel-image2-reseau-convolution

Convolution

Pour la convolution, il suffit de reprendre l'image pixelisée, carré par carré, et de la "convertir" avec une sorte de "calque". Oui j'utilise beaucoup de guillemets car aucun de ces termes sont utilisés. Le calque s'appelle un feature detector et l'image convertie se nomme feature map. Il existe des millions de feature detector différents et de taille différente, le choix se fait en fonction des best practice des data scientist. Une fois que l'image est intégralement passée par un feature detector, on obtient une feature map. C'est l'image originale, compressée une nouvelle fois avec un calque précis.

Voici en image :

Ce diaporama nécessite JavaScript.

Nous répétons ce processus avec d'autres feature detector pour créer plusieurs feature map de cette image. Cela va créer une sorte de mille feuilles de plein de feature map différentes. On appelle cela une couche de convolution.

convolution-réseau-neurone

Dans ce site tu écris avec ta souris un chiffre dans la barre en haut à gauche. Avec le pointeur de ta souris tu peux voir les 7 couches de convolution comment elles travaillent. Elle détermine ce que tu as écris en fonction de tout ce traitement d'image.

Max Pooling

Le réseau de neurone doit avoir une invariance spatiale. Notre cerveau est vraiment très fort, car sur les images ci-dessous nous sommes capable de comprendre que c'est un guépard. Et cela peu importe si l'image est tordue ou non. De même si le guépard est en premier plan, allongé, en train de courir, quoiqu'il en soit on le reconnait au premier coup d’œil.

Nous le faisons de manière naturelle et nous n'avons pas l'impression que notre cerveau travaille dur. Ainsi, nous devons adapter l'algorithme de la machine pour qu'elle soit capable de faire comme nous. Si l'image est tordue, cela peut donner un résultat totalement différent. Idem, nous reconnaîtrons l'animal qu'il soit assis, nous regarde, ou de dos qu'il soit au premier ou second plan !

réseau-convolution-max-pooling

Pour limiter les erreurs, le max pooling est la même manipulation que pour obtenir une feature map.

convolution-max-pooling

On passe la feature map dans un max pooling (ici d'un carré de 2 par 2) où l'on va garder par exemple que les chiffres les plus grands. L'image encore réduite s'appelle un pooled feature map. Idem que pour les features map, on va multiplier les max pooling pour obtenir un mille feuilles de pooled feature map. Ainsi la machine va comprendre qu'il y a un pattern, un motif qui se présente souvent au même endroit et que cela fait parti de l'animal en question.

Flattening

Comme nous l'avions vu précédemment, un réseau de neurone connecté, les couches d'entrées ,cachées, et de sorties sont verticales. Jusqu'à maintenant nous avions une image représentée par des carrés. Nous avons diminué la taille de l'image. Le Flattening permet de verticaliser les pooled feature map.

Ce diaporama nécessite JavaScript.

Couche entièrement connectée

Nous arrivons au bout. Si nous devions schématiser le travail accompli jusqu'à maintenant et que nous voulions apprendre à la machine à reconnaître un chien d'un chat, voici ce que ça donne :

reseau_de_convolution

Nous retrouvons la forme de notre réseau de neurone comme expliqué dans le premier article. Les deux neurones de sortie permettent de déterminer la valeur y (chien ou chat).

Le réseau est auto-apprenant en supervision, ce qui signifie que si nous montrons une image de chien et que le réseau dit chat, alors nous indiquons au réseau qu'il a faux. Ainsi, il va se réajuster lui-même en modifiant ses paramètres pour éviter la même erreur.

J'espère que cela t'a éclairé davantage sur la composition et le fonctionnement des réseaux de convolutions. C'est ce système qu'utilise la reconnaissance faciale chez Facebook, à une voiture de comprendre les panneaux ou tout autre machine capable de comprendre son environnement.

Dans le prochain article, je parlerai de comment fonctionne un réseau de reinforcement learning, une machine capable d'apprendre depuis zéro ! Sans lui dire comment faire pour apprendre, la machine est capable de dialoguer, voir, et se déplacer juste parce que nous lui avons donné un objectif à atteindre !

L'avènement de la conscience artificielle n'est pas liée de la singularité

L'avènement de la conscience artificielle n'est pas liée de la singularité

Pour fabriquer une IA consciente il faut trois éléments. Une machine qui réagit à son environnement, comme une lampe à détection de mouvement. Ensuite qu'elle soit capable de prendre des décisions - quand tu fais une recherche sur Google, l'IA prend la décision de te présenter ces résultats. Et enfin qu'elle soit capable de se voir elle-même en train d'agir et se poser des questions sur ses agissements. Ce sont des aspects bien commun de nos jours et contrairement à ce que l’on pourrait croire, il est plutôt facile d’en créer une. Mais alors, pourquoi nous n’en voyons pas ? Je vais te l’expliquer mais avant tout il faut faire un tour dans l’inconscient des humains.

La théorie de l’esprit

Pour comprendre la conscience humaine, il faut plonger profondément dans l'étude de la théorie de l'esprit.
La théorie de l'esprit est la tentative par un cerveau de déterminer le contenu d'un autre cerveau. Par exemple, Amandine se demande ce que pense Bruno du monde dans lequel nous vivons tous. Amandine crée des théories sur l'état actuel de l'esprit de Bruno.

Elle fait cela pour deviner ce que Bruno pourrait faire ensuite. Il est vrai d’un côté, aucun pouvoir ne pourrait être plus grand pour un animal social comme nous, les humains, d’anticiper le comportement des autres. Pendant des milliers et des milliers d'années, nous avons vécu à proximité des uns des autres. À mesure que nos comportements et nos pensées devenaient de plus en plus complexes, il devenait crucial pour chaque membre de la tribu d'avoir une idée de ce que pensaient les autres membres et des actions qu'ils pourraient accomplir. La théorie de l'esprit, c’est de l'espionnage intellectuel ! Et nous sommes plutôt doués, mais avec des limites critiques que nous aborderons plus tard.

Notre cerveau est comme un ordinateur ?

Dès lors qu’un système s’auto-observe et essai de faire de prédiction sur ce qu’il voit (de manière la plus approximative possible) est tout à fait envisageable. Alors pourquoi nous ne le faisons pas ?
On aime penser que notre cerveau est comme un ordinateur. Avec une RAM (mémoire court terme), un disque dur (mémoire long terme), un système de refroidissement et alimentation (vaisseaux sanguins) etc. Mais c’est très loin d’être le cas. Un ordinateur est construit avec toutes les pièces de son époque. Le cerveau pas du tout, certaine zone du cerveau sont beaucoup plus vieille que d’autre. De plus, la mémoire n’est pas unifiée dans une seule partie.

D’autre part, notre cerveau bouge, change, adapte les aires (cela se nomme la plasticité cérébrale). Notre cerveau ressemble plus à une ville comme Rome, toute sinueuse, où l’ancien se mélange avec le moderne. D’ailleurs toutes les zones ne communiquent pas ensemble. Un exemple frappant, si tu as eu le mal de mer. Une partie du cerveau comprend qu’il y a une différence entre les informations de l’oreille interne et de ce que tu voies. Le cerveau se met en alerte “empoisonnement tout le monde sort d’ici”, et tu vomis tout ce qui est possible pour éliminer le poison. Sauf que consciemment, tu sais que tu n'as pas ingurgité de poison…

Un humain n’est pas une machine ?

Nous venons de voir que les humains ont des comportements différents avec des similitudes. D’une part, les humains se regroupent par similitude car l’union fait la force. Dans la nature, vivre en communauté est plus facile que vivre seul. D’ailleurs le test de Ash prouve que nous préférons nous conformer au groupe; même si le groupe à faux, plutôt que d’être seul contre le groupe. Et puis nous avons des comportements constamment contradictoire ! Pourquoi voulons-nous nous habiller et aller danser ? Parce que c'est drôle ! Et nos amis seront là ! Pourquoi voulons-nous continuer à manger quand nous sommes repus ? Parce que c'est délicieux ! Et nous avons fait mille pas supplémentaires aujourd'hui !
Ces questions sur nos propres comportements n’en finissent jamais. Et les réponses sont presque toujours fausses.

L’égo fait la conscience de soi

Nos suppositions sur les motivations des autres sont beaucoup plus précises que les suppositions que nous faisons sur les nôtres. Ce champ de force est notre ego, et il nous donne une opinion exagérée de nous-mêmes. En effet, nous nous accordons un esprit plus élevé pour nos actions et une illusion de dangerosité lorsqu'un autre est meilleur que nous (ensuite vient la fascination et l'envie de s'améliorer). C'est d'ici que vient ce biais "les machines voudront nous tuer".

Les explications incorrectes que nous présentons sur nos propres comportements visent à nous protéger. Elles sont souvent follement créatives, ou mêmes absurdes. Les réponses comme «amusant» et «délicieux» sont des réponses qui font référence à un module de bonheur, sans aucune curiosité quant aux avantages sous-jacents de ce mécanisme de récompense.

La vérité est que nous continuons à manger quand nous sommes repus parce que nous avons évolué dans un monde de pénurie calorique. Nous dansons pour attirer les copains et les copines à faire des copies de nous-mêmes (se reproduire). Parce que les modules de reproduction ont guidé ce comportement et nous sommes la descendance de ces premiers modules (c’est donc une affaire qui marche).

Alors cette machine existe-elle vraiment ?

Avec tous aspects précédents, si nous devions faire une analogie la plus précise d’une machine existante, alors je dirais : la voiture autonome connectée.

En effet, les voitures autonomes ont la capacité de voir et d’entendre pour se mouvoir sans heurter les obstacles. Elles ont donc une perception de leur environnement. Les voitures Tesla éduquent les  conducteurs pour l’utilisation de l’autopilot. La voiture conduit toute seule pendant un certain nombre de mètres et elle indique qu’il faut remettre les mains sur le volant. Plus le conducteur est réactif, plus la distance de conduite autonome sera longue. Il existe bel et bien une sorte de langage entre la machine et l’humain. Elles ont donc une perception langagière comportementaliste.

En voiture Simone

Maintenant, la conscience des autres. Si toutes les voitures étaient connectées, alors elles pourraient également communiquer entres-elles. Cette Nissan bleue va à l'épicerie parce qu'elle a faim. Et cette camionnette rouge va dans une station d'essence parce qu'elle a besoin de carburant. Cette voiture est en état d'ébriété. Celui-là ne peut pas très bien voir à cause de son phare cassé.

La bibliothèque de perceptions commence simplement avec les concepts du premier ordre, mais se transforme ensuite en idées de deuxième et troisième ordre. Est-ce que cette Ford jaune voit la Citroën grise venir vers elle ? Il s’est légèrement décalé, alors oui, c'est le cas. Est-ce que cette camionnette pense que la berline conduit trop agressivement ? Elle laisse plus de distance que les autres voitures, alors oui.
Notre machine va inventer des histoires sur ce qu'elle fait. Elle essaiera de relier ces histoires aux autres et ce sera souvent faux.

Est-ce vraiment souhaitable ? Nous avons créé des robots et des machines dans l’unique but qu’ils soient experts. Qu’ils traitent les informations sans erreur et de manière standardisée. C’est bien le paradoxe, nous fonctionnons totalement à l’opposé !

Rendre humain la machine, le piège anthropomorphique

Ce qui a vraiment fait apparaître Watson comme humain, c'est quand il a fait des gaffes. Comme une réponse finale de Jeopardy dans la catégorie "American Cities" où Watson a répondu une ville canadienne.
Il vaut la peine de noter ici que les robots nous semblent plus humains quand ils échouent.

Notre égo nous fait rire et nous fait peur

Il faut avouer que nous avons un certain plaisir quand nous regardons les vidéos des robots de Boston Dynamics. Notamment quand le robot soulève la boite et le gars tape sur la boite avec son bâton pour la faire tomber. Et maintenant quand nous voyons ce même robot faire un salto arrière (donc meilleur que nous) on se dit qu'il va nous écrabouiller... encore l'égo qui parle (relis le paragraphe, ci-dessus, de l'égo fait la conscience de soi) !

Les constructeurs automobiles sont en train de construire des véhicules qui ne seront jamais conscients. C'est parce qu'ils sont trop biens construits ! Notre projet consiste à rendre une machine ignorante de ses motivations tout en fournissant un dialogue de ces motivations. Une meilleure idée serait de construire une machine qui sait ce que font les autres voitures. Pas de devinettes.

Le savoir est la nouvelle richesse

Cela signifie accès au GPS, aux messages du smartphone, aux e-mails de l'ordinateur personnel. Mais aussi l'accès à tous les autres véhicules et toutes les données des capteurs de la ville. La Nissan dit à la Ford qu'elle va au centre commercial. Chaque voiture sait ce que chaque voiture fait. Il n'y a pas de collision.

Sur l'autoroute, des voitures aux destinations similaires se regroupent, des pare-chocs magnétiques se relient, en file indienne et réduisant de moitié l'utilisation énergétique collective de chaque voiture. Les machines fonctionnent de concert. Elles affichent tous les traits de l'omnipotence véhiculaire. Elles savent tout ce qu'elles ont besoin de savoir, et avec de nouvelles données, elles changent d'avis instantanément. Pas de parti pris. D'ailleurs, si une entreprise dit pouvoir guérir n'importe quelle maladie dans l'unique condition de te pister, même biologiquement, serais-tu prêt à l'accepter ?

L'IA sera au service de l'Homme

L’avenir le plus probable selon moi, c'est l'expansion et l'amélioration de nos propres algorithmes. Nous avons une longue histoire sur la condition humaine et de l’Homme contre l’Homme. Malgré ce que les nouvelles locales essaient de te vendre, le monde devient plus sûr tous les jours pour la grande majorité de l'humanité. Où l'éthique s'améliore. Nos sphères d'empathie sont en expansion. Sans besoin de créer une conscience artificielle.

La singularité

Pour conclure, selon moi nous vivons déjà la singularité. La machine est déjà plus performante que l'Homme dans bien des tâches. Les IA leur manque le "sens commun", c'est-à-dire la capacité à trouver une solution dans n'importe quelle situation. L'Homme a la prodigieuse capacité d'apprendre dans de nouvelle situation. Je ne sais pas faire un mur avec des briques et du ciment pourtant sur le fait accompli, j'essaierais, je vais surement me tromper et être très lent mais je suis "capable" de le faire. Est-ce grâce à ma conscience ? Pourtant je ne suis pas conscient de tout ce que je sais !

Enfin, une conscience a déjà été simulée, je te conseille de lire les recherches du professeur Alain Cardon sur la conception d'une conscience artificielle. N'en démords pas moins qu'il a détruit ses travaux dans l'attente d'un comité d'éthique mondial sur les réglementations et les usages de l'IA.

Nous pouvons également considérer notre propre cerveau comme une machine. Il est impossible de prouver le contraire. Exemple : comme un ordinateur dont on ne voit pas la masse de calcul à chaque instant, notre programme nous empêcherai de voir comment notre cerveau fonctionne !

 

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Un grand défi en neuroscience est de comprendre comment le cerveau encode l'information. Les réseaux de neurones se révèlent être des crackers de code géniaux.

Notre cerveau code ses informations

Chaque fois que vous déplacez votre main ou votre doigt ou votre globe oculaire, le cerveau envoie un signal aux muscles pertinents contenant l'information qui rend ce mouvement possible. Cette information est encodée d'une manière spéciale qui permet la transmission par les neurones et ensuite d'être appliquée correctement par les muscles concernés.
Exactement, comment ce code fonctionne ? C'est un mystère. Depuis longtemps, les neuroscientifiques sont en mesure d'enregistrer ces signaux lorsqu'ils traversent les neurones. Mais les comprendre est beaucoup plus difficile. Il existe différents algorithmes qui peuvent décoder certains de ces signaux, mais leurs performances sont inégales.

Une technique permet de lire le code du cerveau

Aujourd'hui, Joshua Glaser à Northwestern University à Chicago et quelques copains disent qu'ils ont développé une telle technique en utilisant la nouvelle technologie du ML (Machine Learning). Ils disent que leur décodeur dépasse considérablement les approches existantes. En effet, il est tellement efficace que l'équipe affirme qu'elle devrait devenir la méthode standard pour analyser les signaux neuronaux à l'avenir.

Partons dans le cerveau

L'information se déplace le long des fibres nerveuses sous la forme de pointes de tension (électrique). Les neuroscientifiques pensent que le schéma des pointes code les données sur les stimuli externes, tels que le toucher, la vue et le son. De même, le cerveau encode l'information sur les mouvements musculaires d'une manière similaire.

Comprendre ce code est un objectif important. Il permet aux neuroscientifiques de mieux comprendre l'information qui est envoyée et traitée par le cerveau. Il aide également à expliquer comment le cerveau contrôle les muscles.

Les neuroscientifiques aimeraient avoir de meilleures interfaces cerveau-machine. Les buts sont multiples (contrôler les fauteuils roulants, les prothèses et les jeux vidéo). «Le décodage est un outil essentiel pour comprendre comment les signaux neuronaux se rapportent au monde extérieur», disent Glaser et Co.

La méthode utilise le ML avec peu de données

Leur méthode est simple. Les neuroscientifiques ont formé des singes macaques. En effet, l'exercice est de déplacer un curseur vers une cible sur un écran. Pour cela les macaques utilisent une sorte de souris d'ordinateur. Dans chaque test, le curseur et la cible apparaissent sur un écran à des endroits aléatoires. Alors le singe doit déplacer le curseur horizontalement et verticalement pour atteindre le but.

Après avoir formé les animaux, Glaser et Co ont enregistré l'activité de dizaines de neurones dans les parties de leur cerveau qui contrôlent le mouvement : le cortex moteur primaire, le cortex prémoteur dorsal et le cortex somatosensoriel primaire. Les enregistrements ont duré environ 20 minutes.

Le travail d'un algorithme de décodage consiste à déterminer la distance horizontale et verticale que le singe déplace le curseur dans chaque test, en utilisant uniquement les données neuronales. Les algorithmes conventionnels fonctionnent en utilisant une technique statistique connue sous le nom de régression linéaire. Cela implique d'estimer une courbe qui correspond aux données, puis de réduire l'erreur qui lui est associée. Il est largement utilisé dans le décodage neuronal dans des techniques telles que les filtres de Kalman et les cascades de Wiener.

Plusieurs techniques mises à contribution

Les neuroscientifiques ont comparé ces techniques à une variété d'approches d'apprentissage mécanique basées sur des réseaux de neurones. Il s'agissait d'un réseau de mémoire à long terme, d'un réseau neuronal récurrent et d'un réseau de neurones feedforward. Tout cela provient des ensembles de données annotés, et plus l'ensemble de données est grand, plus ils apprennent.

Les résultats sont convaincants. Glaser et Co disent que les techniques de ML ont considérablement surpassé les analyses conventionnelles. "Par exemple, pour l'ensemble des trois domaines du cerveau, un décodeur du réseau de mémoire à long terme a expliqué plus de 40% de la variance inexpliquée d'un filtre Wiener", disent-ils.

"Ces résultats suggèrent que les techniques modernes de ML devraient devenir la méthodologie standard pour le décodage neuronal".

À certains égards, il n'est pas surprenant que les techniques de ML soient bien meilleures. Les réseaux de neurones ont été à l'origine inspirés par l'architecture du cerveau. C'est pourquoi, le fait qu'ils peuvent mieux modeler leur fonctionnement est attendu.

Des résultats qui doivent être re-analysés

L'inconvénient des réseaux de neurones est qu'ils ont généralement besoin de grandes quantités de données d'entraînement. Mais les neuroscientifiques ont délibérément réduit la quantité de données. Ainsi, ils ont constaté que les réseaux neuronaux étaient encore supérieurs aux techniques classiques.

C'est probablement parce que l'équipe a utilisé des réseaux plus petits. "Nos réseaux ont de l'ordre de 100 000 paramètres. Alors que les réseaux communs pour la classification des images peuvent avoir sur l'ordre de 100 millions de paramètres", disent-ils.

Le travail ouvre la voie à d'autres pour s'appuyer sur cette analyse. Glaser et Co ont mis leur code à la disposition de la communauté afin que les ensembles de données neurales existants puissent être réanalysés de la même manière.

La machine est créée sur la base d'un réseau humain

Il y a beaucoup à faire. Peut-être la tâche la plus importante sera de trouver un moyen de procéder au décodage neuronal en temps réel. Tous les travaux de Glaser et Co ont été effectués hors ligne après l'enregistrement des enregistrements. Mais il serait évidemment utile de pouvoir apprendre à la volée et de prévoir le mouvement tel qu'il se produit.

C'est une approche puissante qui a un potentiel important. Ce serait une surprise si la même chose n'était pas le cas du décodage neuronal.

Source

Comment fonctionne le Deep Learning ?

Comment fonctionne le Deep Learning ?

Avant de lire cet article je te conseille de lire la première partie ici

Comment fonctionne le Deep Learning ?

Compte tenu de son importance, il est utile de comprendre les bases de fonctionnement du Deep Learning (DL). Le DL consiste à utiliser un «réseau neuronal artificiel » - une collection de «neurones» (calculatrices logicielles) reliés entre eux.

Tout d'abord, un neurone artificiel comporte une ou plusieurs entrées. Il effectue un calcul mathématique et le délivre, on appelle cela : une sortie. La sortie dépendra à la fois du « poids » de chaque entrée et de la configuration de la «fonction d'entrée-sortie» dans le neurone (Figure 5, ci - dessous). Nous représentons un neurone par une bulle grise avec la lettre "f". La fonction d'entrée-sortie peut varier. Donc un neurone peut être :

  • une unité linéaire, la sortie est proportionnelle à l'entrée pondérée totale;
  • une unité de seuil, la sortie est fixée à l'un des deux niveaux, si la puissance totale est supérieure à une valeur déterminée; ou
  • une unité sigmoïde, la sortie varie de façon continue, mais pas de façon linéaire comme les changements d'entrée.

Un réseau de neurones est crée lorsqu'ils sont connectés les uns aux autres; la sortie d'un neurone devient une entrée pour un autre (figure 6).


Pour comprendre, les réseaux de neurones sont organisés en plusieurs couches de neurones (d'où le terme d'apprentissage «profond»). La «couche d'entrée» reçoit des informations du réseau et traitera - par exemple, une série d'images. La «couche de sortie» fournit les résultats. Entre les couches d'entrée et de sortie sont des «couches cachées» où la plupart des activités se produisent.

En règle générale, les sorties de chaque neurone à un niveau plus bas du réseau de neurones sert comme l'une des entrées pour chacun des neurones de la couche suivante (figure 7).

Prenons l'exemple d'un algorithme de reconnaissance d'image. Le but est de reconnaître des visages humains en images. Lorsque les données sont introduites dans le réseau de neurones, les premières couches identifient les modèles de contraste local. C'est-à-dire les caractéristiques «bas niveau» tels que les bords.

Comme l'image traverse le réseau, progressivement les caractéristiques «de niveau supérieur» sont extraites - des bords à nez, de nez aux visages (figure 8).

Ainsi, lors de sa couche de sortie, en fonction de sa formation le réseau neuronal fournira une probabilité que l'image est du type spécifié (tasse : 97%; tasse à café 88%; drink 54%). On peut le voir sur le screenshot que j'ai pris avec mon mobile (clique sur l'image tu verras et regarde en bas).

deep learning_screenshot

Apprentissage du deep learning

En règle générale, les réseaux de neurones sont formés en les exposant à un grand nombre d'exemples. Les erreurs sont détectées et les poids des connexions entre les neurones sont accordés en temps réel par l'algorithme dans le but d'améliorer les résultats. En effet, le processus d'optimisation est largement répété, après quoi le système est déployé et les images non étiquetées sont évaluées.

Pour comprendre, les schémas précédents représentent un réseau neuronal simple mais leur structure peut varier et la plupart sont beaucoup plus complexes. En fait, les variations incluent les connexions entre les neurones sur la même couche; nombres différents de neurones par couche; et la connexion du neurone émet dans les niveaux précédents du réseau (réseaux neuronaux 'récursives').

Dès lors, la conception et l'amélioration d'un réseau de neurones nécessite beaucoup d'habileté. Ainsi, les étapes comprennent la structuration du réseau pour une application particulière. Aussi, ils fournissent un ensemble d'entrainement adéquate avec des données. Enfin, le réseau de neurone ajuste la structure du réseau en fonction des progrès, et en combinant des approches multiples.

Pourquoi est-IA importante ?

Premièrement, l'IA est importante car elle aborde des problèmes profondément difficiles. Toutefois les solutions à ces problèmes peut être appliquées à des secteurs importants pour le bien-être humain. Tels que la santé, l'éducation, le commerce, le transport, les services publics et le divertissement. Depuis les années 1950, la recherche en IA a mis l'accent sur cinq domaines de recherche :

  1. Raisonnement : la capacité de résoudre les problèmes par déduction logique
  2. Connaissance : la capacité de représenter la connaissance du monde (la compréhension qu'il y a certaines entités, des événements et des situations dans le monde; ces éléments ont des propriétés, et ces éléments peuvent être classés.)
  3. Planification : la capacité à définir et à atteindre l'objectif (il y a un état spécifique à venir du monde qui est souhaitable, et des séquences d'actions peut être entreprises)
  4. Communication : la capacité de comprendre le langage écrit et parlé.
  5. Perception : la capacité de déduire des choses sur le monde à partir d'images visuelles, sons et autres entrées sensorielles.

Elle est précieuse, car dans de nombreux contextes, les progrès en question offrent des capacités révolutionnaires, plutôt que de l'évolution.
Dans les prochaines années, les capacités des Machines Learning (ML) seront utilisées dans presque tous les secteurs dans une grande variété de processus. Considérant une fonction unique d'entreprise par exemple, les ressources humaines. Cela illustre la gamme de procédés pour lesquels la ML sera appliquée :

  • le recrutement peut être amélioré avec un ciblage amélioré, correspondance intelligente de l'emploi et de l'évaluation partiellement automatisé;
  • la gestion de la main-d'œuvre peut être améliorée par une planification prédictive des besoins en personnel et les absences probables;
  • l'apprentissage de la main-d'œuvre peut être plus efficace que le contenu mieux adapté à l'employé est recommandé; et
  • le taux de désabonnement des employés peut être réduit en prévoyant que les employés de valeur peuvent être à risque de quitter.

La machine et deep learning deviendront normalisés

Au fil du temps , nous attendons l'adoption de la ML à devenir normalisée. La ML deviendra une partie de boîte à outils standard de développeur, améliorant d'abord les processus existants, puis de les réinventer.

Les conséquences de second ordre de la Machine Learning dépassera son impact immédiat. Le Deep Learning a amélioré la vision par ordinateur, par exemple, au point que les véhicules autonomes (voitures et camions) sont viables. Mais quel sera leur impact ? Aujourd'hui, 90% des personnes et 80% du fret sont transportés par la route au Royaume-Uni. Si on prend uniquement le domaine des véhicules autonomes voici l'impact (chiffres du Royaume-Uni) :

  • la sécurité (90% des accidents sont causés par l'inattention du conducteur)
  • l'emploi (2,2 millions de britanniques travaillent dans le secteur du transport et de la logistique, recevant environ 57 milliards de livres sterling en salaires annuels)
  • assurance (une chute de 63% des primes d'assurance automobile au fil du temps)
  • l'économie du secteur (les consommateurs sont susceptibles d'utiliser des services de transport à la demande à la place de la propriété de la voiture);
  • le débit des véhicules; aménagement urbain; réglementation et plus.

Article suivant : Pourquoi l'IA arrive à son âge d'or
Source