Catégorie : Marketing & Intelligence Artificielle

Marketing & Intelligence Artificielle
Cette rubrique comprend toutes mes réflexions et découvertes liées au marketing et sur l’Intelligence Artificielle.

Je me passionne pour les intelligences artificielles et le marketing digital. D’ailleurs doit-on vraiment préciser « digital » ? Nous sommes bientôt en 2020, le digital (le « numérique » en bon français) est/doit être intégré dans le marketing. D’ailleurs les progrès y sont fulgurants. Tu verras quelques termes compliqués mais j’essaie de « vulgariser » les technologies qui sont de plus en plus utilisées mais peu comprises de tous.
Une newsletter ? Surtout pas !
Je n’utilise pas de newsletters donc tu ne verras jamais de pop-up à chaque connexion. Je déteste ça. Si tu veux voir mes publications suis moi simplement sur les réseaux sociaux. D’ailleurs j’y suis très actif donc tu peux me poser n’importe quelle question. Regarde en bas à gauche de la page, c’est mon Messenger en accès direct !

En effet, la technologie numérique ne doit pas être comprise par uniquement les élites mais aussi par tout le monde. Car c’est bien dans ce nouveau monde que nous vivons ! C‘est la mission que je me suis confié. 

Je suis contributeur en marque blanche pour plusieurs sociétés (demande un devis). Je suis également contributeur sur le site Siècle Digital et Gladiacteur.

Dataïsme

Dataïsme

Suite à la lecture de Homo Deus, je vais reprendre certaines idées et les développer sous un angle personnel.

Il est vrai aujourd’hui nous avons un certain nombre d’applications sur notre smartphone qui nous permettent de suivre notre alimentation, le nombre de pas, la qualité de notre sommeil et tout un tas d'autres choses. Toutes ces données, dont leur traitement est minimes aujourd’hui, pourraient se développer et permettront de mieux appréhender nos comportements et également les maladies.

Tout d’abord, il est nécessaire de constater que nous sortons d’un monde de masse pour un monde individuel. Nous allons voir les impacts futurs surtout dans le monde de la santé d’un tel changement de paradigme.

Définition du datïsme

Pour reprendre le dataïsme, Yuval Harari en fait la définition, la métaphore suivante :

Les individus sont des puces, au même titre que les puces qui composent un ordinateur.

Yuval Harari - Homo Deus

Pour que le dataïsme se développe à l’échelle sociétale, il faut réunir un certain nombre de conditions :

  1. Accroître le nombre de personne potentiellement "connectable" (plus de monde donc plus de puissance de calcul)
  2. Différents processeurs (moyens d'être connectés) afin d'augmenter le dynamisme et créer des idées nouvelles
  3. Accroître le nombre de connexion entre les processeurs
  4. Les données doivent se déplacer librement
matrix world-dataisme
matrix world-dataisme

Monde centré sur la data

Nous sommes passés d’un monde :

  • Théocentrique : Dieu centre du l'univers
  • Homocentrique : l'humanisme, l’Homme construit tout autour de lui
  • Datacentrique : c'est la data qui contrôle l'univers

La seule manière de se connaitre c'est grâce aux data par exemple en séquençant son ADN. La multiplication des IoT, notamment ceux qui sondent notre biologie à chaque instant sont de fabuleux générateurs de data. N'oublions pas que la data est le pétrole brut du XXIe siècle.

petri adn numbers

La connaissance de soi passe par les chiffres

Avec les IoT et l'IA, les algorithmes savent mieux que nous, de ce que nous devons faire. Baseline study de Google, utilise Google Fit pour comprendre qu'elle est la meilleure façon de garder une bonne santé.

La combinaison gagnante est la multiplication des IoT qui permettent la création de data et l'IA, dont les algorithmes s'améliorent de jour en jour.

Le coût de la technologie diminue mais les plus riches ont toujours deux longueurs d'avance. L'ère de la masse est révolue. Il fallait beaucoup de soldats donc une bonne santé pour tous. Mais si une poignée d'Homme permet de créer beaucoup de valeur alors pourquoi maintenir un système de santé de masse ?

La fin des masses bienvenue aux classes d'élites

Si je suis en bonne santé, je peux utiliser la médecine pour devenir davantage meilleur, alors que les pauvres iront à l’hôpital pour régler leurs problèmes de santé. C'est en tout cas ce que dénonce certains scientifiques et d'autres adeptes du biohacking. Comme Serge Faguet qui a dépensé 200 000 dollars pour biohacker son corps (et son esprit). Entre nous, cher lecteur, il a écrit son récit dans les moindres détails ici.  

serge faguet improve

Peu importe le sens pourvu que j'ai le pouvoir

Être dans le flux de donnée signifie refuser son intimité, sa vie privée. Si une voiture autonome vient me chercher quand je sors de chez moi et me récupère quand je sors du boulot, la voiture doit connaître mes intentions et mes actions à chaque instant.

jaguar-voiture-yeux

Cela surprend toujours mon auditorat, mais Google fait déjà la différence d'intention dans une recherche. Notamment le moteur de recherche fait la différence entre l'intention d'acheter et l'intention de s'informer.  C'est un tout autre sujet dont j'en ferai un billet.

On peut reprendre les phrases : "peu importe le sens pourvu que j'ai le pouvoir" et "les gens seront dans le flux d'information
(cf. Homo Deus). A elles deux, forment un nouveau paradigme entraînant un changement colossal de notre société.

Peu importe que la machine sache tout de moi, pourvu que j'ai accès à un nombre de service premium à un coût réduit. Multiplié par le nombre de personnes qui fournissent les informations, cela donne un argument de poids pour supprimer les voitures qui polluent trop (écologie), éradiquer toute maladie (santé), diminuer la criminalité (sécurité), augmenter les ventes (commercial) etc. En bref toute la famille politique pourra se satisfaire de cette vision. D'ailleurs est-ce que la Chine en est déjà là ?

Le droit du tous connecté.es

J'image un jour (peut être), un hôpital type « Google » puisse exister. Sa promesse est simple, cet hôpital te permettra d’être en bonne santé et pour longtemps voire même de dépasser la moyenne de l’espérance de vie actuelle de ton pays.

google medical center

Son fonctionnement passera par un abonnement de moins de 100 dollars par mois (comme une assurance et mutuelle complémentaire incluse) et ainsi avoir accès à des examens et traitement de santé totalement pris en charge (évidemment toutes les maladies diagnostiquées seront totalement prises en charge sans sur coût).

Au-delà de la cotisation, il sera obligatoire pour ces membres de faire des check-up régulièrement dans les hôpitaux Google. En cas de manquement, un bannissement aux prestations serait ordonné. D’autre part, je suppose qu’il faille porter un bracelet qui compte les pas, prendre en photo ce que l’on mange, faire des prélèvements de ces excréments et adapter son régime et son mode de vie en fonction des résultats du mois précédent. Tout manquement sera sanctionné par un bannissement aux services proposés.

Trop contraignant ? Notre smartphone est capable de compter les pas, possède un appareil photo, une application de l'hôpital permettrait de créer les rendez-vous et les rappels nécessaires. Je le répète, chaque rendez-vous mensuel a pour but de trouver des maladies et de les guérir le plus rapidement possible, en tout cas de te maintenir en forme. Ainsi tu te retrouveras dans une bulle, plus je donne des infos plus je me sentirai en sécurité (plus j'alimente en données biologiques la base de donnée du géant GAFA). 

100 dollars par mois c'est cher ? Oui mais il n'est pas à exclure que le prix tant à diminuer voire même devenir ou être déjà gratuit ! N'oublions pas que Google Search est une machine incroyable qui coûte extrêmement chère à entretenir et pourtant l'outil est gratuit et utilisable du jour et de la nuit par des milliards de personnes ! Va créer un site qui supporte un milliard de personne par jour et on verra combien va te coûter, ne serait-ce les serveurs pour le faire tourner correctement !

3 questions issues de 3 processus mutés

L'auteur nous fait part de 3 processus en actuelle mutation.

  1. La science converge vers un dogme universel suivant lequel les organismes sont des algorithmes et la vie se réduit au traitement des données
  2. L'intelligence se découple de la conscience
  3.  Les algorithmes non conscients (mais forts intelligents) nous connaîtrons bientôt mieux que nous-mêmes

Ces 3 processus soulèvent 3 questions cruciales donc j'espère qu'elles vont se représenter dans ton esprit :

  • Les organismes ne sont-ils réellement que des algorithmes et la vie se réduit-elle au traitement des données ?
  • De l'intelligence ou de la conscience laquelle est la plus précieuse ?
  • Que deviendra-t-il de la société, de la politique et de la vie quotidienne lorsque des algorithmes non conscients, mais hautement intelligents, nous connaîtrons mieux que nous nous connaissons ?
Les différents types de réseaux de neurones : réseau de convolution

Les différents types de réseaux de neurones : réseau de convolution

Reprenons la série des articles traitant des différents réseaux de neurones. Dans cet article je vais t'expliquer comment fonctionne un réseau de convolution.

Dans l'article précédent nous avions vu comment fonctionnait un réseau de neurone artificiel. Si tu n'as jamais entendu parlé du fonctionnement, je te conseille de le lire avant de continuer. Comme je l'ai déjà expliqué, même en simplifiant, il y a une partie "technique" et "représentative" que je ne peux pas soustraire à l'explication. Je vais essayer de mettre le plus d'illustration possible pour bien comprendre. Chaque réseau à sa spécialité, ils ont des fonctionnement différents avec des résultats plus ou moins performants. Les réseaux de convolution sont très bon pour l'analyse des images. 

Réseau de convolution

Je ne vais pas faire de l'histoire sur la création, ni qui, Wikipédia s'y prête très bien pour ce genre d'information. Allons dans le technique et pragmatique tout de suite ! Toujours en quatre étapes.

Conception en 4 étapes

Une image est composé de petits carrés que l'on nomme "pixel". Dans une image en noir et blanc, nous parlerons de 2 dimensions (array) car il y a blanc et noir. De plus, chaque pixel aura une valeur comprise entre 0 et 255 nuances de "gris" (rien à voir avec le film). Le blanc est représenté par le 0.
Pour une image en couleur, elle aura trois dimensions (array), repartie en 3 couleurs primaires, bleu, vert et rouge. Idem avec 255 nuances. Pourquoi 0 et 255  ? Selon mes recherches, c’était l’ensemble du code couleur RGB des écrans dans les années 80, les chercheurs ont gardé cette base.

pixel-image-reseau-convolution

Voilà une manière de comment l'ordinateur voit une image. Pour faire simple il n'y a pas de nuance dans les futurs exemples, c'est soit blanc donc 0 soit noir 1.

pixel-image2-reseau-convolution

Convolution

Pour la convolution, il suffit de reprendre l'image pixelisée, carré par carré, et de la "convertir" avec une sorte de "calque". Oui j'utilise beaucoup de guillemets car aucun de ces termes sont utilisés. Le calque s'appelle un feature detector et l'image convertie se nomme feature map. Il existe des millions de feature detector différents et de taille différente, le choix se fait en fonction des best practice des data scientist. Une fois que l'image est intégralement passée par un feature detector, on obtient une feature map. C'est l'image originale, compressée une nouvelle fois avec un calque précis.

Voici en image :

Ce diaporama nécessite JavaScript.

Nous répétons ce processus avec d'autres feature detector pour créer plusieurs feature map de cette image. Cela va créer une sorte de mille feuilles de plein de feature map différentes. On appelle cela une couche de convolution.

convolution-réseau-neurone

Dans ce site tu écris avec ta souris un chiffre dans la barre en haut à gauche. Avec le pointeur de ta souris tu peux voir les 7 couches de convolution comment elles travaillent. Elle détermine ce que tu as écris en fonction de tout ce traitement d'image.

Max Pooling

Le réseau de neurone doit avoir une invariance spatiale. Notre cerveau est vraiment très fort, car sur les images ci-dessous nous sommes capable de comprendre que c'est un guépard. Et cela peu importe si l'image est tordue ou non. De même si le guépard est en premier plan, allongé, en train de courir, quoiqu'il en soit on le reconnait au premier coup d’œil.

Nous le faisons de manière naturelle et nous n'avons pas l'impression que notre cerveau travaille dur. Ainsi, nous devons adapter l'algorithme de la machine pour qu'elle soit capable de faire comme nous. Si l'image est tordue, cela peut donner un résultat totalement différent. Idem, nous reconnaîtrons l'animal qu'il soit assis, nous regarde, ou de dos qu'il soit au premier ou second plan !

réseau-convolution-max-pooling

Pour limiter les erreurs, le max pooling est la même manipulation que pour obtenir une feature map.

convolution-max-pooling

On passe la feature map dans un max pooling (ici d'un carré de 2 par 2) où l'on va garder par exemple que les chiffres les plus grands. L'image encore réduite s'appelle un pooled feature map. Idem que pour les features map, on va multiplier les max pooling pour obtenir un mille feuilles de pooled feature map. Ainsi la machine va comprendre qu'il y a un pattern, un motif qui se présente souvent au même endroit et que cela fait parti de l'animal en question.

Flattening

Comme nous l'avions vu précédemment, un réseau de neurone connecté, les couches d'entrées ,cachées, et de sorties sont verticales. Jusqu'à maintenant nous avions une image représentée par des carrés. Nous avons diminué la taille de l'image. Le Flattening permet de verticaliser les pooled feature map.

Ce diaporama nécessite JavaScript.

Couche entièrement connectée

Nous arrivons au bout. Si nous devions schématiser le travail accompli jusqu'à maintenant et que nous voulions apprendre à la machine à reconnaître un chien d'un chat, voici ce que ça donne :

reseau_de_convolution

Nous retrouvons la forme de notre réseau de neurone comme expliqué dans le premier article. Les deux neurones de sortie permettent de déterminer la valeur y (chien ou chat).

Le réseau est auto-apprenant en supervision, ce qui signifie que si nous montrons une image de chien et que le réseau dit chat, alors nous indiquons au réseau qu'il a faux. Ainsi, il va se réajuster lui-même en modifiant ses paramètres pour éviter la même erreur.

J'espère que cela t'a éclairé davantage sur la composition et le fonctionnement des réseaux de convolutions. C'est ce système qu'utilise la reconnaissance faciale chez Facebook, à une voiture de comprendre les panneaux ou tout autre machine capable de comprendre son environnement.

Dans le prochain article, je parlerai de comment fonctionne un réseau de reinforcement learning, une machine capable d'apprendre depuis zéro ! Sans lui dire comment faire pour apprendre, la machine est capable de dialoguer, voir, et se déplacer juste parce que nous lui avons donné un objectif à atteindre !

Conférences Performance Web 2018

Conférences Performance Web 2018

Performance Web est l’événement incontournable du SEO en romandie. J'étais venu à leur première édition (en 2015) et en 2016. J'en avais gardé un très bon souvenir. Se sentir bien sur place, faire du réseau et repartir avec plus de connaissance dans ma boite crânienne, c'est tout ce qui m'importe.

L'organisation des conférences était bien ficelée

A peine pris mon Pass pour la journée que nous avons les mains pleines de cadeaux. Une sacoche, un tote bag. C'est plaisant, un peu déboussolant, quand on essaie de dire bonjour à quelqu'un avec tous ces sacs. Et puis j'ai regretté d'être venu avec mon sac à dos.

Bon le plus important c'est qu'il n'y a pas eu de retard sur scène, peu d'attente pour les cafés, l'organisation était top ! C'est toujours plaisant quand tout se passe bien et sans accro. De plus, le speaker a su garder son public attentif. Mon point négatif est le repas du midi :

Composition du lunch

  • 2 verrines de taboulé
  • 3 tranches de tarte aux pommes
  • 1 bouteille d'Henniez
  • Terminé

Un peu léger quoi. Fini la critique sur l'organisation, allons directement dans l'essence de l'événement, la substance même de pourquoi je me suis retrouvé ici, assis à écouter 10 speakers différents durant toute la journée ; place aux contenus des conférences.

début_conférences_performance-web

Marketing de niche, E-commerce, Tracking et Analytics

Je vais résumé 3 conférences qui m'ont plu. Galanterie oblige, commençons par Fanny Rannaud qui nous a exposé un sujet grave avec une voix remplie d'émotion ; "Sujets de niche : transformez les contraintes en opportunités".

Fanny_rannaud_conférence_performance_web
Crédit photo : https://www.facebook.com/charlottelemeslephotographe/

 

Fanny travaille chez Helvet Health, une agence de communication liée au secteur médical. L'objectif de son travail est de fournir de l'information à une niche ; les personnes qui souffrent d'une maladie rare. Ces personnes souffrent longtemps. Cette attente est due à plusieurs facteurs.

Tout d'abord, le fait de ne pas trouver d'information sur les symptômes recherchés. Fanny nous apprend que ce premier point empêche de savoir si la personne peut mettre un nom sur sa maladie. Un problème sous-jacent c'est que les maladies sont tellement rares qu'il est possible aussi qu'elle n'a pas été découverte. Par conséquent, le dépistage prend des années. Ce sont des maladies rares, il faut rencontrer des spécialistes dans le monde entier. En plus du facteur temps, cela à un coût très important pour le malade de chercher des réponses à ses questions.

L'écoute et l'analyse

Fanny nous développe le processus marketing mis en place par l'agence. En premier lieu, elle doit rechercher les intentions de recherche. Pour cela, elle "écoute" le web. Elle identifie les conversations sociales sur certains mots-clés. De plus, elle cartographie ces keywords et identifie s'ils sont utilisés par des médecins ou des patients. En effet, un patient ne va pas utiliser le terme médical/scientifique pour parler de sa maladie, contrairement à un forum de discussion entre médecins.

Ensuite, Fanny va analyser le contexte informatif, cela revient à se poser la question suivante :

Est-ce que le web permet de répondre au question que se posent les malades ?

Suite de quoi, elle va rechercher et identifier qui donnent les réponses. Sont-ce des informations gouvernementales, médicales ? De la part d'influenceurs ? etc.

 

Création de contenu pertinent

Fanny va ensuite analyser les publications scientifiques liées à ces maladies pour le "vulgariser", le rendre plus accessible à tous. En effet, nous ne communiquons pas comme les médecins et il est donc nécessaire d'adapter les contenus en fonction des personnes qui rechercheront ces informations.

fanny_rannaud_conférence_performance_web
https://www.facebook.com/charlottelemeslephotographe/?fref=mentions

Valorisation du contenu

Le second objectif de Fanny est de valoriser le contenu. Pour cela, elle va multiplier les touchpoints via des forum, event, et collaborer avec les leaders d'opinion. Un exemple marquant pour ma part, lorsqu'elle a parlé de hackaton donc les scientifiques recherches des manières et méthodes pour mieux comprendre le malade. Dans les équipes de hackaton, sont mélangés les experts et les malades afin de prendre conscience de la difficulté des deux positions.

Enfin, apporter des solutions accessibles. Quand une personne utilise un certain nombre de mot-clés et se retrouve sur un site "médical", ils vont lui proposer d'aller voir un spécialiste avec les coordonnées. Les sites internet créer par l'agence propose toujours un forum pour créer et libérer la parole. Ainsi les personnes malades sortent de leur solitude. La solitude est un dommage collatéral des maladies rares.

Beyond the pill

Les laboratoires pharmaceutiques ont une approche différente en terme de communication car la législation est très restrictive. Ainsi, les laboratoires, expliquent ce qu'il se passe avant de créer un médicament. Cela participe à la crédibilité du laboratoire. En effet, un laboratoire qui a soigné une maladie rare permet d'avoir une crédibilité sur la scène mondial non négligeable, nous avoue Fanny.

Connecter les patients, avoir leur retour d'expérience, ne pas laisser les malades seuls, voici la mission que nous a fait découvrir Fanny Rannaud.

E-commerce

Nicolas_Chevalier_conférence_performance_web
Nicolas_Chevalier_performance_web

Je décerne la punchline de la journée à Nicolas Chevalier. Si je devais résumé son intervention en une phrase :

Le job du e-commerçant n'est plus de vendre, mais d'engager

Mélange de satisfaction et d'inquiétude dans la salle à ce moment. Revoyons les arguments annoncés par Nicolas.

Aujourd'hui l'achat est secondaire

Avez-vous l'impression d'acheter aujourd'hui ? Avec le one-click de Amazon, sentez-vous vraiment passer un acte d'achat ? Pas vraiment, est-ce pour autant une mauvaise expérience ? Non plus. Nous ne ressentons plus d'excitation au clic d'achat car ce n'est plus ce qu'il y a de plus important. C'est l'expérience et les informations (comparateurs, documentations, livre blanc, commentaires etc.)  en amont qui me confortent dans mon acte d'achat. " L'acte d'achat n'est plus important, c'est le tout autour qui est important." pour reprendre intégralement les mots de Nico (c'est pour la rime).

La force de vente est les clients !

Nicolas part du constat suivant : si des prospects ont les mêmes valeurs que moi, alors ils deviendront naturellement mes clients plus tard. En effet, si on partage des valeurs avec une communauté alors la communauté va nous aider à se développer. C'est selon lui la manière dont E-com Nation se développe.

La pré-fidélisation

Avoir une marque forte comment avoir de le croissance (voir slide ci-dessous).

nicolas_chevalier_conférence_performance_web
nicolas_chevalier_performance_web

Pour conclure, l'objectif numéro 1 est de transformer son client en ambassadeur. Le but n'est pas de vendre à tout prix, mais de le captiver et de donner un maximum de valeur. Par effet de réciprocité, les prospects deviendront clients.

Google Analytics ; GDPR un frein potentiel

Terminons en beauté avec la présentation de Bruno Guyot, Consultant indépendant en tracking & performance digitale - Google Certified Trainer. La conférence assez technique c'est la raison pour laquelle je ne vais pas faire long. En tout cas j'ai appris des best-practices qui fait plaisir. Bruno a développé un outil assez sympa pour s'assurer du rôle des cookies et du bon matching avec les campagnes directement dans Google Tag Manager.

Pour résumer brièvement, le maître mot pour qu'une campagne fonctionne très bien est la pertinence. Plus la campagne est pertinente rapidement, plus les résultats sont visibles et à bas coût. Deuxième point très important est la configuration de son Google Analytics. Pour en savoir davantage voici le lien en rapport avec toute sa présentation, une vraie mine d'or pour tout ceux qui sont dans le marketing digital !

 

 

Les différents types de réseaux de neurones : réseau de neurones artificiels

Les différents types de réseaux de neurones : réseau de neurones artificiels

Nous avons vu à plusieurs reprises les progrès fascinants de l'Intelligence Artificielle. Mais cela peut sembler abstrait de se représenter comment ça fonctionne.

Tout comme nous utilisons dans théorèmes mathématiques différents en fonction du problème posé, nous utilisons des algorithmes différents en fonction des valeurs que nous voulons trouver. En effet, chaque réseau neuronal ont des "facilités".

Nous allons voir dans les prochains articles, trois types de réseaux. Les réseaux de neurones artificiels sont efficaces pour faire des prédictions et apprendre tout seul (je vais l'expliquer plus bas). Les réseaux convolutionnels sont efficaces pour la reconnaissance d'image. Les réseaux de carte auto-adaptative (SOM) sont efficaces dans la visualisation des data.

Les réseaux neurones artificiels

L'utilisation du terme "réseau de neurone" s'apparente au réseau de neurone biologique que nous essayons d'imiter informatiquement.

Ceci est un neurone naturel

Neurone-naturel
Neurone-naturel

Nous représentons calmement un neurone comme celui-ci de cette manière :

neurone-schéma
neurone-schéma

Pourtant, ce schéma est d'une simplification déconcertante. En effet, si nous zoomons uniquement sur les "terminal buttons", le bout des axones tout en bas du schéma, nous verrons ce genre de chose opérer :

terminal button
terminal button

Et encore, ceci est une version simplifiée... Mère Nature est bien plus complexe.

On parle de "réseau", signifie que les neurones (biologiques) se connectent entres eux. Dès lors, le réseau de neurones artificiels seront connectés entre eux également.

Réseau artificiel comment ça marche ?

Revenons à nos neurones artificiels. J'ai dit plus haut que nous les utilisons pour faire des prédictions et aussi apprendre tout seul. Prenons le cas d'un réseau qui pourrait déduire le prix d'un bien immobilier.

Nous allons utiliser la data que la régie immobilière possède et ainsi faire des prédictions dans le cas où un nouveau bien sera mis à disposition de la clientèle.

Pour la base, le sens de lecture est de gauche à droite. Et le sens des flèches correspond aux flux d'informations.

Comment-fonctionne-res-neurones-artificiels-1

Nous avons une couche d'entrée sur la gauche, qui sont les informations communiquées et nous avons notre "y" qui est la valeur réelle. Le "y" est issu de "l'addition" des informations présentées dans la couche d'entrée. Les flèches bleues sont l'équivalent des "synapses cérébrales" et elles possèdent toutes un "poid" en fonction de leur information.

Comment-fonctionne-res-neurones-artificiels-2

Nous venons d'ajouter une couche cachée composé de 5 neurones. Pour le premier neurone, lui, il va regarder les informations X1 et X3 et ne pas prendre en compte les informations de X2 et X4. Et ainsi, chaque neurone va prendre des informations et faire des "calculs".

On le sait, un bien qui s’éloigne du centre est plus grand pour le même prix qu’un bien au centre-ville et plus petit. Il va dès lors regarder l’inverse, des biens avec une grande surface au plus petit prix au centre-ville.

Comment-fonctionne-res-neurones-artificiels-3

Chaque neurone va ainsi déterminer des cas de figure différent en fonction des data que nous lui avons soumis.

Comment un neurone va donner une information

Sans entrer dans les détails mathématique, la fonction redresseur est une fonction qui permet à un neurone de donnée une information ou non.

Comment-fonctionne-res-neurones-artificiels-4

Pour le cas du neurone numéro 5 (tout en bas), lui il regarde uniquement l'âge du bien. Une fonction redresseur est comme un interrupteur ON/OFF. Il existe plein d'autre fonction d'activation mais je n'entrerai pas dans les détails pour cet article.

Ainsi, si nous faisons une recherche d'un bien qui à plus de 50 ans, alors ce neurone laissera passer l'information si le bien à plus de 50 ans ou non bloquera l'information si le bien à moins de 50 ans.

Comment-fonctionne-res-neurones-artificiels-5

Tous les neurones auront donc des spécialités, ils comprendront des particularités dans les bases de données. Ils vont aussi donner du poids ou pas dans leur décision. Le neurone de sortie va donc sortir le prix du bien immobilier.

Comment peut-il apprendre ?

Un réseau comme on vient de le voir ne permet d'apprendre, dans le sens où il peut s'améliorer. En effet, ici, nous ne pouvons pas savoir si la valeur de y est juste ou non.

C'est la raison pour laquelle le perceptron a été crée. Dans le sens où le réseau va pouvoir s'auto-ajuster, au niveau de poids (synapses) de manière autonome. Oui c'est incroyable !

Comment-fonctionne-res-neurones-artificiels-6

Pour la représentation, nous allons intégrer ce calcul mathématique dans tous les neurones (au lieu de récrire cette équation dans toutes les bulles vertes, j'en ai fait une grande ok). Maintenant on voit deux neurones de sorties, y et ^y (dire y chapeau). En fait, en math, "y" est toujours la valeur réelle, et ^y est la valeur de prédiction.

Comment faire pour que le réseau s’entraîne et s'améliore ?

Comment-fonctionne-res-neurones-artificiels-7

Comment savoir si la prédiction est juste ? On situe « y chapeau » sur un graphique avec « y ». On compare les deux valeurs avec une « valeur de coût » C = ½ (^y-y)² et cette valeur va être réinjectée dans le neurone qui procède au calcul et va, par lui-même, ajuster les poids des synapses. Le poids uniquement car les valeur X sont figées et la fonction d’activation aussi. Seuls les poids des synapses sont des variables.

En d'autres termes, avec le jeu de donnée que la machine a, elle va faire en sorte que sa valeur ^y soit le plus proche de y.

Cette méthode a plusieurs incidences dont je ne vais entrer dans les détails. Mais pour conclure je peux parler de l'overfitting (ou surapprentissage). C'est exactement comme toi à l'école, si tu fais plusieurs fois exactement le même exercice. Tu vas trouver les réponses sans chercher, car tu connais l'ordre et les réponses. La machine c'est pareil, si elle apprend "trop" à partir de son jeu de données, elle va comprendre très bien... son jeu de donnée ! Si on lui donne des nouvelles données, elle ne va pas s'adapter, exactement au même titre que toi enfant, si on change l'énoncé de l'exercice tu te retrouves avec une nouvelle difficulté.

C'est terminé pour cet article sur les réseaux de neurones artificiels, le prochain article sera sur les réseaux de convolution. 

 

 

L'avènement de la conscience artificielle n'est pas liée de la singularité

L'avènement de la conscience artificielle n'est pas liée de la singularité

Pour fabriquer une IA consciente il faut trois éléments. Une machine qui réagit à son environnement, comme une lampe à détection de mouvement. Ensuite qu'elle soit capable de prendre des décisions - quand tu fais une recherche sur Google, l'IA prend la décision de te présenter ces résultats. Et enfin qu'elle soit capable de se voir elle-même en train d'agir et se poser des questions sur ses agissements. Ce sont des aspects bien commun de nos jours et contrairement à ce que l’on pourrait croire, il est plutôt facile d’en créer une. Mais alors, pourquoi nous n’en voyons pas ? Je vais te l’expliquer mais avant tout il faut faire un tour dans l’inconscient des humains.

La théorie de l’esprit

Pour comprendre la conscience humaine, il faut plonger profondément dans l'étude de la théorie de l'esprit.
La théorie de l'esprit est la tentative par un cerveau de déterminer le contenu d'un autre cerveau. Par exemple, Amandine se demande ce que pense Bruno du monde dans lequel nous vivons tous. Amandine crée des théories sur l'état actuel de l'esprit de Bruno.

Elle fait cela pour deviner ce que Bruno pourrait faire ensuite. Il est vrai d’un côté, aucun pouvoir ne pourrait être plus grand pour un animal social comme nous, les humains, d’anticiper le comportement des autres. Pendant des milliers et des milliers d'années, nous avons vécu à proximité des uns des autres. À mesure que nos comportements et nos pensées devenaient de plus en plus complexes, il devenait crucial pour chaque membre de la tribu d'avoir une idée de ce que pensaient les autres membres et des actions qu'ils pourraient accomplir. La théorie de l'esprit, c’est de l'espionnage intellectuel ! Et nous sommes plutôt doués, mais avec des limites critiques que nous aborderons plus tard.

Notre cerveau est comme un ordinateur ?

Dès lors qu’un système s’auto-observe et essai de faire de prédiction sur ce qu’il voit (de manière la plus approximative possible) est tout à fait envisageable. Alors pourquoi nous ne le faisons pas ?
On aime penser que notre cerveau est comme un ordinateur. Avec une RAM (mémoire court terme), un disque dur (mémoire long terme), un système de refroidissement et alimentation (vaisseaux sanguins) etc. Mais c’est très loin d’être le cas. Un ordinateur est construit avec toutes les pièces de son époque. Le cerveau pas du tout, certaine zone du cerveau sont beaucoup plus vieille que d’autre. De plus, la mémoire n’est pas unifiée dans une seule partie.

D’autre part, notre cerveau bouge, change, adapte les aires (cela se nomme la plasticité cérébrale). Notre cerveau ressemble plus à une ville comme Rome, toute sinueuse, où l’ancien se mélange avec le moderne. D’ailleurs toutes les zones ne communiquent pas ensemble. Un exemple frappant, si tu as eu le mal de mer. Une partie du cerveau comprend qu’il y a une différence entre les informations de l’oreille interne et de ce que tu voies. Le cerveau se met en alerte “empoisonnement tout le monde sort d’ici”, et tu vomis tout ce qui est possible pour éliminer le poison. Sauf que consciemment, tu sais que tu n'as pas ingurgité de poison…

Un humain n’est pas une machine ?

Nous venons de voir que les humains ont des comportements différents avec des similitudes. D’une part, les humains se regroupent par similitude car l’union fait la force. Dans la nature, vivre en communauté est plus facile que vivre seul. D’ailleurs le test de Ash prouve que nous préférons nous conformer au groupe; même si le groupe à faux, plutôt que d’être seul contre le groupe. Et puis nous avons des comportements constamment contradictoire ! Pourquoi voulons-nous nous habiller et aller danser ? Parce que c'est drôle ! Et nos amis seront là ! Pourquoi voulons-nous continuer à manger quand nous sommes repus ? Parce que c'est délicieux ! Et nous avons fait mille pas supplémentaires aujourd'hui !
Ces questions sur nos propres comportements n’en finissent jamais. Et les réponses sont presque toujours fausses.

L’égo fait la conscience de soi

Nos suppositions sur les motivations des autres sont beaucoup plus précises que les suppositions que nous faisons sur les nôtres. Ce champ de force est notre ego, et il nous donne une opinion exagérée de nous-mêmes. En effet, nous nous accordons un esprit plus élevé pour nos actions et une illusion de dangerosité lorsqu'un autre est meilleur que nous (ensuite vient la fascination et l'envie de s'améliorer). C'est d'ici que vient ce biais "les machines voudront nous tuer".

Les explications incorrectes que nous présentons sur nos propres comportements visent à nous protéger. Elles sont souvent follement créatives, ou mêmes absurdes. Les réponses comme «amusant» et «délicieux» sont des réponses qui font référence à un module de bonheur, sans aucune curiosité quant aux avantages sous-jacents de ce mécanisme de récompense.

La vérité est que nous continuons à manger quand nous sommes repus parce que nous avons évolué dans un monde de pénurie calorique. Nous dansons pour attirer les copains et les copines à faire des copies de nous-mêmes (se reproduire). Parce que les modules de reproduction ont guidé ce comportement et nous sommes la descendance de ces premiers modules (c’est donc une affaire qui marche).

Alors cette machine existe-elle vraiment ?

Avec tous aspects précédents, si nous devions faire une analogie la plus précise d’une machine existante, alors je dirais : la voiture autonome connectée.

En effet, les voitures autonomes ont la capacité de voir et d’entendre pour se mouvoir sans heurter les obstacles. Elles ont donc une perception de leur environnement. Les voitures Tesla éduquent les  conducteurs pour l’utilisation de l’autopilot. La voiture conduit toute seule pendant un certain nombre de mètres et elle indique qu’il faut remettre les mains sur le volant. Plus le conducteur est réactif, plus la distance de conduite autonome sera longue. Il existe bel et bien une sorte de langage entre la machine et l’humain. Elles ont donc une perception langagière comportementaliste.

En voiture Simone

Maintenant, la conscience des autres. Si toutes les voitures étaient connectées, alors elles pourraient également communiquer entres-elles. Cette Nissan bleue va à l'épicerie parce qu'elle a faim. Et cette camionnette rouge va dans une station d'essence parce qu'elle a besoin de carburant. Cette voiture est en état d'ébriété. Celui-là ne peut pas très bien voir à cause de son phare cassé.

La bibliothèque de perceptions commence simplement avec les concepts du premier ordre, mais se transforme ensuite en idées de deuxième et troisième ordre. Est-ce que cette Ford jaune voit la Citroën grise venir vers elle ? Il s’est légèrement décalé, alors oui, c'est le cas. Est-ce que cette camionnette pense que la berline conduit trop agressivement ? Elle laisse plus de distance que les autres voitures, alors oui.
Notre machine va inventer des histoires sur ce qu'elle fait. Elle essaiera de relier ces histoires aux autres et ce sera souvent faux.

Est-ce vraiment souhaitable ? Nous avons créé des robots et des machines dans l’unique but qu’ils soient experts. Qu’ils traitent les informations sans erreur et de manière standardisée. C’est bien le paradoxe, nous fonctionnons totalement à l’opposé !

Rendre humain la machine, le piège anthropomorphique

Ce qui a vraiment fait apparaître Watson comme humain, c'est quand il a fait des gaffes. Comme une réponse finale de Jeopardy dans la catégorie "American Cities" où Watson a répondu une ville canadienne.
Il vaut la peine de noter ici que les robots nous semblent plus humains quand ils échouent.

Notre égo nous fait rire et nous fait peur

Il faut avouer que nous avons un certain plaisir quand nous regardons les vidéos des robots de Boston Dynamics. Notamment quand le robot soulève la boite et le gars tape sur la boite avec son bâton pour la faire tomber. Et maintenant quand nous voyons ce même robot faire un salto arrière (donc meilleur que nous) on se dit qu'il va nous écrabouiller... encore l'égo qui parle (relis le paragraphe, ci-dessus, de l'égo fait la conscience de soi) !

Les constructeurs automobiles sont en train de construire des véhicules qui ne seront jamais conscients. C'est parce qu'ils sont trop biens construits ! Notre projet consiste à rendre une machine ignorante de ses motivations tout en fournissant un dialogue de ces motivations. Une meilleure idée serait de construire une machine qui sait ce que font les autres voitures. Pas de devinettes.

Le savoir est la nouvelle richesse

Cela signifie accès au GPS, aux messages du smartphone, aux e-mails de l'ordinateur personnel. Mais aussi l'accès à tous les autres véhicules et toutes les données des capteurs de la ville. La Nissan dit à la Ford qu'elle va au centre commercial. Chaque voiture sait ce que chaque voiture fait. Il n'y a pas de collision.

Sur l'autoroute, des voitures aux destinations similaires se regroupent, des pare-chocs magnétiques se relient, en file indienne et réduisant de moitié l'utilisation énergétique collective de chaque voiture. Les machines fonctionnent de concert. Elles affichent tous les traits de l'omnipotence véhiculaire. Elles savent tout ce qu'elles ont besoin de savoir, et avec de nouvelles données, elles changent d'avis instantanément. Pas de parti pris. D'ailleurs, si une entreprise dit pouvoir guérir n'importe quelle maladie dans l'unique condition de te pister, même biologiquement, serais-tu prêt à l'accepter ?

L'IA sera au service de l'Homme

L’avenir le plus probable selon moi, c'est l'expansion et l'amélioration de nos propres algorithmes. Nous avons une longue histoire sur la condition humaine et de l’Homme contre l’Homme. Malgré ce que les nouvelles locales essaient de te vendre, le monde devient plus sûr tous les jours pour la grande majorité de l'humanité. Où l'éthique s'améliore. Nos sphères d'empathie sont en expansion. Sans besoin de créer une conscience artificielle.

La singularité

Pour conclure, selon moi nous vivons déjà la singularité. La machine est déjà plus performante que l'Homme dans bien des tâches. Les IA leur manque le "sens commun", c'est-à-dire la capacité à trouver une solution dans n'importe quelle situation. L'Homme a la prodigieuse capacité d'apprendre dans de nouvelle situation. Je ne sais pas faire un mur avec des briques et du ciment pourtant sur le fait accompli, j'essaierais, je vais surement me tromper et être très lent mais je suis "capable" de le faire. Est-ce grâce à ma conscience ? Pourtant je ne suis pas conscient de tout ce que je sais !

Enfin, une conscience a déjà été simulée, je te conseille de lire les recherches du professeur Alain Cardon sur la conception d'une conscience artificielle. N'en démords pas moins qu'il a détruit ses travaux dans l'attente d'un comité d'éthique mondial sur les réglementations et les usages de l'IA.

Nous pouvons également considérer notre propre cerveau comme une machine. Il est impossible de prouver le contraire. Exemple : comme un ordinateur dont on ne voit pas la masse de calcul à chaque instant, notre programme nous empêcherai de voir comment notre cerveau fonctionne !

 

Le ciblage Facebook est précis grâce à toi

Le ciblage Facebook est précis grâce à toi

Le ciblage Facebook est précis.

Facebook est un réseau social qui représenterait le 3eme pays le plus peuplé du monde. Au cas où tu ne le savais pas, c'est également une régie publicitaire (au même titre que Google). Dès lors, les entreprises nous ciblent sur Facebook. Elles le peuvent car Facebook met des “étiquettes” sur nos comportements, sur les appareils que nous possédons et via les infos que nous donnons. Avec toutes ces données, Facebook nous met dans des "bulles", des "groupes" aux comportements similaires. Les annonceurs ne savent pas qu'ils te ciblent toi personnellement mais ils ciblent des personnes qui représentent une potentialité d'affaires.

Les annonceurs paient pour mettre leurs pubs sur Facebook.

Facebook quant à lui met en avant ces pubs aux utilisateurs que l'annonceur veut cibler. Prenons un exemple concret : je suis un commerçant qui a un magasin (je ne vends pas sur Internet) de jeux vidéo. Je veux viser les personnes qui possèdent une console de jeux et proche de mon magasin. Encore mieux, je souhaiterais viser les "millennials" et dont leur anniversaire sera le mois prochain. Ainsi je pourrais faire une annonce du type :

"Offre toi le nouveau JEUVIDEO X42 qui sort le 18 Octobre. Viens le récupérer en magasin pour ton anniversaire !"

La base du marketing publicitaire

Le principe du marketing : donner le bon message, au bon moment à la bonne personne. Avec Facebook c'est dans le mille ! La géolocalisation, la tranche d'âge, le fait de posséder une console de jeux et le fait que c'est l'anniversaire le mois prochain me permet de cibler précisément mes clients potentiels. La publicité prendra alors en compte au moins l'un de ces critères pour toucher les bonnes personnes. Grâce à l'intelligence artificielle et via les big data, la précision est de plus en plus chirurgicale. L'avènement des assistants intelligents permettront de prédire nos envies.

Ce n'est pas de la science-fiction, aujourd'hui il est possible de payer pour la publicité ultra-ciblée. Autres avantages du marketing digital, le calcule du ROAS. C'est-à-dire le retour sur investissement publicitaire. L'annonceur sait au centime près pour quoi il a été dépensé et quel action il a eu en retour. Contrairement aux méthodes de marketing traditionnel où les annonceurs paient des sommes pharaoniques en affichage urbain/TV pour un retour moins mesurable. Si le thème "comment un annonceur peut savoir combien il dépense et quel résultat il obtient" t'intéresse, clique sur mon assistant virtuel en bas à gauche de cette page et viens me le dire 🙂

Comment savoir, ce que sait Facebook sur moi

En effet, il n'y a rien d'obscure, tu peux contrôler toi-même les infos que tu mets à disposition pour Facebook. Ainsi, tu peux aussi renoncer et interdire l'accès à certaines informations. Pour se faire, je te mets en printscreen mon compte personnel et je te montre pas à pas comment voir ces "étiquettes" expliquées ci-dessus.

Cliques sur la flèche et sélectionne tout en bas "Paramètres"

ciblage Facebook est précis grace à toi-1

Ensuite sur la gauche, cliques sur "Publicités"

ciblage Facebook est précis grace à toi-2

En ensuite sur "Vos Informations" et "Vos Catégories"

ciblage Facebook est précis grace à toi-3

Je te laisse naviguer sur les renseignements que donne Facebook. Tu peux aussi télécharger l'historique de tout ce que tu as donné comme information à Facebook depuis que tu as crée ton compte. J'avais mis le mode opératoire dans ce billet.

 

 

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Un grand défi en neuroscience est de comprendre comment le cerveau encode l'information. Les réseaux de neurones se révèlent être des crackers de code géniaux.

Notre cerveau code ses informations

Chaque fois que vous déplacez votre main ou votre doigt ou votre globe oculaire, le cerveau envoie un signal aux muscles pertinents contenant l'information qui rend ce mouvement possible. Cette information est encodée d'une manière spéciale qui permet la transmission par les neurones et ensuite d'être appliquée correctement par les muscles concernés.
Exactement, comment ce code fonctionne ? C'est un mystère. Depuis longtemps, les neuroscientifiques sont en mesure d'enregistrer ces signaux lorsqu'ils traversent les neurones. Mais les comprendre est beaucoup plus difficile. Il existe différents algorithmes qui peuvent décoder certains de ces signaux, mais leurs performances sont inégales.

Une technique permet de lire le code du cerveau

Aujourd'hui, Joshua Glaser à Northwestern University à Chicago et quelques copains disent qu'ils ont développé une telle technique en utilisant la nouvelle technologie du ML (Machine Learning). Ils disent que leur décodeur dépasse considérablement les approches existantes. En effet, il est tellement efficace que l'équipe affirme qu'elle devrait devenir la méthode standard pour analyser les signaux neuronaux à l'avenir.

Partons dans le cerveau

L'information se déplace le long des fibres nerveuses sous la forme de pointes de tension (électrique). Les neuroscientifiques pensent que le schéma des pointes code les données sur les stimuli externes, tels que le toucher, la vue et le son. De même, le cerveau encode l'information sur les mouvements musculaires d'une manière similaire.

Comprendre ce code est un objectif important. Il permet aux neuroscientifiques de mieux comprendre l'information qui est envoyée et traitée par le cerveau. Il aide également à expliquer comment le cerveau contrôle les muscles.

Les neuroscientifiques aimeraient avoir de meilleures interfaces cerveau-machine. Les buts sont multiples (contrôler les fauteuils roulants, les prothèses et les jeux vidéo). «Le décodage est un outil essentiel pour comprendre comment les signaux neuronaux se rapportent au monde extérieur», disent Glaser et Co.

La méthode utilise le ML avec peu de données

Leur méthode est simple. Les neuroscientifiques ont formé des singes macaques. En effet, l'exercice est de déplacer un curseur vers une cible sur un écran. Pour cela les macaques utilisent une sorte de souris d'ordinateur. Dans chaque test, le curseur et la cible apparaissent sur un écran à des endroits aléatoires. Alors le singe doit déplacer le curseur horizontalement et verticalement pour atteindre le but.

Après avoir formé les animaux, Glaser et Co ont enregistré l'activité de dizaines de neurones dans les parties de leur cerveau qui contrôlent le mouvement : le cortex moteur primaire, le cortex prémoteur dorsal et le cortex somatosensoriel primaire. Les enregistrements ont duré environ 20 minutes.

Le travail d'un algorithme de décodage consiste à déterminer la distance horizontale et verticale que le singe déplace le curseur dans chaque test, en utilisant uniquement les données neuronales. Les algorithmes conventionnels fonctionnent en utilisant une technique statistique connue sous le nom de régression linéaire. Cela implique d'estimer une courbe qui correspond aux données, puis de réduire l'erreur qui lui est associée. Il est largement utilisé dans le décodage neuronal dans des techniques telles que les filtres de Kalman et les cascades de Wiener.

Plusieurs techniques mises à contribution

Les neuroscientifiques ont comparé ces techniques à une variété d'approches d'apprentissage mécanique basées sur des réseaux de neurones. Il s'agissait d'un réseau de mémoire à long terme, d'un réseau neuronal récurrent et d'un réseau de neurones feedforward. Tout cela provient des ensembles de données annotés, et plus l'ensemble de données est grand, plus ils apprennent.

Les résultats sont convaincants. Glaser et Co disent que les techniques de ML ont considérablement surpassé les analyses conventionnelles. "Par exemple, pour l'ensemble des trois domaines du cerveau, un décodeur du réseau de mémoire à long terme a expliqué plus de 40% de la variance inexpliquée d'un filtre Wiener", disent-ils.

"Ces résultats suggèrent que les techniques modernes de ML devraient devenir la méthodologie standard pour le décodage neuronal".

À certains égards, il n'est pas surprenant que les techniques de ML soient bien meilleures. Les réseaux de neurones ont été à l'origine inspirés par l'architecture du cerveau. C'est pourquoi, le fait qu'ils peuvent mieux modeler leur fonctionnement est attendu.

Des résultats qui doivent être re-analysés

L'inconvénient des réseaux de neurones est qu'ils ont généralement besoin de grandes quantités de données d'entraînement. Mais les neuroscientifiques ont délibérément réduit la quantité de données. Ainsi, ils ont constaté que les réseaux neuronaux étaient encore supérieurs aux techniques classiques.

C'est probablement parce que l'équipe a utilisé des réseaux plus petits. "Nos réseaux ont de l'ordre de 100 000 paramètres. Alors que les réseaux communs pour la classification des images peuvent avoir sur l'ordre de 100 millions de paramètres", disent-ils.

Le travail ouvre la voie à d'autres pour s'appuyer sur cette analyse. Glaser et Co ont mis leur code à la disposition de la communauté afin que les ensembles de données neurales existants puissent être réanalysés de la même manière.

La machine est créée sur la base d'un réseau humain

Il y a beaucoup à faire. Peut-être la tâche la plus importante sera de trouver un moyen de procéder au décodage neuronal en temps réel. Tous les travaux de Glaser et Co ont été effectués hors ligne après l'enregistrement des enregistrements. Mais il serait évidemment utile de pouvoir apprendre à la volée et de prévoir le mouvement tel qu'il se produit.

C'est une approche puissante qui a un potentiel important. Ce serait une surprise si la même chose n'était pas le cas du décodage neuronal.

Source

Pourquoi l'IA arrive à son âge d'or aujourd'hui?

Pourquoi l'IA arrive à son âge d'or aujourd'hui?

La recherche en IA a commencé dans les années 1950. Après de faux espoirs répétés, l'IA est aujourd'hui à son point d'inflexion. L'efficacité de l'IA a été transformé ces dernières années en raison du développement de nouveaux algorithmes. Il a fallut rassembler un certains nombres d'ingrédient pour que l'IA soit efficace. En effet, nous profitons d'une plus grande disponibilité des données afin de la "nourrir" (big data). Couplé d'un meilleur matériel pour la créer et les services basés sur le cloud pour catalyser leur adoption par les développeurs. Voyons ensemble ces cinq points :

1. Algorithmes améliorés

Le Deep Learning n'est pas nouveau. Spécifiquement, le premier réseau multi-couche neuronal efficace a été publié en 1965. L’évolution des algorithmes en Deep Learning ont transformé tous les résultats au cours de la dernière décennie !
Notre capacité à reconnaître des objets dans les images a été transformé (figure 9). Via le développement des réseaux de neurones convolutifs - convolutional neural networks (CNN). Un design inspiré par le cortex visuel des animaux. En effet, chaque couche dans le réseau neuronal agit comme un filtre pour la présence d'un motif spécifique. En 2015, le système de vision par ordinateur basé sur le CNN, Microsoft a identifié des objets dans des images plus efficacement (95,1% précision) que les humains (94,9% de précision). «À notre connaissance," ils ont écrit, «notre résultat est le premier à dépasser les performances au niveau humain." Applications plus larges des CNNs comprennent la reconnaissance vidéo et de la parole.

reconnaissance IA du langage humain
Les progrès dans la parole et la reconnaissance d'écriture, quant à lui, s'améliore rapidement (Figure 10) après la création de réseaux de neurones récurrents - recurrent neural networks (RNN). Les RNNs ont des liens de rétroaction qui permettent aux données de circuler dans une boucle. A la différence des réseaux neuronaux classiques qui "avalent les informations" seulement. Un nouveau type puissant de RNN est la «longue mémoire à court terme» (modèle LSTM).

C'est pourquoi, avec des connexions et des cellules de mémoire supplémentaires, les RNNs "se souviennent" des données. Celles qu'ils ont vu des milliers d'étapes auparavant et vont les utiliser pour informer leurs interprétations de ce qui suit. En somme, précieux pour la reconnaissance vocale où l'interprétation du mot suivant sera informé par les mots qui l'ont précédé. Depuis 2012, Google a utilisé les modèles LSTMs pour alimenter le système de reconnaissance vocale dans Android. En novembre 2016, les ingénieurs de Microsoft ont indiqué que leur système avait atteint un taux d'erreur de parole de 5,9%. Un chiffre à peu près égal à celui des capacités humaines pour la première fois dans l'histoire.
Niveau langage humain par IA atteint des records

2. Matériel spécialisé

Les GPUs sont des circuits électroniques spécialisés qui réduisent le temps requis pour former les réseaux de neurones utilisés pour le Deep Learning.
Les GPU modernes ont été développés à l'origine à la fin des années 1990 pour accélérer les jeux 3D et des applications de création 3D. En effet, faire un zoom dans un logiciel 3D utilise un processus mathématique appelé "calcul matriciel répété". Les microprocesseurs avec des architectures en série, ce sont les processeurs qui alimentent les ordinateurs d'aujourd'hui. Ils sont peu adaptés à la tâche. C'est pourquoi, les GPU ont été développé avec des architectures massivement parallèles (la Nvidia M40 a 3072 cœurs) pour effectuer efficacement des calculs matriciels .

Une formation d'un réseau neuronal fait usage intensif des calculs matriciels. Par conséquent, les GPUs qui sont utiles pour les jeux 3D. Ces GPUs se retrouvent très bien adaptés pour accélérer le Deep Learning. Néanmoins leur effet a été considérable; un GPU simple peut offrir un gain de temps cinq fois plus rapide pour l'entraînement d'un réseau de neurones. Tandis que les gains de dix fois ou beaucoup plus sont possibles sur des problèmes plus importants ! Lorsqu'il est combiné avec des kits de développement en DL, les améliorations de la vitesse d'entrainement peuvent être encore plus grande (Figure 11).GPU augmente par 60 la vitesse IA

3. De nombreuses données

Tout d'abord, les réseaux de neurones utilisés pour le Deep Learning nécessitent généralement de grands ensembles de données. De quelques milliers d'exemples à plusieurs millions. Heureusement, la création de données et la disponibilité a augmenté de façon exponentielle. Aujourd'hui, alors que nous entrons dans la «troisième vague» des données, l'humanité produit 2,2 exaoctets (2300 millions de gigaoctets) de données chaque jour ; 90% de toutes les données du monde a été créé au cours des 24 derniers mois.

D'une part, la «première vague» de la création de données, qui a commencé dans les années 1980. Les ordinateurs de bureau connectés à Internet ont généré des documents et de données transactionnelles. D'autre part, une «deuxième vague» des données a suivi. En effet, l'explosion des médias non structurées (e-mails, photos, musique et vidéos), des données Web et méta-données résultant des smartphones. Aujourd'hui, nous entrons dans le «troisième vague» des données. Dans laquel des capteurs de machines déployés dans l'industrie et dans la maison créent un suivi supplémentaires et des travaux analytiques.

Dernièrement, nous, l'espèce humaine, nous avons transféré 100 Go de données par jour en 1992, d'ici 2020, nous transférerons 61 000 Go (ou 61 To) par seconde de data (Figure 12).Le trafic internet augmente logarithmement

Au-delà de l'augmentation de la disponibilité des données générales, les ressources de données spécialisées ont catalysé des progrès dans le DL. Par exemple, le site ImageNet est une base de données librement disponible de plus de 10 millions d'images renseignées à la main. Sa présence a soutenu le développement rapide de la classification d'objet par les algorithmes en Deep Learning.

4. Les services Cloud

L'utilisation des ML par les développeurs est catalysée par la fourniture d'une machine dont l'infrastructure est dans le cloud.

Google, Amazon, Microsoft et IBM offrent tous une infrastructure basée sur le cloud. Pour conséquence de réduire le coût et la difficulté de développer les capacités des ML.

En outre, ils offrent une gamme en plein essor des services de Machine Learning en Cloud (de reconnaissance d'image à la traduction de la langue) que les développeurs peuvent utiliser directement dans leurs propres applications. Google Machine Learning propose des services faciles d'accès pour :

  • vision (identification des objets, la détection du contenu explicite, la détection de visage à l'analyse des sentiments);
  • la parole (reconnaissance de la parole et lecture des textes);
  • analyse de texte (reconnaissance de l'entité, l'analyse des sentiments, la détection de la langue et de la traduction); et
  • la recherche d'emploi (définition des compétences et correspondance à l'ancienneté).

Microsoft Cognitive Services comprend plus de 21 services dans les domaines de la vision, de la parole, la langue, la connaissance et la recherche.

5. Les intérêts et l'esprit d'entreprise

Effectivement, de la part du public l'intérêt pour l'IA a augmenté six fois au cours des cinq dernières années. Nous notons une encore plus grande augmentation du nombre de placements dans des sociétés IA par les sociétés d'investissement (Figure 14). En effet, nous sommes entrés dans un cercle vertueux. Dans lequel les progrès dans le Deep Learning est d'attirer l'investissement, l'entrepreneuriat et la sensibilisation. Ce dernier, à son tour, catalysent de nouveaux progrès (figure 13).Intérêt 6 fois plus important pour l'IAInvestissement 7 fois plus élevé IA

Que se passe-t-il ensuite ?

Enfin, les avantages de la ML et du DL seront nombreux et importants. Beaucoup seront visibles, des véhicules autonomes à de nouvelles méthodes d'interaction homme-machine. Beaucoup seront moins apparentes, mais permettront de créer des processus efficaces aux services des consommateurs.
C'est ainsi pour tout changement de paradigme, parfois des attentes gonflés dépassera le potentiel à court terme. Nous nous attendons à une période de désillusion au sujet de l'IA à un moment donné. Véritablement, elle sera suivie par une reconnaissance plus longue et durable de sa valeur. Ainsi, comme la ML est utilisée pour améliorer et réinventer les systèmes existants.

Cet article fait suite également à "Nous sommes en train de vivre une quatrième révolution industrielle"

Comprendre les limites de l’apprentissage en profondeur (Deep Learning)

Comprendre les limites de l’apprentissage en profondeur (Deep Learning)

L'intelligence artificielle a atteint un haut niveau médiatique. Nous pouvons lire dans la presse que les entreprises ont remplacé les travailleurs par Watson de IBM et que les algorithmes battent les médecins dans leurs diagnostic. Chaque jour de nouvelles start-up sur l'IA sont créées tous les jours, prétendant résoudre tous vos problèmes personnels et d'affaires.

Les objets ordinaires comme des frigos et des routeurs Wi-Fi s'annoncent soudainement « powered by AI ». Des bureaux intelligents qui se souviennent de vos paramètres de hauteur, peuvent aussi commander votre déjeuner.

Tout ce brouhaha est crée par des journalistes qui ne prennent pas le temps de discuter avec des ingénieurs ou des Digital Evangelist afin de s'assurer quelles entreprises utilisent vraiment de l'Intelligence Artificielle. Tant de fausses idées sont véhiculées. Lors de conversations passionnantes, je me retrouve à expliquer ce qui est possible et la limite actuelle de ce qui ne l'est pas (encore) pour l'Intelligence Artificielle.

Le Deep Learning est plus une prouesse qu'une promesse

Pour être claire d'entrée de jeu, les réseaux de neurones ont été crée dans les années 60. C'est donc une technologie vieille de plus de 50 ans ! Le Deep Learning est issu des réseaux de neurones artificiels. Les exploits ne sont visibles que depuis quelques années car nous avons aujourd'hui deux choses essentielles : les data et la puissance de calcul pour les traiter.

Les résultats sont indéniablement impressionnants. Les ordinateurs peuvent désormais reconnaître des objets dans les images et la vidéo et retranscrire au texte la parole mieux que les humains. Google a remplacé l'architecture de Google Translate par des réseaux de neurones, et maintenant la traduction automatique est aussi proche de la performance humaine.

L'apprentissage profond a aussi des problèmes profonds

Le problème le plus important aujourd'hui pour l'IA est l'abstraction et le raisonnement. Les algorithmes de perception et de Reinforcement Learning nécessite une quantité monstrueuse de données. Ces algorithmes ont pour limite de ne pas planifier leur action et ne font qu'une simple reconnaissance de modèle.

En revanche, les humains apprennent avec très peu d'exemples, peuvent faire de la planification à très long terme, et sont capables de former des modèles abstraits d'une situation et [manipulation] de ces modèles pour atteindre une généralisation extrême.

Pour simplifier : lorsqu'un enfant commence à parler, on lui dit "voiture" on pointe du doigt (connaissance du modèle), l'enfant répète "voiture", le parent lui répond "oui !" (acquisition du modèle). Maintenant une voiture peut être dangereuse, surtout lorsque nous traversons une route. L'enfant comprend "toutes les voitures sont dangereuses en roulant" (processus de généralisation). Lorsque l'enfant imagine traverser la route, il sait qu'il devra faire attention (processus de planification).

Comment ce cas est traité par le DP et le RL

Tout cela, était pour l'apprentissage humain. Pour un réseau de neurone c'est tout autre. Reprenons le même cas que représente le danger d'une voiture.

Pour l'apprentissage supervisé, vous aurez besoin d'énormes ensembles de données de situations différentes. D'une part il faudra reconnaitre une voiture dans n'importe quel angle, luminosité, vitesse différents. Et pour chaque cas des actions à prendre clairement identifiées. Comme « en arrêt » ou « en mouvement ». Ensuite, vous aurez besoin de former un réseau de neurones pour apprendre la correspondance entre la situation et l'action appropriée.

Pour l'apprentissage par renforcement, vous donnez à l'algorithme un but et le laisser déterminer indépendamment les actions idéales à prendre. Comme nous l'avions vu dans mon billet sur le Reinforcement Learning, l'ordinateur apprend en faisant des erreurs. Il va donc "mourir" des milliers de fois avant d'apprendre à éviter les voitures dans différentes situations. Et entre nous, nous n'avons qu'une vie et heureusement que notre cerveau n'agit pas de cette manière !

En effet, nous avons cette formidable capacité de "raisonnement", celui qui nous permet d'imaginer. C'est-à-dire de créer une réalité "imaginaire" et voir le pire comme se faire écraser par une voiture.

“You cannot achieve general intelligence simply by scaling up today’s deep learning techniques,” warns Chollet*.

"Vous ne pouvez pas obtenir des renseignements généraux simplement en multipliant les techniques d'apprentissage en profondeur d'aujourd'hui ", prévient M. Chollet

*François Chollet, est un ingénieur en IA chez Google. Aussi créateur de la bibliothèque de Deep Learning Keras.

Une limite, limite beaucoup l'apprentissage

Alors que les réseaux de neurones obtiennent des résultats statistiquement impressionnants à travers des échantillons de grande taille. Ils sont « individuellement peu fiables » et souvent font des erreurs que les humains ne feraient jamais, comme classer une brosse à dents comme une batte de base-ball.

brosse-à-dent-batte-baseball
brosse-à-dent-batte-baseball

La limite que l'ensemble des données soit erronée a joué des tours à Microsoft et Twitter. J'avais écris un article sur Siècle Digital sur ce sujet.

Peut-on surmonter la limite du Deep Learning ?

Je t'invite à lire la suite sur mon LinkedIn.

Etude McKinsey - un robot va-t-il remplacer ton job ?

Etude McKinsey - un robot va-t-il remplacer ton job ?

Etude McKinsey ; remplacé par un robot ou pas

Les progrès récents dans l'intelligence artificielle ont rendu techniquement possible d'automatiser de nombreuses tâches.

Cependant la complexité du travail moderne signifie aussi que les gens font plusieurs opérations différentes. Les travailleurs, et surtout les cols blancs, complètent une grande variété de tâches au travail.

Cette calculatrice interactive, basée sur les données du McKinsey Global Institute, donne une indication de la façon dont l'avenir du travail va changer. L'IA et de l'automatisation vont tout simplement remplacer les activités professionnelles des travailleurs.

étude mckinsey job remplacé par robot
étude mckinsey

Presque toutes les professions à certaines tâches près peuvent être automatisées. Cependant, selon l'étude McKinsey, moins de 5 pour cent des professions peuvent techniquement utiliser des processus entièrement automatisée.

A savoir, même pour des activités techniquement automatisable, la mise en place dépendra d'un certain nombre de facteurs :

  1. le coût du déploiement de solutions robotiques,
  2. les avantages économiques de cette opération,
  3. l'offre et la demande de main-d'œuvre humaine,
  4. la réglementation et,
  5. l'acceptation sociale

Méthodologie de l'étude McKinsey

Selon l'étude, la mise en place en fonction de ses critères pourrait prendre des dizaines d'années, même si la technologie est réalisable actuellement.

Elle a été réalisé en utilisant les données du Bureau des statistiques du travail des États-Unis. 820 professions analysées dont il existe environ 2 000 activités uniques. McKinsey a ensuite évalué, pour chaque activité, quelle combinaison de 18 capacités de performance différentes étaient nécessaires pour effectuer cette activité.

Par exemple, le travail du conseiller vendeur se compose d'activités telles que « Saluer le client », «Démontrer les caractéristiques du produit», etc. Le salut des clients requiert des capacités telles que la «perception sensorielle», avoir une «sensibilité sociale et émotionnelle» et «génération de langage naturel».

Dès lors, l'étude a ensuite considéré quel niveau de performance de cette capacité est nécessaire. En fonction de la façon dont les humains effectuent actuellement ces activités. Ils ont également évalué si la technologie d'automatisation existante pouvait atteindre le même niveau de performance. De plus, une activité est considérée techniquement automatisable uniquement si la réponse est oui pour toutes les capacités requises pour effectuer cette tâches.