ciblage-Facebook est précis grace à toi

Le ciblage Facebook est précis grâce à toi

Le ciblage Facebook est précis.

Facebook est un réseau social qui représenterait le 3eme pays le plus peuplé du monde. Au cas où tu ne le savais pas, c’est également une régie publicitaire (au même titre que Google). Dès lors, les entreprises nous ciblent sur Facebook. Elles le peuvent car Facebook met des “étiquettes” sur nos comportements, sur les appareils que nous possédons et via les infos que nous donnons. Avec toutes ces données, Facebook nous met dans des “bulles”, des “groupes” aux comportements similaires. Les annonceurs ne savent pas qu’ils te ciblent toi personnellement mais ils ciblent des personnes qui représentent une potentialité d’affaires.

Les annonceurs paient pour mettre leurs pubs sur Facebook.

Facebook quant à lui met en avant ces pubs aux utilisateurs que l’annonceur veut cibler. Prenons un exemple concret : je suis un commerçant qui a un magasin (je ne vends pas sur Internet) de jeux vidéo. Je veux viser les personnes qui possèdent une console de jeux et proche de mon magasin. Encore mieux, je souhaiterais viser les “millennials” et dont leur anniversaire sera le mois prochain. Ainsi je pourrais faire une annonce du type :

“Offre toi le nouveau JEUVIDEO X42 qui sort le 18 Octobre. Viens le récupérer en magasin pour ton anniversaire !”

La base du marketing publicitaire

Le principe du marketing : donner le bon message, au bon moment à la bonne personne. Avec Facebook c’est dans le mille ! La géolocalisation, la tranche d’âge, le fait de posséder une console de jeux et le fait que c’est l’anniversaire le mois prochain me permet de cibler précisément mes clients potentiels. La publicité prendra alors en compte au moins l’un de ces critères pour toucher les bonnes personnes. Grâce à l‘intelligence artificielle et via les big data, la précision est de plus en plus chirurgicale. L’avènement des assistants intelligents permettront de prédire nos envies.

Ce n’est pas de la science-fiction, aujourd’hui il est possible de payer pour la publicité ultra-ciblée. Autres avantages du marketing digital, le calcule du ROAS. C’est-à-dire le retour sur investissement publicitaire. L’annonceur sait au centime près pour quoi il a été dépensé et quel action il a eu en retour. Contrairement aux méthodes de marketing traditionnel où les annonceurs paient des sommes pharaoniques en affichage urbain/TV pour un retour moins mesurable. Si le thème “comment un annonceur peut savoir combien il dépense et quel résultat il obtient” t’intéresse, clique sur mon assistant virtuel en bas à gauche de cette page et viens me le dire 🙂

Comment savoir, ce que sais Facebook sur moi

En effet, il n’y a rien d’obscure, tu peux contrôler toi-même les infos que tu mets à disposition pour Facebook. Ainsi, tu peux aussi renoncer et interdire l’accès à certaines informations. Pour se faire, je te mets en printscreen mon compte personnel et je te montre pas à pas comment voir ces “étiquettes” expliquées ci-dessus.

Cliques sur la flèche et sélectionne tout en bas “Paramètres”

ciblage Facebook est précis grace à toi-1

Ensuite sur la gauche, cliques sur “Publicités”

ciblage Facebook est précis grace à toi-2

En ensuite sur “Vos Informations” et “Vos Catégories”

ciblage Facebook est précis grace à toi-3

Je te laisse naviguer sur les renseignements que donne Facebook. Tu peux aussi télécharger l’historique de tout ce que tu as donné comme information à Facebook depuis que tu as crée ton compte. J’avais mis le mode opératoire dans ce billet.

 

 

neuroscience-code-cerveau

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Comment le Machine Learning aide les neuroscientifiques à hacker notre code neuronal

Un grand défi en neuroscience est de comprendre comment le cerveau encode l’information. Les réseaux de neurones se révèlent être des crackers de code géniaux.

Notre cerveau code ses informations

Chaque fois que vous déplacez votre main ou votre doigt ou votre globe oculaire, le cerveau envoie un signal aux muscles pertinents contenant l’information qui rend ce mouvement possible. Cette information est encodée d’une manière spéciale qui permet la transmission par les neurones et ensuite d’être appliquée correctement par les muscles concernés.
Exactement, comment ce code fonctionne ? C’est un mystère. Depuis longtemps, les neuroscientifiques sont en mesure d’enregistrer ces signaux lorsqu’ils traversent les neurones. Mais les comprendre est beaucoup plus difficile. Il existe différents algorithmes qui peuvent décoder certains de ces signaux, mais leurs performances sont inégales.

Une technique permet de lire le code du cerveau

Aujourd’hui, Joshua Glaser à Northwestern University à Chicago et quelques copains disent qu’ils ont développé une telle technique en utilisant la nouvelle technologie du ML (Machine Learning). Ils disent que leur décodeur dépasse considérablement les approches existantes. En effet, il est tellement efficace que l’équipe affirme qu’elle devrait devenir la méthode standard pour analyser les signaux neuronaux à l’avenir.

Partons dans le cerveau

L’information se déplace le long des fibres nerveuses sous la forme de pointes de tension (électrique). Les neuroscientifiques pensent que le schéma des pointes code les données sur les stimuli externes, tels que le toucher, la vue et le son. De même, le cerveau encode l’information sur les mouvements musculaires d’une manière similaire.

Comprendre ce code est un objectif important. Il permet aux neuroscientifiques de mieux comprendre l’information qui est envoyée et traitée par le cerveau. Il aide également à expliquer comment le cerveau contrôle les muscles.

Les neuroscientifiques aimeraient avoir de meilleures interfaces cerveau-machine. Les buts sont multiples (contrôler les fauteuils roulants, les prothèses et les jeux vidéo). «Le décodage est un outil essentiel pour comprendre comment les signaux neuronaux se rapportent au monde extérieur», disent Glaser et Co.

La méthode utilise le ML avec peu de données

Leur méthode est simple. Les neuroscientifiques ont formé des singes macaques. En effet, l’exercice est de déplacer un curseur vers une cible sur un écran. Pour cela les macaques utilisent une sorte de souris d’ordinateur. Dans chaque test, le curseur et la cible apparaissent sur un écran à des endroits aléatoires. Alors le singe doit déplacer le curseur horizontalement et verticalement pour atteindre le but.

Après avoir formé les animaux, Glaser et Co ont enregistré l’activité de dizaines de neurones dans les parties de leur cerveau qui contrôlent le mouvement : le cortex moteur primaire, le cortex prémoteur dorsal et le cortex somatosensoriel primaire. Les enregistrements ont duré environ 20 minutes.

Le travail d’un algorithme de décodage consiste à déterminer la distance horizontale et verticale que le singe déplace le curseur dans chaque test, en utilisant uniquement les données neuronales. Les algorithmes conventionnels fonctionnent en utilisant une technique statistique connue sous le nom de régression linéaire. Cela implique d’estimer une courbe qui correspond aux données, puis de réduire l’erreur qui lui est associée. Il est largement utilisé dans le décodage neuronal dans des techniques telles que les filtres de Kalman et les cascades de Wiener.

Plusieurs techniques mises à contribution

Les neuroscientifiques ont comparé ces techniques à une variété d’approches d’apprentissage mécanique basées sur des réseaux de neurones. Il s’agissait d’un réseau de mémoire à long terme, d’un réseau neuronal récurrent et d’un réseau de neurones feedforward. Tout cela provient des ensembles de données annotés, et plus l’ensemble de données est grand, plus ils apprennent.

Les résultats sont convaincants. Glaser et Co disent que les techniques de ML ont considérablement surpassé les analyses conventionnelles. “Par exemple, pour l’ensemble des trois domaines du cerveau, un décodeur du réseau de mémoire à long terme a expliqué plus de 40% de la variance inexpliquée d’un filtre Wiener”, disent-ils.

“Ces résultats suggèrent que les techniques modernes de ML devraient devenir la méthodologie standard pour le décodage neuronal”.

À certains égards, il n’est pas surprenant que les techniques de ML soient bien meilleures. Les réseaux de neurones ont été à l’origine inspirés par l’architecture du cerveau. C’est pourquoi, le fait qu’ils peuvent mieux modeler leur fonctionnement est attendu.

Des résultats qui doivent être re-analysés

L’inconvénient des réseaux de neurones est qu’ils ont généralement besoin de grandes quantités de données d’entraînement. Mais les neuroscientifiques ont délibérément réduit la quantité de données. Ainsi, ils ont constaté que les réseaux neuronaux étaient encore supérieurs aux techniques classiques.

C’est probablement parce que l’équipe a utilisé des réseaux plus petits. “Nos réseaux ont de l’ordre de 100 000 paramètres. Alors que les réseaux communs pour la classification des images peuvent avoir sur l’ordre de 100 millions de paramètres”, disent-ils.

Le travail ouvre la voie à d’autres pour s’appuyer sur cette analyse. Glaser et Co ont mis leur code à la disposition de la communauté afin que les ensembles de données neurales existants puissent être réanalysés de la même manière.

La machine est créée sur la base d’un réseau humain

Il y a beaucoup à faire. Peut-être la tâche la plus importante sera de trouver un moyen de procéder au décodage neuronal en temps réel. Tous les travaux de Glaser et Co ont été effectués hors ligne après l’enregistrement des enregistrements. Mais il serait évidemment utile de pouvoir apprendre à la volée et de prévoir le mouvement tel qu’il se produit.

C’est une approche puissante qui a un potentiel important. Ce serait une surprise si la même chose n’était pas le cas du décodage neuronal.

Source

IA dans l'age d'or

Pourquoi l’IA arrive à son âge d’or aujourd’hui?

La recherche en IA a commencé dans les années 1950. Après de faux espoirs répétés, l’IA est aujourd’hui à son point d’inflexion. L’efficacité de l’IA a été transformé ces dernières années en raison du développement de nouveaux algorithmes. Il a fallut rassembler un certains nombres d’ingrédient pour que l’IA soit efficace. En effet, nous profitons d’une plus grande disponibilité des données afin de la “nourrir” (big data). Couplé d’un meilleur matériel pour la créer et les services basés sur le cloud pour catalyser leur adoption par les développeurs. Voyons ensemble ces cinq points :

1. Algorithmes améliorés

Le Deep Learning n’est pas nouveau. Spécifiquement, le premier réseau multi-couche neuronal efficace a été publié en 1965. L’évolution des algorithmes en Deep Learning ont transformé tous les résultats au cours de la dernière décennie !
Notre capacité à reconnaître des objets dans les images a été transformé (figure 9). Via le développement des réseaux de neurones convolutifs – convolutional neural networks (CNN). Un design inspiré par le cortex visuel des animaux. En effet, chaque couche dans le réseau neuronal agit comme un filtre pour la présence d’un motif spécifique. En 2015, le système de vision par ordinateur basé sur le CNN, Microsoft a identifié des objets dans des images plus efficacement (95,1% précision) que les humains (94,9% de précision). «À notre connaissance,” ils ont écrit, «notre résultat est le premier à dépasser les performances au niveau humain.” Applications plus larges des CNNs comprennent la reconnaissance vidéo et de la parole.

reconnaissance IA du langage humain
Les progrès dans la parole et la reconnaissance d’écriture, quant à lui, s’améliore rapidement (Figure 10) après la création de réseaux de neurones récurrents – recurrent neural networks (RNN). Les RNNs ont des liens de rétroaction qui permettent aux données de circuler dans une boucle. A la différence des réseaux neuronaux classiques qui “avalent les informations” seulement. Un nouveau type puissant de RNN est la «longue mémoire à court terme» (modèle LSTM).

C’est pourquoi, avec des connexions et des cellules de mémoire supplémentaires, les RNNs “se souviennent” des données. Celles qu’ils ont vu des milliers d’étapes auparavant et vont les utiliser pour informer leurs interprétations de ce qui suit. En somme, précieux pour la reconnaissance vocale où l’interprétation du mot suivant sera informé par les mots qui l’ont précédé. Depuis 2012, Google a utilisé les modèles LSTMs pour alimenter le système de reconnaissance vocale dans Android. En novembre 2016, les ingénieurs de Microsoft ont indiqué que leur système avait atteint un taux d’erreur de parole de 5,9%. Un chiffre à peu près égal à celui des capacités humaines pour la première fois dans l’histoire.
Niveau langage humain par IA atteint des records

2. Matériel spécialisé

Les GPUs sont des circuits électroniques spécialisés qui réduisent le temps requis pour former les réseaux de neurones utilisés pour le Deep Learning.
Les GPU modernes ont été développés à l’origine à la fin des années 1990 pour accélérer les jeux 3D et des applications de création 3D. En effet, faire un zoom dans un logiciel 3D utilise un processus mathématique appelé “calcul matriciel répété”. Les microprocesseurs avec des architectures en série, ce sont les processeurs qui alimentent les ordinateurs d’aujourd’hui. Ils sont peu adaptés à la tâche. C’est pourquoi, les GPU ont été développé avec des architectures massivement parallèles (la Nvidia M40 a 3072 cœurs) pour effectuer efficacement des calculs matriciels .

Une formation d’un réseau neuronal fait usage intensif des calculs matriciels. Par conséquent, les GPUs qui sont utiles pour les jeux 3D. Ces GPUs se retrouvent très bien adaptés pour accélérer le Deep Learning. Néanmoins leur effet a été considérable; un GPU simple peut offrir un gain de temps cinq fois plus rapide pour l’entraînement d’un réseau de neurones. Tandis que les gains de dix fois ou beaucoup plus sont possibles sur des problèmes plus importants ! Lorsqu’il est combiné avec des kits de développement en DL, les améliorations de la vitesse d’entrainement peuvent être encore plus grande (Figure 11).GPU augmente par 60 la vitesse IA

3. De nombreuses données

Tout d’abord, les réseaux de neurones utilisés pour le Deep Learning nécessitent généralement de grands ensembles de données. De quelques milliers d’exemples à plusieurs millions. Heureusement, la création de données et la disponibilité a augmenté de façon exponentielle. Aujourd’hui, alors que nous entrons dans la «troisième vague» des données, l’humanité produit 2,2 exaoctets (2300 millions de gigaoctets) de données chaque jour ; 90% de toutes les données du monde a été créé au cours des 24 derniers mois.

D’une part, la «première vague» de la création de données, qui a commencé dans les années 1980. Les ordinateurs de bureau connectés à Internet ont généré des documents et de données transactionnelles. D’autre part, une «deuxième vague» des données a suivi. En effet, l’explosion des médias non structurées (e-mails, photos, musique et vidéos), des données Web et méta-données résultant des smartphones. Aujourd’hui, nous entrons dans le «troisième vague» des données. Dans laquel des capteurs de machines déployés dans l’industrie et dans la maison créent un suivi supplémentaires et des travaux analytiques.

Dernièrement, nous, l’espèce humaine, nous avons transféré 100 Go de données par jour en 1992, d’ici 2020, nous transférerons 61 000 Go (ou 61 To) par seconde de data (Figure 12).Le trafic internet augmente logarithmement

Au-delà de l’augmentation de la disponibilité des données générales, les ressources de données spécialisées ont catalysé des progrès dans le DL. Par exemple, le site ImageNet est une base de données librement disponible de plus de 10 millions d’images renseignées à la main. Sa présence a soutenu le développement rapide de la classification d’objet par les algorithmes en Deep Learning.

4. Les services Cloud

L’utilisation des ML par les développeurs est catalysée par la fourniture d’une machine dont l’infrastructure est dans le cloud.

Google, Amazon, Microsoft et IBM offrent tous une infrastructure basée sur le cloud. Pour conséquence de réduire le coût et la difficulté de développer les capacités des ML.

En outre, ils offrent une gamme en plein essor des services de Machine Learning en Cloud (de reconnaissance d’image à la traduction de la langue) que les développeurs peuvent utiliser directement dans leurs propres applications. Google Machine Learning propose des services faciles d’accès pour :

  • vision (identification des objets, la détection du contenu explicite, la détection de visage à l’analyse des sentiments);
  • la parole (reconnaissance de la parole et lecture des textes);
  • analyse de texte (reconnaissance de l’entité, l’analyse des sentiments, la détection de la langue et de la traduction); et
  • la recherche d’emploi (définition des compétences et correspondance à l’ancienneté).

Microsoft Cognitive Services comprend plus de 21 services dans les domaines de la vision, de la parole, la langue, la connaissance et la recherche.

5. Les intérêts et l’esprit d’entreprise

Effectivement, de la part du public l’intérêt pour l’IA a augmenté six fois au cours des cinq dernières années. Nous notons une encore plus grande augmentation du nombre de placements dans des sociétés IA par les sociétés d’investissement (Figure 14). En effet, nous sommes entrés dans un cercle vertueux. Dans lequel les progrès dans le Deep Learning est d’attirer l’investissement, l’entrepreneuriat et la sensibilisation. Ce dernier, à son tour, catalysent de nouveaux progrès (figure 13).Intérêt 6 fois plus important pour l'IAInvestissement 7 fois plus élevé IA

Que se passe-t-il ensuite ?

Enfin, les avantages de la ML et du DL seront nombreux et importants. Beaucoup seront visibles, des véhicules autonomes à de nouvelles méthodes d’interaction homme-machine. Beaucoup seront moins apparentes, mais permettront de créer des processus efficaces aux services des consommateurs.
C’est ainsi pour tout changement de paradigme, parfois des attentes gonflés dépassera le potentiel à court terme. Nous nous attendons à une période de désillusion au sujet de l’IA à un moment donné. Véritablement, elle sera suivie par une reconnaissance plus longue et durable de sa valeur. Ainsi, comme la ML est utilisée pour améliorer et réinventer les systèmes existants.

Cet article fait suite également à “Nous sommes en train de vivre une quatrième révolution industrielle

Est-il possible de tromper une IA ?

Comprendre les limites de l’apprentissage en profondeur (Deep Learning)

L’intelligence artificielle a atteint un haut niveau médiatique. Nous pouvons lire dans la presse que les entreprises ont remplacé les travailleurs par Watson de IBM et que les algorithmes battent les médecins dans leurs diagnostic. Chaque jour de nouvelles start-up sur l’IA sont créées tous les jours, prétendant résoudre tous vos problèmes personnels et d’affaires.

Les objets ordinaires comme des frigos et des routeurs Wi-Fi s’annoncent soudainement « powered by AI ». Des bureaux intelligents qui se souviennent de vos paramètres de hauteur, peuvent aussi commander votre déjeuner.

Tout ce brouhaha est crée par des journalistes qui ne prennent pas le temps de discuter avec des ingénieurs ou des Digital Evangelist afin de s’assurer quelles entreprises utilisent vraiment de l’Intelligence Artificielle. Tant de fausses idées sont véhiculées. Lors de conversations passionnantes, je me retrouve à expliquer ce qui est possible et la limite actuelle de ce qui ne l’est pas (encore) pour l’Intelligence Artificielle.

Le Deep Learning est plus une prouesse qu’une promesse

Pour être claire d’entrée de jeu, les réseaux de neurones ont été crée dans les années 60. C’est donc une technologie vieille de plus de 50 ans ! Le Deep Learning est issu des réseaux de neurones artificiels. Les exploits ne sont visibles que depuis quelques années car nous avons aujourd’hui deux choses essentielles : les data et la puissance de calcul pour les traiter.

Les résultats sont indéniablement impressionnants. Les ordinateurs peuvent désormais reconnaître des objets dans les images et la vidéo et retranscrire au texte la parole mieux que les humains. Google a remplacé l’architecture de Google Translate par des réseaux de neurones, et maintenant la traduction automatique est aussi proche de la performance humaine.

L’apprentissage profond a aussi des problèmes profonds

Le problème le plus important aujourd’hui pour l’IA est l’abstraction et le raisonnement. Les algorithmes de perception et de Reinforcement Learning nécessite une quantité monstrueuse de données. Ces algorithmes ont pour limite de ne pas planifier leur action et ne font qu’une simple reconnaissance de modèle.

En revanche, les humains apprennent avec très peu d’exemples, peuvent faire de la planification à très long terme, et sont capables de former des modèles abstraits d’une situation et [manipulation] de ces modèles pour atteindre une généralisation extrême.

Pour simplifier : lorsqu’un enfant commence à parler, on lui dit “voiture” on pointe du doigt (connaissance du modèle), l’enfant répète “voiture”, le parent lui répond “oui !” (acquisition du modèle). Maintenant une voiture peut être dangereuse, surtout lorsque nous traversons une route. L’enfant comprend “toutes les voitures sont dangereuses en roulant” (processus de généralisation). Lorsque l’enfant imagine traverser la route, il sait qu’il devra faire attention (processus de planification).

Comment ce cas est traité par le DP et le RL

Tout cela, était pour l’apprentissage humain. Pour un réseau de neurone c’est tout autre. Reprenons le même cas que représente le danger d’une voiture.

Pour l’apprentissage supervisé, vous aurez besoin d’énormes ensembles de données de situations différentes. D’une part il faudra reconnaitre une voiture dans n’importe quel angle, luminosité, vitesse différents. Et pour chaque cas des actions à prendre clairement identifiées. Comme « en arrêt » ou « en mouvement ». Ensuite, vous aurez besoin de former un réseau de neurones pour apprendre la correspondance entre la situation et l’action appropriée.

Pour l’apprentissage par renforcement, vous donnez à l’algorithme un but et le laisser déterminer indépendamment les actions idéales à prendre. Comme nous l’avions vu dans mon billet sur le Reinforcement Learning, l’ordinateur apprend en faisant des erreurs. Il va donc “mourir” des milliers de fois avant d’apprendre à éviter les voitures dans différentes situations. Et entre nous, nous n’avons qu’une vie et heureusement que notre cerveau n’agit pas de cette manière !

En effet, nous avons cette formidable capacité de “raisonnement”, celui qui nous permet d’imaginer. C’est-à-dire de créer une réalité “imaginaire” et voir le pire comme se faire écraser par une voiture.

“You cannot achieve general intelligence simply by scaling up today’s deep learning techniques,” warns Chollet*.

“Vous ne pouvez pas obtenir des renseignements généraux simplement en multipliant les techniques d’apprentissage en profondeur d’aujourd’hui “, prévient M. Chollet

*François Chollet, est un ingénieur en IA chez Google. Aussi créateur de la bibliothèque de Deep Learning Keras.

Une limite, limite beaucoup l’apprentissage

Alors que les réseaux de neurones obtiennent des résultats statistiquement impressionnants à travers des échantillons de grande taille. Ils sont « individuellement peu fiables » et souvent font des erreurs que les humains ne feraient jamais, comme classer une brosse à dents comme une batte de base-ball.

brosse-à-dent-batte-baseball

brosse-à-dent-batte-baseball

La limite que l’ensemble des données soit erronée a joué des tours à Microsoft et Twitter. J’avais écris un article sur Siècle Digital sur ce sujet.

Peut-on surmonter la limite du Deep Learning ?

Je t’invite à lire la suite sur mon LinkedIn.

étude de McKinsey robot automatisation remplacer job

Etude McKinsey – un robot va-t-il remplacer ton job ?

Etude McKinsey ; remplacé par un robot ou pas

Les progrès récents dans l’intelligence artificielle ont rendu techniquement possible d’automatiser de nombreuses tâches.

Cependant la complexité du travail moderne signifie aussi que les gens font plusieurs opérations différentes. Les travailleurs, et surtout les cols blancs, complètent une grande variété de tâches au travail.

Cette calculatrice interactive, basée sur les données du McKinsey Global Institute, donne une indication de la façon dont l’avenir du travail va changer. L’IA et de l’automatisation vont tout simplement remplacer les activités professionnelles des travailleurs.

étude mckinsey job remplacé par robot

étude mckinsey

Presque toutes les professions à certaines tâches près peuvent être automatisées. Cependant, selon l’étude McKinsey, moins de 5 pour cent des professions peuvent techniquement utiliser des processus entièrement automatisée.

A savoir, même pour des activités techniquement automatisable, la mise en place dépendra d’un certain nombre de facteurs :

  1. le coût du déploiement de solutions robotiques,
  2. les avantages économiques de cette opération,
  3. l’offre et la demande de main-d’œuvre humaine,
  4. la réglementation et,
  5. l’acceptation sociale

Méthodologie de l’étude McKinsey

Selon l’étude, la mise en place en fonction de ses critères pourrait prendre des dizaines d’années, même si la technologie est réalisable actuellement.

Elle a été réalisé en utilisant les données du Bureau des statistiques du travail des États-Unis. 820 professions analysées dont il existe environ 2 000 activités uniques. McKinsey a ensuite évalué, pour chaque activité, quelle combinaison de 18 capacités de performance différentes étaient nécessaires pour effectuer cette activité.

Par exemple, le travail du conseiller vendeur se compose d’activités telles que « Saluer le client », «Démontrer les caractéristiques du produit», etc. Le salut des clients requiert des capacités telles que la «perception sensorielle», avoir une «sensibilité sociale et émotionnelle» et «génération de langage naturel».

Dès lors, l’étude a ensuite considéré quel niveau de performance de cette capacité est nécessaire. En fonction de la façon dont les humains effectuent actuellement ces activités. Ils ont également évalué si la technologie d’automatisation existante pouvait atteindre le même niveau de performance. De plus, une activité est considérée techniquement automatisable uniquement si la réponse est oui pour toutes les capacités requises pour effectuer cette tâches.

 

 

le travail change rapidement

Le défi auquel nous sommes confrontés aujourd’hui n’est pas un « monde sans travail », mais un monde qui change rapidement de travail

Cet article fait référence à ce précédent billet.

Le rythme des progrès dans l’intelligence artificielle et l’automatisation s’accélère rapidement

Dans l’unique mois de février, ce ne sont pas moins de cinq informations importantes que j’ai vu:

  • Google DeepMind Ltd à Londres, a développé un système pour numériser 1 million d’ images à partir de scanner de l’ oeil. L’IA sera suffisamment compétente pour repérer des maladies de l’oeil beaucoup plus tôt qu’un humain le pourrait.
  • Rethink Robotics Inc. de Boston, Massachusetts, fondée par l’ancien directeur du MIT AI Lab. Rodney Brooks, a fait des améliorations incroyables à ses robots Sawyer. Ce sont des robots que l’on peut entrainer très rapidement pour des tâches routinières. Mais il est aussi capable de procéder à des vérifications techniques dignes d’un expert.
  • H & R Block ont commencé à utiliser le système informatique Watson d’IBM pour maximiser les déductions des clients. Watson “connaît” des milliers de pages de code sur l’impôt fédéral et mettra à jour les changements à mesure de son apprentissage.
  • NuTonomy Inc., une startup développant les voitures auto-conduites basées sur la technologie du MIT. Ils ont lancé une petite flotte de taxis autonomes à Boston.
  • Forward , San Francisco, une startup fondée par l’ancien directeur des projets spéciaux de Google. Ils tentent de déplacer les soins de santé traditionnels aux soins proactifs grâce à l’utilisation de l’IA en raccourcissant le temps des diagnostics.

Le Deep Learning et les réseaux neuronaux ont considérablement amélioré leur propre efficacité. Cela conduit à des performances de niveau humain dans de nombreux domaines; tels que la vision, de la parole (conversationnelle) et la résolution de problème. En conséquence, les industries sont au milieu d’une transformation majeure de grande envergure.

Mais il y a aussi un changement sociétal

Le revenu médian en Amérique est plus faible aujourd’hui que dans les 15 dernières années. Comme on le voit dans les récentes élections américaines, il y a insatisfaction quant à la répartition inégale des avantages du progrès technologique. Recherche IDE soutient les gouffres que beaucoup ressentent.

Les rumeurs au sujet des robots qui remplacent de plus en plus le travail humain sont d’actualité; avec des préoccupations légitimes. Bien sûr, ce n’est pas la première fois que l’automatisation a transformé les usines. Cependant avec des technologies IA de plus en plus fiable d’aujourd’hui, l’automatisation commence à se glisser dans les domaines qui semblaient à l’abri de ce changement, comme le droit, l’éducation, et journalisme.

Au milieu de toutes ces merveilles, il est important de se rappeler qu’il n’y a pas de pénurie de travail qui peut être fait que par les humains. Comme dans ce précédent billet, j’explique qu’il y aura toujours du travail mais pas forcément avec des emplois. Et cela restera vrai pour de nombreuses années. Le défi auquel nous sommes confrontés aujourd’hui n’est pas un « monde sans travail », mais un monde qui change rapidement de travail. La réponse est donc non pas simplement de remplacer le revenu pour les travailleurs étant déplacés par la technologie, mais de les préparer à faire de nouveaux emplois. Ces emplois qui font cruellement défaut dans l’éducation, les soins de santé, les infrastructures, le nettoyage de l’environnement, l’esprit d’entreprise, l’innovation, la découverte scientifique, et beaucoup d’autres domaines.

Le travail oui, mais différemment

Comment ? Trop de dirigeants patronaux et syndicaux ainsi que des hommes politiques, sont devenus complaisants. Ils craignent un avenir qui va perturber (disrupter) les modèles et les économies actuelles. Mais la solution à la disruption n’est pas de protéger le passé du futur ni de geler les anciennes façons de faire. C’est garantir l’échec. La meilleure voie à suivre est d’adopter des outils et des modèles émergents qui non seulement créent des biens et des services, mais la prospérité générale.

Le développement de produits et des services IA d’une manière compétitive, ne doit pas entrer en conflit avec le déploiement – et le redéploiement – de la main-d’œuvre.

Au lieu de penser l’IA comme un jeu à somme nulle, ou un moyen d’automatiser des emplois et des services existants. Les dirigeants avant-gardistes reconnaissent que la technologie apporte une valeur ajoutée. En développant des emplois et stimulant la productivité.

Quand la technologie vient compléter les travailleurs humains, qui les rend plus productifs, et réduit également les coûts (La nouvelle société du coût marginal zéro ? prédit Jeremy Rifkin), les entreprises et les employés sont mieux lotis.

 

Source

google-deepmind-artificial-intelligence

Futur du Deep Learning ? Le Reinforcement Learning !

Le sujet est complexe, si tu veux du pragmatique, je te conseille de lire le dernier paragraphe. Bonne lecture 🙂

Le cerveau humain vs Reinforcement Learning

Les humains sont excellents dans la résolution d’une grande variété de problèmes, en plus leur cerveau consomme peu d’énergie. L’objectif chez DeepMind est de créer des agents artificiels qui peuvent atteindre un niveau de performance similaire.

Comme un être humain, leurs agents apprennent eux-mêmes pour parvenir à des stratégies efficaces qui mènent aux plus grandes récompenses à long terme. Ce paradigme de l’apprentissage par essais et d’erreurs, est connu comme l’apprentissage par renforcement (Reinforcement Learning).

En outre, comme un être humain, ces agents construisent et apprennent de leurs connaissances directement à partir de matières brutes. Telles que la vision et sans fonctionnalités d’ingénierie codée préalablement à la main ou du domaine heuristique. Cet objectif est atteint par l’apprentissage en profondeur (Deep Learning j’en parle ici) des réseaux de neurones.

Au DeepMind, ils ont mis au point la combinaison de ces approches – le deep reinforcement learning (DRL) – pour créer les premiers agents artificiels à atteindre une performance de niveau humain dans de nombreux domaines jugés difficiles.

L’IA doit faire des erreurs pour apprendre

Les agents doivent continuellement faire des jugements de valeur de manière à sélectionner les bonnes actions des plus mauvaises. Cette connaissance est représentée par un Q-réseau qui estime la récompense totale qu’un agent peut espérer recevoir après avoir pris une action particulière.

Il y a deux ans, ils ont crée avec succès l’algorithme sur l’apprentissage par renforcement profond (Deep Reinforcement Learning). L’idée principale était d’utiliser des réseaux de neurones profonds pour représenter le Q-réseau, et de former ce Q-réseau pour prédire la récompense totale. Les précédentes tentatives pour combiner RL avec les réseaux neuronaux ont largement échoué en raison de l’apprentissage instable.

Pour répondre à ces instabilités, les Q-réseaux profonds (DQN) stocke toutes les expériences de l’agent. Puis au hasard, il pioche des échantillons et rejoue ses expériences pour fournir des données de formation diverses et décorrélés. Ils ont appliqué le DQN dans l’apprentissage des jeux sur la console Atari 2600.

A chaque pas, l’agent observe les pixels bruts sur l’écran, un signal de récompense correspondant au score de jeu, et sélectionne une direction du joystick. Dans l’article de Nature, ils ont formé des agents DQN différents pour 50 jeux différents Atari, sans aucune connaissance préalable des règles du jeu.

Comparison of the DQN agent with the best reinforcement learning methods in the literature. Comparaison of the DQN agent with the best reinforcement learning methods in the literature.

Étonnamment, DQN atteint des performances de niveau humain dans près de la moitié des 50 matchs auxquels il a été appliqué; bien au-delà de toute méthode précédente. Le code source DQN et émulateur Atari 2600 sont librement accessibles à tous ceux qui souhaitent expérimenter eux-mêmes.

Toujours plus performant

Ils ont par la suite amélioré l’algorithme DQN à bien des égards ; stabiliser davantage les apprentissage dynamique ; hiérarchiser les  expériences relus ; normalisation, agrégation et remise à l’ échelle des sorties. La combinaison de plusieurs de ces améliorations conduit à une progression de 300% du score moyen pour les jeux Atari; des performances de niveau humain ont été réalisé dans presque tous les jeux Atari.

Les ingénieurs peuvent même former un réseau neuronal unique pour en apprendre davantage sur plusieurs jeux Atari. Deep Mind a également construit un système en open source, connu sous le nom Gorila, qui utilise la plate-forme Google Cloud pour accélérer le temps de formation ; ce système a été appliqué dans la recommandation dans les systèmes de Google.

Le Reinforcement Learning asynchrone

Cependant, Q-réseaux profonds ne sont qu’un moyen de résoudre le problème de RL profonde. Ils ont récemment introduit une méthode encore plus pratique et efficace basée sur un RL asynchrone. Cette approche exploite les capacités de multit-reading de CPU standard.

L’idée est d’exécuter de nombreux exemples à leur agent en parallèle, mais en utilisant un modèle partagé. Cela fournit une alternative viable à l’expérience de rediffusion.

Leur algorithme acteur-critique asynchrone, A3C , combine un DQN avec un réseau pour la sélection des actions. Il obtient des résultats state-of-the-art, en utilisant une fraction du temps de formation des DQN et une fraction de la consommation des ressources de Gorila.

En construisant de nouvelles approches de la motivation intrinsèque et la planification dans le temps abstrait , ils ont également obtenu des résultats exceptionnels dans les jeux les plus notoirement sur les jeux difficiles Atari, tels que la vengeance de Montezuma.

Asynchronous RL effectue également bien dans ces domaines et, lorsqu’il est complété par une stratégie de contrôle hiérarchique, peut résoudre des problèmes difficiles sans aucune connaissance préalable.

Alors que les jeux Atari démontrent un large degré de diversité, ils sont limités à la 2D. Google a récemment introduit Labyrinth : une navigation 3D plus difficile avec des environnements de résolution d’énigmes. Encore une fois, l’agent observe des entrées à base de pixels dans son champ de vision, et doit comprendre la carte pour découvrir et exploiter des récompenses.

Étonnamment, l’algorithme de A3C réalise des performances au niveau humain, sur de nombreuses tâches de labyrinthe. Une autre approche basée sur la mémoire épisodique a également fait ses preuves. Labyrinth sera également publié en open source dans les prochains mois.

Des applications de tous les jours ?

Ils ont également développé un certain nombre de méthodes de RL profond pour les problèmes de contrôle en continu telles que la manipulation robotique et la locomotion (automobile). Leur algorithme Deterministic Policy Gradient Algorithmss (DPG) fournit un analogue aux DQN. Et surtout chez Google et Facebook, le RL es utilisé pour créer des nouvelles IA !

Concrètement, une voiture autonome apprend à conduire sans que nous l’avons programmé pour cela. Le réseau de neurone créer alors des “expériences” qu’il conserve et transmet aux autres voitures. Ainsi chaque voiture dans le monde possède les mêmes expériences simultanément. D’ailleurs Intel a fait conduire ses voitures autonomes sur le jeu GTA V.

Le jeu de Go est le plus difficile des jeux classiques. Malgré des décennies d’efforts, les méthodes antérieures avaient seulement atteint des performances de niveau amateur. Deep Mind a développé un algorithme de RL profond qui apprend à la fois un réseau de valeur (qui prédit le gagnant) et un réseau de politique (qui sélectionne les actions) à travers des jeux. AlphaGo, programme ses réseaux neuronaux profonds avec une recherche “state-of-the-art”.

Finalement en Octobre 2015, AlphaGo est devenu le premier programme à vaincre un joueur humain professionnel . En Mars 2016, AlphaGo défait Lee Sedol (le joueur le plus fort de la dernière décennie avec 18 titres mondiaux) par 4 jeux à 1, dans un match qui a été regardé par environ 200 millions de téléspectateurs.

Par ailleurs, ils ont également développé un jeu theorique par approches RL profonde , aboutissant à un joueur super-humain de poker en heads-up au No Limit Texas Hold’em.

De Atari à Labyrinthe, de l’automobile par la manipulation au poker et même le jeu de Go, les agents d’apprentissage de renforcement profond ont démontré des progrès remarquables sur une grande variété de tâches difficiles. Leur objectif est de continuer à améliorer les capacités de ces agents, et de les utiliser pour avoir un impact positif sur la société, dans des applications importantes telles que les soins et la santé.

deep learning

Comment fonctionne le Deep Learning ?

Avant de lire cet article je te conseille de lire la première partie ici

Comment fonctionne le Deep Learning ?

Compte tenu de son importance, il est utile de comprendre les bases de fonctionnement du Deep Learning (DL). Le DL consiste à utiliser un «réseau neuronal artificiel » – une collection de «neurones» (calculatrices logicielles) reliés entre eux.

Tout d’abord, un neurone artificiel comporte une ou plusieurs entrées. Il effectue un calcul mathématique et le délivre, on appelle cela : une sortie. La sortie dépendra à la fois du « poids » de chaque entrée et de la configuration de la «fonction d’entrée-sortie» dans le neurone (Figure 5, ci – dessous). Nous représentons un neurone par une bulle grise avec la lettre “f”. La fonction d’entrée-sortie peut varier. Donc un neurone peut être :

  • une unité linéaire, la sortie est proportionnelle à l’entrée pondérée totale;
  • une unité de seuil, la sortie est fixée à l’un des deux niveaux, si la puissance totale est supérieure à une valeur déterminée; ou
  • une unité sigmoïde, la sortie varie de façon continue, mais pas de façon linéaire comme les changements d’entrée.

Un réseau de neurones est crée lorsqu’ils sont connectés les uns aux autres; la sortie d’un neurone devient une entrée pour un autre (figure 6).


Pour comprendre, les réseaux de neurones sont organisés en plusieurs couches de neurones (d’où le terme d’apprentissage «profond»). La «couche d’entrée» reçoit des informations du réseau et traitera – par exemple, une série d’images. La «couche de sortie» fournit les résultats. Entre les couches d’entrée et de sortie sont des «couches cachées» où la plupart des activités se produisent.

En règle générale, les sorties de chaque neurone à un niveau plus bas du réseau de neurones sert comme l’une des entrées pour chacun des neurones de la couche suivante (figure 7).

Prenons l’exemple d’un algorithme de reconnaissance d’image. Le but est de reconnaître des visages humains en images. Lorsque les données sont introduites dans le réseau de neurones, les premières couches identifient les modèles de contraste local. C’est-à-dire les caractéristiques «bas niveau» tels que les bords.

Comme l’image traverse le réseau, progressivement les caractéristiques «de niveau supérieur» sont extraites – des bords à nez, de nez aux visages (figure 8).

Ainsi, lors de sa couche de sortie, en fonction de sa formation le réseau neuronal fournira une probabilité que l’image est du type spécifié (tasse : 97%; tasse à café 88%; drink 54%). On peut le voir sur le screenshot que j’ai pris avec mon mobile (clique sur l’image tu verras et regarde en bas).

deep learning_screenshot

Apprentissage du deep learning

En règle générale, les réseaux de neurones sont formés en les exposant à un grand nombre d’exemples. Les erreurs sont détectées et les poids des connexions entre les neurones sont accordés en temps réel par l’algorithme dans le but d’améliorer les résultats. En effet, le processus d’optimisation est largement répété, après quoi le système est déployé et les images non étiquetées sont évaluées.

Pour comprendre, les schémas précédents représentent un réseau neuronal simple mais leur structure peut varier et la plupart sont beaucoup plus complexes. En fait, les variations incluent les connexions entre les neurones sur la même couche; nombres différents de neurones par couche; et la connexion du neurone émet dans les niveaux précédents du réseau (réseaux neuronaux ‘récursives’).

Dès lors, la conception et l’amélioration d’un réseau de neurones nécessite beaucoup d’habileté. Ainsi, les étapes comprennent la structuration du réseau pour une application particulière. Aussi, ils fournissent un ensemble d’entrainement adéquate avec des données. Enfin, le réseau de neurone ajuste la structure du réseau en fonction des progrès, et en combinant des approches multiples.

Pourquoi est-IA importante ?

Premièrement, l’IA est importante car elle aborde des problèmes profondément difficiles. Toutefois les solutions à ces problèmes peut être appliquées à des secteurs importants pour le bien-être humain. Tels que la santé, l’éducation, le commerce, le transport, les services publics et le divertissement. Depuis les années 1950, la recherche en IA a mis l‘accent sur cinq domaines de recherche :

  1. Raisonnement : la capacité de résoudre les problèmes par déduction logique
  2. Connaissance : la capacité de représenter la connaissance du monde (la compréhension qu’il y a certaines entités, des événements et des situations dans le monde; ces éléments ont des propriétés, et ces éléments peuvent être classés.)
  3. Planification : la capacité à définir et à atteindre l’objectif (il y a un état spécifique à venir du monde qui est souhaitable, et des séquences d’actions peut être entreprises)
  4. Communication : la capacité de comprendre le langage écrit et parlé.
  5. Perception : la capacité de déduire des choses sur le monde à partir d’images visuelles, sons et autres entrées sensorielles.

Elle est précieuse, car dans de nombreux contextes, les progrès en question offrent des capacités révolutionnaires, plutôt que de l’évolution.
Dans les prochaines années, les capacités des Machines Learning (ML) seront utilisées dans presque tous les secteurs dans une grande variété de processus. Considérant une fonction unique d’entreprise par exemple, les ressources humaines. Cela illustre la gamme de procédés pour lesquels la ML sera appliquée :

  • le recrutement peut être amélioré avec un ciblage amélioré, correspondance intelligente de l’emploi et de l’évaluation partiellement automatisé;
  • la gestion de la main-d’œuvre peut être améliorée par une planification prédictive des besoins en personnel et les absences probables;
  • l’apprentissage de la main-d’œuvre peut être plus efficace que le contenu mieux adapté à l’employé est recommandé; et
  • le taux de désabonnement des employés peut être réduit en prévoyant que les employés de valeur peuvent être à risque de quitter.

La machine et deep learning deviendront normalisés

Au fil du temps , nous attendons l’adoption de la ML à devenir normalisée. La ML deviendra une partie de boîte à outils standard de développeur, améliorant d’abord les processus existants, puis de les réinventer.

Les conséquences de second ordre de la Machine Learning dépassera son impact immédiat. Le Deep Learning a amélioré la vision par ordinateur, par exemple, au point que les véhicules autonomes (voitures et camions) sont viables. Mais quel sera leur impact ? Aujourd’hui, 90% des personnes et 80% du fret sont transportés par la route au Royaume-Uni. Si on prend uniquement le domaine des véhicules autonomes voici l’impact (chiffres du Royaume-Uni) :

  • la sécurité (90% des accidents sont causés par l’inattention du conducteur)
  • l’emploi (2,2 millions de britanniques travaillent dans le secteur du transport et de la logistique, recevant environ 57 milliards de livres sterling en salaires annuels)
  • assurance (une chute de 63% des primes d’assurance automobile au fil du temps)
  • l’économie du secteur (les consommateurs sont susceptibles d’utiliser des services de transport à la demande à la place de la propriété de la voiture);
  • le débit des véhicules; aménagement urbain; réglementation et plus.

Article suivant : Pourquoi l’IA arrive à son âge d’or
Source

revolution intelligence artificielle

Révolution technologique en 2020

En 2020 il y aura une révolution technologique, j’en parle depuis l’ouverture du blog ça ne fait pas de doute. Mais qu’elle sera la technologie en question, serait-ce l’Intelligence Artificielle* ou un procédé ? J’ai ma petite idée.

Il y a quelques jours, j’ai co-animé une conférence sur “Internet” à des seniors. J’ai apporté mon aide pour répondre à certaines questions. Ils m’ont asséné de questions et j’en retiendrai une, venant d’une dame de 74 ans “si je comprends bien, on demande tout à Google, mais peut-on tout lui demander ?”.

Au delà de cette question à demi philosophique, il est vrai, dans les années 2000 la règle d’or était d’avoir un pseudo, ne jamais communiquer sa vraie adresse ou tout autre information personnelle. Maintenant nous affichons notre vie de chaque instant sans transparence. Cette question reflète une inquiétude, celle de l’intégrité personnelle ; pouvons-nous tout demander à Google même des choses inavouables ?

L’intelligence artificielle is everywhere

En effet, Internet nous aide quotidiennement. Chacune de nos demandes nous les soumettons à Google. Nous le faisons de manière instinctive. Google enregistre tout ce que nous faisons. Pourquoi lorsque je cherche une image d’un oiseau bleu il me sort des oiseaux bleus ? Parce que son algorithme repère ce que nous mettons en légende et compare le nombre de clique sur l’image. Plus il y a de clique sur une image par rapport à telle recherche, plus l’algorithme pense que le résultat est pertinent. Je n’entrerai pas dans les détails pour le référencement des sites Internet qui est beaucoup plus technique. Tout comme Facebook est capable de détecter et reconnaître des personnes (même de dos!), ou un visage pixélisé ! Ces algorithmes apprennent chaque jour grâce à nos propres informations.

Aujourd’hui il a été possible à un ordinateur de dessiner par lui-même un chat (sans programmation). En lui donnant des images de chat, l’ordinateur est capable d’en comprendre la composition, une tête, des moustaches, une queue…

Jusqu’à aujourd’hui les algorithmes étaient programmés. Maintenant les algorithmes sont auto-apprenants. Le deep learning, permet aux ordinateurs d’apprendre par eux-mêmes. Et ces ordinateurs fonctionnent de mieux en mieux car nous sommes de plus en plus à les faire travailler. Pour reprendre l’exemple des images, les caméras sont capables de voir nos micro-expressions, colère, joie, mais aussi permettront-ils de détecter les menteurs ?

La médecine réussira à guérir toutes les maladies ?

Marc Zukerberg a dit l’année dernière “d’ici 15 ans nous serons capable de supprimer toutes les maladies sur Terre”.

Et maintenant est-ce que les ordinateurs sont plus efficaces que l’homme ? Notamment en imagerie médicale, l’analyse des mammographie par l’Intelligence Artificielle révèlent quatre fois plus de cas dépistés que par des médecins.

En faisant lire 20 millions d’articles en médecine à Watson (IA de IBM) en 2 semaines il découvre 6 molécules liées au cancer et réussi à diagnostiquer un cancer très rare chez une femme au Japon alors que les médecins piétinaient.

Les avocats, banquiers, directeur de communication dans une agence de communication, l’intelligence artificielle est partout est son potentiel est supérieure à celle de l’homme.

L’intelligence artificielle est présente dans les voitures, mais également dans les avions de chasse. Souvent lorsque je parle des voitures autonomes, on comprend un ordinateur avec un programme conçu par un humain qui piloterait la voiture. Mais en fait la voiture apprend par elle-même ! En fonction de ses expériences elles gèrent et contrôlent de mieux en mieux la voiture en fonction des nouvelles situations. Ainsi ce n’est pas UNE voiture avec ses multiples expériences qui fait la valeur de l’intelligence, c’est les multiples expériences par des millions de voitures le tout centralisé qui créer un énorme réseau d’expériences et donc d’intelligence. Si toutes les voitures sont connectées, ce qu’une voiture apprend à Lille, elle transférera son savoir immédiatement à une voiture située à Tokyo.

Une seule interface, la disparition des interfaces

Comme nous demandons tout à Google et qu’il retient ce que nous lui demandons, pourrait-il devenir un jour notre assistant ? Un assistant personnel qui sera la seule interface. Aujourd’hui nous devons lancer une application en fonction du service que nous voulons.

Je veux consulter mes comptes je lance mon application de la banque. Je veux connaitre les prix d’un billet d’avion je vais ouvrir EasyJet ou Air France etc. Et si à l’avenir nous avions uniquement une interface, il suffirait d’ouvrir cette interface et de faire notre demande. De plus en plus de bots (robots gérés par intelligence artificielle) sont capables de comprendre le langage parlé/écris et même de créer des conversations. C’est l’étape supérieure de Siri, Cortana ou Google Now. Comme cet assistant centralisera toutes nos données, il pourra même anticiper nos demandes.

Une interface avec toutes nos données au même endroit

Si une telle interface existe alors,

Les intelligences artificielles sont capables de lire nos émotions, ils peuvent parler et écrire sans que nous pouvons en faire la distinction avec un humain. Pourrait-il devenir mon meilleur ami, capable de me comprendre, de savoir qui je suis et connaître mes attentes ? Ou pourrait-il être moi, dématérialisé ?

Dans ce cas il pourrait réserver une soirée avec Paul mon meilleur ami, l’assistant regardera nos agendas respectifs, réservera le resto en commandant les plats que nous préférerons et paiera sans que nous nous en occupions. Peut être même un jour il nous dira d’aller à l’hôpital. En effet, si nous donnons nos données médicales il pourra savoir que nous sommes malades sans même que nous nous en rendions compte.

La fin des ressources humaines ?

Sa capacité à détecter mon humeur, l’intelligence artificielle saura que mon métier ne me correspond plus et peut être pourrait-elle envoyer mon CV dans des entreprises ? “Tu n’es pas heureux dans ton travail alors il est tant que tu prennes un autre virage dans ta vie professionnelle” dira mon assistant. Et elle me mettra un rendez-vous dans mon agenda car elle aura envoyé mon CV à plusieurs assistants d’entreprises. Mon CV sera lu par l’assistant d’une entreprise et mon profil correspondrait à ce qu’il recherche et voilà un “match”.

Fin des sites de rencontres ?

J’utilise le terme “match” comme sur Tinder. Cet assistant pourrait aussi nous proposer des rencontres. En lisant notre carnet d’adresse ou des gens que nous avons croisés. Il saura pour nous qui est la personne qu’il nous faut.

La fin du marketing ?

Le marketing a pour première mission d’influencer les masses pour qu’elles achètent les produits et services de l’entreprise. Mais si nous avons tous un assistant, alors ça sera notre assistant qui sera en contact avec l’entreprise et non nous directement. Comme vu plus haut, l’entreprise aura son propre assistant. Il existe déjà un robot au conseil d’administration d’une entreprise depuis 2014 ! Alors l’idée folle que je propose ici n’est pas si tordue après tout.

Du coup, si on fait un pas de recul, le rôle des entreprises sera totalement différent de celui d’aujourd’hui. Les entreprises devront être totalement ouvertes et honnêtes car chaque critère sera important et ne sera pas oublié par notre assistant. Par exemple, Bertrand veut travailler dans une entreprise “green” (zéro papier, trie les déchets, limite la consommation d’énergie etc.) son assistant regardera uniquement les entreprises dont les valeurs sont green. Si l’entreprise a menti, on peut comprendre que le salarié peut se retourner contre l’entreprise sous forme de notation et de commentaire. L’application Glassdoor le permet déjà aujourd’hui.

Nouveau paradigme

C’est indéniable, le monde digital apportera l’affranchissement du travail. Nous pourrons faire ce que nous voulons, déployer notre créativité, j’en parle dans cet article. Le revenu de base sera très certainement mis en place.

Il y aura également l’avènement des ordinateurs quantiques. Les plus optimistes disent qu’ils seront sur le marché professionnel pour 2019. Pour avoir un ordre d’idée, un ordinateur quantique aura une capacité de calcul entre 1 à 10 millions de fois plus puissants que nos supers calculateurs actuels. L’actuel est capable de faire 93 millions de milliards de calcul par seconde.

Je songe de plus en plus à ces familles “digitale nomade” qui font l’école pour leur enfant, qui voyagent où ils veulent quand ils veulent. La communication et la technologie tend à supprimer les frontières pour un ouvert plus ouvert.

En prenant conscience de ce changement de paradigme il est nécessaire de faire attention à qui nous voterons. Je croise les doigts pour les Américains dont les résultats arriveront demain (8 novembre). Et aussi en France, les présidentielles seront en mai 2017, et le chef de l’Etat jouera un rôle des plus important du XXIème siècle.

Pour approfondir le sujet en une infographie.

*intelligence artificielle : dans mon article j’ai alterné le il/elle car j’aurai préféré le neutre.

youtube_camapgne_htc

Communication de HTC Vive

Aujourd'hui je me suis intéressé à la campagne de communication de HTC et plus particulièrement du produit HTC Vive. Le produit en question est un casque de réalité virtuelle.

Ont-ils crée une campagne d’affichage surprenante ? Ont-ils crée un stunt des plus surprenants ? Rien de tout ça et ils comptabilisent plus de 32 millions d’impressions au bas mot sur un mois (mai 2016).

Youtube est un vecteur de communication de plus en plus important grâce notamment aux Youtubeurs. Comme dans le sport ou le cinéma, ceux-ci possèdent également ses « stars » dont leurs audiences peuvent dépasser celles de certaines chaînes de télévision.

Une simple recherche sur Youtube nous indique plus de 85 000 vidéos avec le nom “HTC Vive”. L’axe principal entrepris par la firme Taïwanaise est donc la communication via les leaders d’influences sur la plateforme de vidéos. En France, Squeezie a fait deux vidéos du HTC Vive totalisant plus de 7 millions de vues à lui seul (belle performance cela représente 20% des 32 millions de vues).

Un axe de communication où les entreprises commencent à prendre le pas.

L’été dernier SFR a fait la promotion de sa fibre en utilisant sa chaine Youtube. Ils ont créé un jeu concours avec des Youtubeurs.
Sur les 8 vidéos du 28 août au 16 octobre ont généré environ 690 000 vues.

Pourquoi les entreprises sont séduites par ce concept ?

Continuer la lecture