Voici mon blog personnel. Intelligence artificielle, marketing digital sont les sujets les plus souvent abordés.

Étiquette : application

Un an de méditation

Entrepreneur, blogger, marketer, écrivain, les anglos-saxons disent que je suis un « slasher ». Je suis aussi un geek compulsif qui se soigne grâce à sa dose de Twitter et Youtube matin et soir.

Je médite depuis un an

Maintenant je peux affirmer que j’ai passé 42h de ma vie à méditer. 193 séances à essayer de ne pas penser. Nous méditons tous un peu chaque jour même sans se rendre compte. Certain appelle « pilotage automatique », parfois nous posons notre regard sur « rien » et nous ne pensons plus à rien, le vide complet. Cet instant est relativement très court 1 ou 2 minutes pas plus. On laisse échapper un soupir profond et on reprend notre activité.

Cet instant si bref mais si intense est la quintessence de la méditation. Pour d’autres c’est la randonnée, marcher dans la nature pendant plusieurs heures, contempler le paysage permet de faire le vide. Le sport ou une activité de concentration intense comme le karting ou les échecs permet de rentrer dans une forme de « méditation ». Sans être très spirituel, mais en fait les éléments naturels nous pousse à entrer en méditation. N’as-tu jamais ressenti une profonde relaxation en regardant un feu ou le flot continu d’un ruisseau ?

Grâce à mes séances j’ai pu comprendre que ce type de méditation (pleine conscience), apercevoir ce que mon corps et mon esprit me demandent automatiquement.

Meditation_Screenshot_20170316-074053

Meditation_Screenshot_20170316-074053

Pourquoi j’ai commencé la méditation

En décembre 2015, je vivais une situation personnelle ET professionnelle stressante. J’avais déjà vécu des pics de stress notamment lors de mes différents examens et concours par exemple. C’est surtout l’attente et l’avant-action que le stress bat son plein. En effet, c’est un réflexe défensif, nous anticipons un problème, notre corps se met en alerte. Et une fois l’action entamée et terminée, le stress retombe et s’en va. Sauf pendant cette période. J’avais beau passer à l’action, un souci réglé, je ressentais toujours du stress. Pas aussi intense que l’avant-action mais que je qualifiais de « stress résiduel ». Une sensation, légère mais permanente de stress au fond du ventre et de l’esprit qui me contrariait à chaque instant. J’ai lu alors que la méditation pouvait permettre de mieux se sentir c’est comme ça que j’ai débuté.

Pourquoi j’ai choisi l’application Zenfie

Un jour, je me trouve à la FNAC et je vois un livre sur la méditation qui coûtait 39€. Je me souviens du prix car je me suis dit que s’il était si cher c’est qu’il était de très bonne qualité. En le feuilletant je me demande si une application sur la méditation existe. Evidemment le Play Store en regorge beaucoup. Du coup je laisse tomber le livre et j’ai essayé plusieurs applications. Elles ont toutes une partie gratuite, et des compléments en payant. La plupart sont des applications de méditation pleine conscience.

La méditation pleine conscience c’est celle que nous faisons naturellement quand nous sommes scotchés à regarder un feu par exemple. Pour le cas d’une application, tu écoutes une personne qui te guide. Il suffit juste d’écouter et non pas entendre. Lorsque nous écoutons il y a une sorte de « lâcher-prise » alors que nous « entendons » nous jugeons ce que nous écoutons.

Pour le cas de Zenfie, tout d’abord, j’aime beaucoup la voix de Jean Doridot et en fait ça a fait la différence avec les autres applications (je ne parle pas pour les app anglophone, mon niveau ne me permet pas de bien comprendre, surtout sur ce genre de thème). Ensuite j’ai beaucoup apprécié le programme d’initiation. On commence avec des séances de 5 minutes, ce n’est vraiment pas grand-chose et puis au fur et à mesure la durée augmente et sa concentration aussi. Pour moi ça été une réussite !

La méditation pour tout le monde

Je ne compte pas m’arrêter. Souvent on me pose la question « est-ce que tu passes de meilleure journée lorsque tu médites le matin ? ». Pas forcément. Mais une chose est sûre, lorsque je ne me médite pas pendant 3 jours, j’ai l’impression que ma vie est « instable ». Il manque un équilibre, ça se traduit par un manque de chance, je loupe mon bus, j’arrive en retard (je ne le suis jamais), quelqu’un va mal me parler etc.

Je vais avoir plus d’actions négatives lorsque je ne médite pas. Voilà ce que j’ai remarqué, sinon ça ne change pas grand chose dans ma vie si ce n’est que je ne suis plus stressé comme auparavant.

Un conseil pour toutes les personnes qui hésitent. Comme dans le livre Effet Cumulé et Miracle Morning, d’une part, il faut se bouger et le faire et d’autre part il faut le faire graduellement. Ça ne sert à rien de vouloir faire 10 ou 15 minutes de méditation alors que tu vas rester concentré 1 minute maximum. Le mieux c’est de commencer soft et d’augmenter la durée. C’est pour ça que j’ai trouvé Zenfie efficace. D’autre part, je pense que c’est une activité que tout le monde devrait faire et notamment être enseigné dans les écoles (excellent article).

Futur du Deep Learning ? Le Reinforcement Learning !

Entrepreneur, blogger, marketer, écrivain, les anglos-saxons disent que je suis un « slasher ». Je suis aussi un geek compulsif qui se soigne grâce à sa dose de Twitter et Youtube matin et soir.

Le sujet est complexe, si tu veux du pragmatique, je te conseille de lire le dernier paragraphe. Bonne lecture 🙂

Le cerveau humain vs Reinforcement Learning

Les humains sont excellents dans la résolution d’une grande variété de problèmes, en plus leur cerveau consomme peu d’énergie. L’objectif chez DeepMind est de créer des agents artificiels qui peuvent atteindre un niveau de performance similaire.

Comme un être humain, leurs agents apprennent eux-mêmes pour parvenir à des stratégies efficaces qui mènent aux plus grandes récompenses à long terme. Ce paradigme de l’apprentissage par essais et d’erreurs, est connu comme l’apprentissage par renforcement (Reinforcement Learning).

En outre, comme un être humain, ces agents construisent et apprennent de leurs connaissances directement à partir de matières brutes. Telles que la vision et sans fonctionnalités d’ingénierie codée préalablement à la main ou du domaine heuristique. Cet objectif est atteint par l’apprentissage en profondeur (Deep Learning j’en parle ici) des réseaux de neurones.

Au DeepMind, ils ont mis au point la combinaison de ces approches – le deep reinforcement learning (DRL) – pour créer les premiers agents artificiels à atteindre une performance de niveau humain dans de nombreux domaines jugés difficiles.

L’IA doit faire des erreurs pour apprendre

Les agents doivent continuellement faire des jugements de valeur de manière à sélectionner les bonnes actions des plus mauvaises. Cette connaissance est représentée par un Q-réseau qui estime la récompense totale qu’un agent peut espérer recevoir après avoir pris une action particulière.

Il y a deux ans, ils ont crée avec succès l’algorithme sur l’apprentissage par renforcement profond (Deep Reinforcement Learning). L’idée principale était d’utiliser des réseaux de neurones profonds pour représenter le Q-réseau, et de former ce Q-réseau pour prédire la récompense totale. Les précédentes tentatives pour combiner RL avec les réseaux neuronaux ont largement échoué en raison de l’apprentissage instable.

Pour répondre à ces instabilités, les Q-réseaux profonds (DQN) stocke toutes les expériences de l’agent. Puis au hasard, il pioche des échantillons et rejoue ses expériences pour fournir des données de formation diverses et décorrélés. Ils ont appliqué le DQN dans l’apprentissage des jeux sur la console Atari 2600.

A chaque pas, l’agent observe les pixels bruts sur l’écran, un signal de récompense correspondant au score de jeu, et sélectionne une direction du joystick. Dans l’article de Nature, ils ont formé des agents DQN différents pour 50 jeux différents Atari, sans aucune connaissance préalable des règles du jeu.

Comparison of the DQN agent with the best reinforcement learning methods in the literature. Comparaison of the DQN agent with the best reinforcement learning methods in the literature.

Étonnamment, DQN atteint des performances de niveau humain dans près de la moitié des 50 matchs auxquels il a été appliqué; bien au-delà de toute méthode précédente. Le code source DQN et émulateur Atari 2600 sont librement accessibles à tous ceux qui souhaitent expérimenter eux-mêmes.

Toujours plus performant

Ils ont par la suite amélioré l’algorithme DQN à bien des égards ; stabiliser davantage les apprentissage dynamique ; hiérarchiser les  expériences relus ; normalisation, agrégation et remise à l’ échelle des sorties. La combinaison de plusieurs de ces améliorations conduit à une progression de 300% du score moyen pour les jeux Atari; des performances de niveau humain ont été réalisé dans presque tous les jeux Atari.

Les ingénieurs peuvent même former un réseau neuronal unique pour en apprendre davantage sur plusieurs jeux Atari. Deep Mind a également construit un système en open source, connu sous le nom Gorila, qui utilise la plate-forme Google Cloud pour accélérer le temps de formation ; ce système a été appliqué dans la recommandation dans les systèmes de Google.

Le Reinforcement Learning asynchrone

Cependant, Q-réseaux profonds ne sont qu’un moyen de résoudre le problème de RL profonde. Ils ont récemment introduit une méthode encore plus pratique et efficace basée sur un RL asynchrone. Cette approche exploite les capacités de multit-reading de CPU standard.

L’idée est d’exécuter de nombreux exemples à leur agent en parallèle, mais en utilisant un modèle partagé. Cela fournit une alternative viable à l’expérience de rediffusion.

Leur algorithme acteur-critique asynchrone, A3C , combine un DQN avec un réseau pour la sélection des actions. Il obtient des résultats state-of-the-art, en utilisant une fraction du temps de formation des DQN et une fraction de la consommation des ressources de Gorila.

En construisant de nouvelles approches de la motivation intrinsèque et la planification dans le temps abstrait , ils ont également obtenu des résultats exceptionnels dans les jeux les plus notoirement sur les jeux difficiles Atari, tels que la vengeance de Montezuma.

Asynchronous RL effectue également bien dans ces domaines et, lorsqu’il est complété par une stratégie de contrôle hiérarchique, peut résoudre des problèmes difficiles sans aucune connaissance préalable.

Alors que les jeux Atari démontrent un large degré de diversité, ils sont limités à la 2D. Google a récemment introduit Labyrinth : une navigation 3D plus difficile avec des environnements de résolution d’énigmes. Encore une fois, l’agent observe des entrées à base de pixels dans son champ de vision, et doit comprendre la carte pour découvrir et exploiter des récompenses.

Étonnamment, l’algorithme de A3C réalise des performances au niveau humain, sur de nombreuses tâches de labyrinthe. Une autre approche basée sur la mémoire épisodique a également fait ses preuves. Labyrinth sera également publié en open source dans les prochains mois.

Des applications de tous les jours ?

Ils ont également développé un certain nombre de méthodes de RL profond pour les problèmes de contrôle en continu telles que la manipulation robotique et la locomotion (automobile). Leur algorithme Deterministic Policy Gradient Algorithmss (DPG) fournit un analogue aux DQN. Et surtout chez Google et Facebook, le RL es utilisé pour créer des nouvelles IA !

Concrètement, une voiture autonome apprend à conduire sans que nous l’avons programmé pour cela. Le réseau de neurone créer alors des « expériences » qu’il conserve et transmet aux autres voitures. Ainsi chaque voiture dans le monde possède les mêmes expériences simultanément. D’ailleurs Intel a fait conduire ses voitures autonomes sur le jeu GTA V.

Le jeu de Go est le plus difficile des jeux classiques. Malgré des décennies d’efforts, les méthodes antérieures avaient seulement atteint des performances de niveau amateur. Deep Mind a développé un algorithme de RL profond qui apprend à la fois un réseau de valeur (qui prédit le gagnant) et un réseau de politique (qui sélectionne les actions) à travers des jeux. AlphaGo, programme ses réseaux neuronaux profonds avec une recherche « state-of-the-art ».

Finalement en Octobre 2015, AlphaGo est devenu le premier programme à vaincre un joueur humain professionnel . En Mars 2016, AlphaGo défait Lee Sedol (le joueur le plus fort de la dernière décennie avec 18 titres mondiaux) par 4 jeux à 1, dans un match qui a été regardé par environ 200 millions de téléspectateurs.

Par ailleurs, ils ont également développé un jeu theorique par approches RL profonde , aboutissant à un joueur super-humain de poker en heads-up au No Limit Texas Hold’em.

De Atari à Labyrinthe, de l’automobile par la manipulation au poker et même le jeu de Go, les agents d’apprentissage de renforcement profond ont démontré des progrès remarquables sur une grande variété de tâches difficiles. Leur objectif est de continuer à améliorer les capacités de ces agents, et de les utiliser pour avoir un impact positif sur la société, dans des applications importantes telles que les soins et la santé.

Le monde de demain, du travail avec moins d’emploi

Entrepreneur, blogger, marketer, écrivain, les anglos-saxons disent que je suis un « slasher ». Je suis aussi un geek compulsif qui se soigne grâce à sa dose de Twitter et Youtube matin et soir.

Le monde de demain sera moins d’emploi mais toujours avec du travail

Peu de gens font la différence entre l’emploi et le travail. Nous avons toujours autant de travail à effectuer mais de moins en moins d’emploi. Je le remarque dans l’émergence des start-up et en parlant avec les millenials. L’emploi ce n’est pas ce qui est le plus important. L’importance est de travailler.
Quand on sort de l’école, avec la tête bien pleine les entreprises sont réticentes à te donner un taf car tu n’as pas d’expérience. Alors il faut bien travailler. Aberration, sans expérience mais avec la tête bien faite il faut envoyer des centaines de CV pour tomber sur une entreprise qui veut bien te laisser ta chance… quelle perte de temps ! Dans un précédent article je parlais d’une start-up, grâce à son algorithme, elle cherche du travail en fonction de ton profil. Alors comment travailler sans emploi ?
T’as vu même le Ministère du Travail se pose la question !

ministere du travail-pose la question

ministère du travail-pose la question

Continue reading

Robot au service des Ressources Humaines

Entrepreneur, blogger, marketer, écrivain, les anglos-saxons disent que je suis un « slasher ». Je suis aussi un geek compulsif qui se soigne grâce à sa dose de Twitter et Youtube matin et soir.

Le robot qui voit si tu mens

Un brevet de 82 pages intitulé « Interactive Fact Checking System » vient en effet d’être déposé par LinkedIn. Comme son nom l’indique, il s’agit d’une vérification instantanée d’informations. Le système est capable de « vérifier l’exactitude des informations » en les comparants à d’autres informations trouvées sur Internet. Ensuite, une indication est donnée à l’utilisateur : en d’autres termes, si tu mens, LinkedIn pourra t’avertir. Le système pourra également interagir avec toi pour éviter les faux positifs et affiner la pertinence des alertes. Et le réseau social a prévu tout type de sources et de process pour vérifier les données : moteurs de recherche, messagerie, réseaux sociaux, reconnaissance vocale, faciale, biométrique, traduction de sources étrangères, etc.
Il sera aussi capable de vérifier les informations que tu donnes sur une entreprise. Ainsi, si tu indiques travailler pour « l’entreprise la plus rentable de son secteur » par exemple, le réseau social sera capable de vérifier cette information.

Continue reading

© 2023 Ludo LOUIS

Theme by Anders NorenUp ↑