Catégorie  IA

Les transformers : le modèle derrière GPT-3, BERT et T5

A comic book cover of a superhero wearing headphones

Les transformers ont été développés en 2017 par des chercheurs de Google et de l'Université de Toronto, initialement conçus pour faire de la traduction. Mais contrairement aux réseaux de neurones récurrents, les transformers pourraient être parallélisés très efficacement. Et cela signifiait qu'avec le bon matériel, vous pourriez entraîner de très gros modèles.

Conférences Performance Web 2018

Performance Web est l’événement incontournable du SEO en romandie. J'étais venu à leur première édition (en 2015) et en 2016. J'en avais gardé un très bon souvenir. Se sentir bien sur place, faire du réseau et repartir avec plus de connaissance dans ma boite crânienne, c'est tout ce qui m'importe. C'est parti pour un résumé de 10 conférences de la Performance Web 2018 !

Optimized with PageSpeed Ninja