Suivez les actualités de Datalchemy et notre analyse des dernières avancées du domaine.
- Les pièges invisibles de l’intelligence artificielleL’intelligence artificielle semble aujourd’hui être partout, et depuis la résurrection de ce domaine de recherche en 2012, on ne compte plus les petites révolutions scientifiques qui ont découlé. Entre autres : l’apprentissage par renforcement d’un agent dépassant les experts humain au jeu de Go, la résolution des problèmes de repliement de protéines (un problème vieux de cinquante ans !), la capacité à générer du texte localement convaincant, ou encore l’arrivée de nouvelles techniques de prédiction de séries temporelles arrivant en tête du célèbre concours M4…
- Transformers everywhereEnorme révolution pour le Deep Learning ? Va-t-on pouvoir limiter le nombre d’architecture à connaître pour pouvoir mieux se concentrer sur leurs applications ? Ou faut-il, au contraire, rester méfiant face à de ces vagues issues du monde académique mais peu applicable concrètement ? Séries temporelles, modèles génératifs par Transformers? Parlons-en.
- De la gloire à la catastrophe, Overfit Overkill : Deep Learning Human Mind...Un projet Deep Learning peut-il passer du statut de réussite mondiale à celui d'échec magistral ? Qualifier qu'un projet IA "fonctionne" est en réalité beaucoup plus difficile qu'il ne le semble, et un projet peut souvent l'apparence d'une réussite à tord. Le maître mot est l'overfit, et si vous croyez qu'il suffit de séparer sa data entre test set, validation set et training set pour se protéger, vous êtes probablement en danger...
- Neural Ordinary Differential EquationsSortie en janvier 2019, les Neural ODEs introduits par Chen et al de l’université de Toronto ont été salués comme une bourrasque d’air frais dans l’univers du Deep Learning. Loin des nombreuses améliorations incrémentales d’architecture ou autres astuces, les Neural ODEs proposent une reformulation complète de l’approche par réseaux de neurones, pouvant s’appliquer à de nombreux problèmes différents avec la même élégance.
- DeepAR, champion d’Amazon pour l’analyse prédictiveLa prédiction de séries temporelles est un outil indispensable à de nombreux acteurs économiques aujourd’hui. Prédire l’évolution de ventes, d’utilisation d’un service ou de fonctionnement d’un mécanisme sont autant d’exemples évidents et pouvant changer radicalement l’efficacité d’une approche stratégique. Assez ironiquement, ces méthodes ne sont pas tant que cela à la pointe des recherches en Deep Learning, et les outils statistiques usuels restent à date la solution préférée de nombreux acteurs. Nous proposons de nous intéresser à DeepAR d’Amazon, une publication récente proposant une solution globale et intéressante à ce problème.
- CycleGAN : pierre fondatrice de la génération non superviséeCet article vise à présenter une architecture fondamentale qui a fortement révolutionné les modèles génératifs, tout particulièrement selon un apprentissage non supervisé. Malgré un certain « âge » (_CycleGan_ remonte à mars 2017), cette approche reste une pierre angulaire dans les modèles génératifs à connaître absolument si l’on désire s’intéresser au sujet.
- AlphaGO, dissection d’une révolutionCet article a pour but de présenter un des moments clés de la révolution du *Deep Learning* ces dernières années, à savoir, la mise au point d’un système algorithmique capable de dépasser les meilleurs joueurs humains au jeu de Go. Cette révolution avait eu quelques échos médiatiques, sous le nom d’*AlphaGo*, une réussite du groupe *Deepmind* qui aujourd’hui encore est un des leaders de la recherche en *Deep Learning*. Nous vous proposons ici de détailler les enjeux et l’approche qui a été implémentée, ceci en deux parties : une première partie visant le grand public, et une seconde partie plus détaillée à destination de Data Scientists ou d'ingénieurs motivés.
- Survivre au Deep LearningSi le Deep Learning est en train d'envahir de nombreux pans du milieu de la recherche et de s'introduire progressivement dans l'industrie, de plus en plus de gens désirent se former et de tenir informé des évolutions de ce domaine. Cette veille constante est importante du fait de l'extrême jeunesse du Deep Learning. De nouvelles applications apparaissent régulièrement, de nouvelles publications viennent souvent enrichir nos connaissances et nous donner de nouveaux outils pour attaquer nos problèmes, et tenir cette veille est ainsi très important pour tout acteur voulant rester au fait des dernières évolutions. Vous trouverez ci-dessous quelques sources reconnues et particulièrement intéressantes de notre point de vue.
- Nos formations d'introduction au Deep LearningIntelligence artificielle, réseaux de neurones, deep learning, machine learning. Ces concepts sont en train de révolutionner les milieux IT et arrivent demain dans votre entreprise (si ce n'est déjà fait). Peu d'enseignements existent aujourd'hui pour vous donner les clés de compréhension de ces domaines, et nous avons donc le plaisir de développer un catalogue de formations afin de vous préparer au mieux.
- Wasserstein GANPetite revue des dernières évolutions notables des Generative Adversarial Networks, avec arrivée de la théorie optimale du transport.
- Evolutions 2016 des réseaux récurrentsPlusieurs évolutions sont sorties cette dernière année visant à modifier les RNN, voici une sélection des principales évolutions de 2016.
- Generative Adversarial NetworksLes Generative Adversarial Networks sont nés en 2014 (Goodfellow et al.) et sont très vite devenus particulièrement populaires dans la communauté scientifiques comme présentant un nouveau modèle de génération de donnée original et particulièrement efficace.
- Neural Style (1/3) - Quand les mathématiciens jouent avec l'artPeu de gens ayant accès à Internet ont échappé à la déferlante du Neural Style cette dernière année. Ce qui était originalement une publication forte mêlant CNNs et travail de l'image est en passe de devenir un nouveau mode de création artistique à part entière. De nombreuses applications ont, depuis, reproduit ce concept pour le proposer à leurs utilisateurs...
- Variational AutoEncoderSi vous vous intéressez aux modèles générationnels (par exemple les GANS dont nous parlions plus tôt), vous aurez nécessairement vu passer le VAE (Variationnal Autoencoder) qui reste une alternative importante aux GANs.
- Neural Style (2/3) - Fast Forward!Nous avions, dans un article précédent, décrit l'idée principale du célèbre Neural Style à partir de la publication originelle, A Neural Algorithm of Artistic Style [Leon A. Gatys, Alexander S. Ecker, and Matthias Bethge](http://arxiv.org/abs/1508.06576). Nous proposons aujourd'hui de continuer cette aventure en abordant une évolution déterminante de cette pratique par l'emploi de Fast Forward Networks.
- Bayesiens, RL & compréhension vidéo, publications conseillées mai 2017De nouvelles publications scientifiques sortent régulièrement dans notre domaine. Les suivre toutes reste impossible, nous nous permettons de mettre ici une petite sélection de publications en Deep Learning intéressantes et susceptibles de faire particulièrement évoluer les outils théoriques et pratiques que nous utilisons au jour le jour. Au programme : approche Bayesienne, reinforcement learning et classification/compréhension de vidéos
- Nos formations d'introduction au Deep LearningIntelligence artificielle, réseaux de neurones, deep learning, machine learning. Ces concepts sont en train de révolutionner les milieux IT et arrivent demain dans votre entreprise (si ce n'est déjà fait). Peu d'enseignements existent aujourd'hui pour vous donner les clés de compréhension de ces domaines, et nous avons donc le plaisir de développer un catalogue de formations afin de vous préparer au mieux.