L’apprentissage automatique (ML) et l’intelligence artificielle (IA) deviennent des techniques de résolution de problèmes dominantes dans de nombreux domaines de la recherche et de l’industrie, notamment en raison des récents succès de l’apprentissage en profondeur (DL).
Cependant, l’équation AI=ML=DL, comme récemment suggérée dans les actualités, les blogs et les médias, est trop courte. Ces domaines partagent les mêmes hypothèses fondamentales : le calcul est un moyen utile pour modéliser le comportement intelligent des machines. Quel type de calcul et comment le programmer ?
Ce n’est pas la bonne question. Le calcul n’exclut ni les techniques de recherche, logiques et probabilistes, ni les méthodes d’apprentissage (en profondeur) (non) supervisé et par renforcement, entre autres, car les modèles informatiques les incluent tous. Ils se complètent et la prochaine percée consiste non seulement à les pousser, mais aussi à les combiner.
Le big data n’est pas une mode
Voici une vidéo qui vous aide à comprendre le big data :
Le monde croît à un rythme exponentiel, tout comme la taille des données collectées à travers le monde. Les données deviennent plus significatives et contextuellement pertinentes, ouvrant de nouvelles perspectives pour l’apprentissage automatique (ML), en particulier pour l’apprentissage en profondeur (DL) et l’intelligence artificielle (IA), les déplaçant des laboratoires de recherche vers la production ( Jordan et Mitchell, 2015).
Le problème est passé de la collecte d’énormes quantités de données à sa compréhension, en les transformant en connaissances, conclusions et actions. De multiples disciplines de recherche, des sciences cognitives à la biologie, en passant par la finance, la physique et les sciences sociales, ainsi que de nombreuses entreprises pensent que des solutions « intelligentes » et basées sur les données sont nécessaires pour résoudre bon nombre de leurs problèmes clés.
Des expériences génomiques et protéomiques à haut débit
Cela peut être utilisé pour permettre une médecine personnalisée. De grands ensembles de données de requêtes de recherche peuvent être utilisés pour améliorer la récupération d’informations. Les données climatiques historiques peuvent être utilisées pour comprendre le réchauffement climatique et mieux prévoir le temps.