A propos du Machine Learning en production, et si on parlait du passage à l’échelle ?
Comment adapter nos algorithmes pour travailler avec une taille arbitraire de données ?
Une des références du traitement de données à haute volumétrie est Apache Spark. Celui-ci embarque dans ses valises quelque chose qui peut nous intéresser : MLlib.
Pourquoi recourrir à Spark MLlib ? Quand doit-on l’utiliser ? Et surtout comment ?
Aujourd’hui, retrouvons nous pour une session de programmation en live sur la bibliothèque de machine learning de Spark.
Orateur : Guillaume Facchini
Rendez-vous