Exploiter la complexité de grandes quantités de données constitue un défi en soi. Mais le Big Data est plus que cela : caractérisé à l’origine par les 3 V de Volume, Vélocité et Variété, il nécessite souvent des solutions informatiques dédiées, que nous explorerons dans ce module.
Objectifs
Après avoir suivi ce cours, les participants pourront :
- mettre en oeuvre la distribution d’opérations simples via le principe Map/Reduce dans Spark
- expliquer la différence entre les calculs avec le CPU et les calculs avec le GPGPU
- se connecter sur un moteur de cloud computing (par exemple Google Cloud Platform) et lancer une tâche simple
- comprendre l’utilité des conteneurs
- déployer un conteneur Docker.