 Exploiter la complexité de grandes quantités de données constitue un défi en soi. Mais le Big Data est plus que cela : caractérisé à l’origine par les 3 V de Volume, Vélocité et Variété, il nécessite souvent des solutions informatiques dédiées, que nous explorerons dans ce module.
 Exploiter la complexité de grandes quantités de données constitue un défi en soi. Mais le Big Data est plus que cela : caractérisé à l’origine par les 3 V de Volume, Vélocité et Variété, il nécessite souvent des solutions informatiques dédiées, que nous explorerons dans ce module.
Objectifs
Après avoir suivi ce cours, les participants pourront :
- mettre en oeuvre la distribution d’opérations simples via le principe Map/Reduce dans Spark
- expliquer la différence entre les calculs avec le CPU et les calculs avec le GPGPU
- se connecter sur un moteur de cloud computing (par exemple Google Cloud Platform) et lancer une tâche simple
- comprendre l’utilité des conteneurs
- déployer un conteneur Docker.
 
													 
													 
													 English
English				 French
French