Familles de Compétences
-
CF6 : Concevoir des systèmes orientés données et/ou d'aide à la décision
Type de compétence:
TEC : Technique,
MET : Méthodologique,
MOD : Modélisation,
OPE : Opérationnel,
|
Niveau de compétence:
Base |
Intermédiaire |
Avancé |
|
Description du programme de la matière
Objectifs: | Se familiariser avec le big data et son environnement de développement. Se familiariser avec le processus d'analyse des big data (génération, acquisition, analyse,.. L'utilisation et le développement de méthodes liées à l'apprentissage automatique pour l'analyse des big data. Extraire de l'information pertinente efficacement de ces données en un temps raisonnable; Develloper des projets Big data analytique avec toute la technologie associée sur de grand datasets. |
Contenu: | Chapitre1: Data Mining Chapitre2: Introduction au BIG DATA Chapitre3: Introduction au Machine learning Chapitre4: Les problèmes du machine learning ( sous-apprentissage, sur apprentissage, one free lunch, features engeneering,.............) Apprentissage supervisée: Chapitre5: Arbre de décision, Random Forest. Chapitre6: Classifieur naive Bayes, Modèle de régression (linéaire, généralisée, logistique), Chapitre7: Support vecteur machine (SVM), Réseaux de neurones, Apprentissage non supervisée: Chapitre6 : Clustering Chapitre7: Règles d'association Chapitre 8: Sélection d'attributs Travaux pratiques: Au cours des séances de TD et TP, toutes les méthodes vues en cours seront appliquées sur des datasets de différentes tailles et les résultats seront interprétés. Les logiciels utilisés: R, Python. |
Travail Personnel: | - Des exposés sur d'autres d'apprentissage et sur approfondissemnt sur les nouveautés big data sont demandés aux étudiants. Présentation de 10 à15 mns durant les séances de cours avec application sur R ou python. Les thèmes sont mis à jours - Deep learning - Architecture BDM - Apprentisage par renforcement, - Apprentissage semi supervisée,........
Projet : Un projet final est données à des équipes composées de 6 à 5 étudiants. Il consiste à mettre en place une solution Big data de bout en bout (gestion des données et analyse) en s'aidant des moyens du bord. Cette simulation pourra se faire grace à la combinaison des PCs des membres de l'équipe. En plus de détails ils auront à suivre les phases du processus big data mining :Acquisition, Génération, Stockage et Analyse. Et cela dans le but de se familiariser avec les différentes architectures (Kappa, Lambda, Hadoop) et les différentes composantes (Map reduce, Spark, yarn, zookeeper, HDFS,.......) et pour la couche d'analyse python ou R. |
Bibliographie: | Tom M.Mitchell : ”Machine Learning”, Christopher M. Bishop : ”Pattern Recognition and Machine Learning". Pirmin Lemberger , Marc Batty, Médéric Morel: Big Data et Machine Learning - Manuel du data scientist Broché – 18 février 2015 Deep Learning (Anglais) novembre 2016 de Yoshua Bengio |
|