Mardi 10 septembre 2019 – Meetup – L’importance de la normalisation en analyse de données

Pré-requis : statistiques descriptives (moyenne, variance, z-score, médiane, distributions, Gausienne, etc)

L’analyse de données est une tâche complexe, composée de multiples étapes successives : lecture des données, pré-traitements, extraction des caractéristiques, modélisation des caractéristiques et évaluation. La normalisation des données semble appartenir majoritairement à l’étape de pré-traitements, ce qui est faux, puisqu’on peut la retrouver aussi dans des tâches haut niveau comme la détection d’anomalies, l’apprentissage automatique, l’apprentissage profond, les tests statistiques, etc. De plus, l’étape de pré-traitements est souvent vue comme contraignante et peu valorisante. Il n’en est rien, car en réalité, c’est ici que se joue une grande part de l’efficacité de toute la chaine de traitements. La valeur ajoutée du data scientist est rarement dans l’étape maSuperMethode.apply(), mais plus souvent dans la manière de présenter les données à cette méthode.
Dans cet exposé, nous verrons dans un premier temps l’intérêt de la normalisation, puis les différentes manières de normaliser, et enfin les applications.

Quentin Barthélemy

Vous avez accès aux slides à partir du lien suivant : http://www.slideshare.net/secret/qej6iuFlYu1gna

Et à la vidéo ici :

2 réponses sur “Mardi 10 septembre 2019 – Meetup – L’importance de la normalisation en analyse de données”

  1. Bonjour Lyon Data Science,

    Je voulais savoir si alliez vous téléverser la vidéo de la conférence sur une plateforme dédiée tel que YouTube.

    Je vous souhaite une excellente journée,
    Adrien Jalabert

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *