Mardi 22 novembre 2021 – Meetup – Rendre les réseaux convolutifs à nouveau invariants à la translation

L’événement sera hybride : présentiel et en streaming. Inscrivez-vous si vous désirez être présent physiquement.

Cet exposé propose l’étude d’un article intitulé Making Convolutional Networks Shift-Invariant Again et publié à ICML2019 par Richard Zhang (Adobe Research). Ce titre est provocateur car il laisse penser que, avant cette publication, les réseaux convolutifs n’étaient plus vraiment invariants à la translation.

La première partie de la présentation aura pour objectif de reprendre rapidement quelques élément de base du traitement du signal, à savoir la transformée de Fourier, la théorie du filtrage et la théorie de l’échantillonnage (théorème de Shannon et filtre anti-repliement).

La deuxième partie sera une lecture guidée de l’article : les éléments de traitement du signal permettront de comprendre les défauts méthodologiques mis en lumière par l’auteur, ainsi que leurs implications sur une architecture neuronale convolutive. Les résultats et les applications seront analysés et suivis d’une discussion critique.

Ressources
Page et vidéo de présentation du papier : Making Convolutional Networks Shift-Invariant Again
https://richzhang.github.io/antialiased-cnns/

Théorème d’échantillonnage
https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_d%27%C3%A9chantillonnage

Shannon Nyquist Sampling Theorem – Vidéo
https://www.youtube.com/watch?v=FcXZ28BX-xE

Orateur : Quentin Barthelemy

Rendez-vous

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.