Show simple item record

Transport Optimal pour l'Apprentissage Automatique

dc.contributor.advisorPeyré, Gabriel
hal.structure.identifier
dc.contributor.authorGenevay, Aude*
dc.date.accessioned2020-02-03T15:06:18Z
dc.date.available2020-02-03T15:06:18Z
dc.date.issued2019-03-13
dc.identifier.urihttps://basepub.dauphine.fr/handle/123456789/20519
dc.description.abstractfrLe Transport Optimal régularisé par l’Entropie (TOE) permet de définir les Divergences de Sinkhorn (DS), une nouvelle classe de distance entre mesures de probabilités basées sur le TOE. Celles-ci permettent d’interpoler entre deux autres distances connues : le Transport Optimal (TO) et l’Ecart Moyen Maximal (EMM). Les DS peuvent être utilisées pour apprendre des modèles probabilistes avec de meilleures performances que les algorithmes existants pour une régularisation adéquate. Ceci est justifié par un théorème sur l’approximation des SD par des échantillons, prouvant qu’une régularisation sus ante permet de se débarrasser de la malédiction de la dimension du TO, et l’on retrouve à l’infini le taux de convergence des EMM. Enfin, nous présentons de nouveaux algorithmes de résolution pour le TOE basés sur l’optimisation stochastique "en-ligne" qui, contrairement à l’état de l’art, ne se restreignent pas aux mesures discrètes et s’adaptent bien aux problèmes de grande dimension.fr
dc.language.isofr
dc.subjectTransport Optimalfr
dc.subjectApprentissage Statistiquefr
dc.subjectOptimal Transporten
dc.subjectMachine Learningen
dc.subject.ddc006.3
dc.titleEntropy-regularized Optimal Transport for Machine Learningen
dc.titleTransport Optimal pour l'Apprentissage Automatiquefr
dc.typeThèse
dc.contributor.editoruniversityUniversité Paris Dauphine
dc.description.abstractenThis thesis proposes theoretical and numerical contributions to use Entropy-regularized Optimal Transport (EOT) for machine learning. We introduce Sinkhorn Divergences (SD), a class of discrepancies between probability measures based on EOT which interpolates between two other well-known discrepancies: Optimal Transport (OT) and Maximum Mean Discrepancies (MMD). We develop an ecient numerical method to use SD for density fitting tasks, showing that a suitable choice of regularization can improve performance over existing methods. We derive a sample complexity theorem for SD which proves that choosing a large enough regularization parameter allows to break the curse of dimensionality from OT, and recover asymptotic rates similar to MMD. We propose and analyze stochastic optimization solvers for EOT, which yield online methods that can cope with arbitrary measures and are well suited to large scale problems, contrarily to existing discrete batch solvers.en
dc.identifier.theseid2019PSLED002
dc.subject.ddclabelIntelligence artificielle
hal.author.functionaut


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record