Affiner les résultats
- Nice8
- Université Grenoble Alpes (ComUE)3
- Université Grenoble Alpes[remove]2
- Grenoble1
- Salamanca[remove]1
- Besacier Laurent3
- Gianninoto Mariarosaria2
- Novakova Iva2
- Bouattour Mohamed1
- Brissaud Catherine1
- Chevrot Jean-Pierre1
- Dubroca Danielle1
- Jacques Marie-Paule1
- Lebarbé Thomas1
- Lecouteux Benjamin[remove]1
- Tutin Agnès1
- Verbeek Jakob[remove]1
- Villavicencio Aline1
- Zinglé Henri[remove]1
Search
Votre recherche :
Statut Soutenue Retirer
Établissements Grenoble Alpes Retirer
Établissements Salamanca Retirer
Établissements Université Grenoble Alpes Retirer
Directeurs de thèse Bellynck Valérie Retirer
Directeurs de thèse Zinglé Henri Retirer
Directeurs de thèse Antoniadis Georges Retirer
Directeurs de thèse Verbeek Jakob Retirer
Directeurs de thèse Lecouteux Benjamin Retirer
1 - 3 sur 3
Nombre de résultats par page
- Auteur
- Christian Vicente-Garcia
- Résumé
- Lire le résumé
- Ce travail de thèse traite de la systématisation d'une lexicologie orientée vers les besoins des traducteurs et des apprentis traducteurs (LST) et de son application à un domaine concret : la langue spécialisée du commerce électronique en français et en espagnol. Il veut être une contribution à la construction d'une théorie formalisée du courant de traduction des études terminologiques et à l'exploration des fondements d'une telle théorie, ainsi qu'une réflexion linguistique globale sur les langues spécialisées et leur traduction. Nous définissons et traitons un certain nombre de problèmes de traduction qui ont souvent été exclus des théories terminologique et lexicologique classiques, pour ensuite construire une théorie explicative pour ces faits. La méthodologie présentée est appliquée à une base de données du domaine du commerce électronique, à partir de laquelle nous donnons un échantillon de cinquante fiches de traduction entièrement réalisées selon notre modèle de travail.
- Disicipline
- Sciences du langage
- Date
- Soutenue le 02/01/2004
- Sous la direction de
- Henri Zinglé
- Danielle Dubroca
- Organisme
- Nice
- Salamanca

- Auteur
- Loïc Vial
- Résumé
- Lire le résumé
- La désambiguïsation lexicale (DL) et la traduction automatique (TA) sont deux tâches centrales parmi les plus anciennes du traitement automatique des langues (TAL). Bien qu'ayant une origine commune, la DL ayant été conçue initialement comme un problème fondamental à résoudre pour la TA, les deux tâches ont par la suite évolué très indépendamment. En effet, d'un côté, la TA a su s'affranchir d'une désambiguïsation explicite des termes grâce à des modèles statistiques et neuronaux entraînés sur de grandes quantités de corpus parallèles, et de l'autre, la DL, qui est confrontée à certaines limitations comme le manque de ressources unifiées et un champs d'application encore restreint, reste un défi majeur pour permettre une meilleure compréhension de la langue en général.Aujourd'hui, dans un contexte où les méthodes à base de réseaux de neurones et les représentations vectorielles des mots prennent de plus en plus d'ampleur dans la recherche en TAL, les nouvelles architectures neuronales et les nouveaux modèles de langue pré-entraînés offrent non seulement de nouvelles possibilités pour développer des systèmes de DL et de TA plus performants, mais aussi une opportunité de réunir les deux tâches à travers des modèles neuronaux joints, permettant de faciliter l'étude de leurs interactions.Dans cette thèse, nos contributions porteront dans un premier temps sur l'amélioration des systèmes de DL, par l'unification des données nécessaires à leur mise en oeuvre, la conception de nouvelles architectures neuronales et le développement d'approches originales pour l'amélioration de la couverture et des performances de ces systèmes. Ensuite, nous développerons et comparerons différentes approches pour l'intégration de nos systèmes de DL état de l'art et des modèles de langue, dans des systèmes de TA, pour l'amélioration générale de leur performance. Enfin, nous présenterons une nouvelle architecture pour l'apprentissage d'un modèle neuronal joint pour la DL et la TA, s'appuyant sur nos meilleurs systèmes neuronaux pour l'une et l'autre tâche.
- Disicipline
- Informatique
- Date
- Soutenue le 21/07/2020
- Sous la direction de
- Benjamin Lecouteux
- Organisme
- Université Grenoble Alpes
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)

2020GRALM012
Une alternative aux modèles neuronaux séquence-à-séquence pour la traduction automatique
- Auteur
- Maha Elbayad
- Résumé
- Lire le résumé
- L'apprentissage profond a permis des avancées significatives dans le domaine de la traduction automatique.La traduction automatique neuronale (NMT) s'appuie sur l'entrainement de réseaux de neurones avec un grand nombre de paramètres sur une grand quantité de données parallèles pour apprendre à traduire d'une langue à une autre.Un facteur primordial dans le succès des systèmes NMT est la capacité de concevoir des architectures puissantes et efficaces. Les systèmes de pointe sont des modèles encodeur-décodeurs qui, d'abord, encodent une séquence source sous forme de vecteurs de caractéristiques, puis décodent de façon conditionne la séquence cible.Dans cette thèse, nous remettons en question le paradigme encodeur-décodeur et préconisons de conjointement encoder la source et la cible afin que les deux séquences interagissent à des niveaux d'abstraction croissants. À cette fin, nous introduisons Pervasive Attention, un modèle basé sur des convolutions bidimensionnelles qui encodent conjointement les séquences source et cible avec des interactions qui sont omniprésentes dans le réseau neuronal.Pour améliorer l'efficacité des systèmes NMT, nous étudions la traduction automatique simultanée où la source est lue de manière incrémentielle et le décodeur est alimenté en contextes partiels afin que le modèle puisse alterner entre lecture et écriture. Nous améliorons les agents déterministes qui guident l'alternance lecture / écriture à travers un chemin de décodage rigide et introduisons de nouveaux agents dynamiques pour estimer un chemin de décodage adapté au cas-par-cas.Nous abordons également l'efficacité computationnelle des modèles NMT et affirmons qu'ajouter plus de couches à un réseau de neurones n'est pas requis pour tous les cas.Nous concevons des décodeurs Transformer qui peuvent émettre des prédictions à tout moment dotés de mécanismes d'arrêt adaptatifs pour allouer des ressources en fonction de la complexité de l'instance.
- Disicipline
- Mathématiques et informatique
- Date
- Soutenue le 23/06/2020
- Sous la direction de
- Laurent Besacier
- Jakob Verbeek
- Organisme
- Université Grenoble Alpes
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)
