Affiner les résultats
- Nice8
- Université Grenoble Alpes[remove]3
- Université Grenoble Alpes (ComUE)2
- Grenoble1
- Salamanca[remove]1
- Besacier Laurent3
- Gianninoto Mariarosaria2
- Novakova Iva2
- Bouattour Mohamed1
- Brissaud Catherine1
- Chevrot Jean-Pierre[remove]1
- Dubroca Danielle1
- Jacques Marie-Paule1
- Lebarbé Thomas1
- Lecouteux Benjamin[remove]1
- Tutin Agnès1
- Verbeek Jakob[remove]1
- Villavicencio Aline1
- Zinglé Henri[remove]1
Search
Votre recherche :
Statut Soutenue Retirer
Établissements Grenoble Alpes Retirer
Établissements Salamanca Retirer
Établissements Université Grenoble Alpes Retirer
Directeurs de thèse Bellynck Valérie Retirer
Directeurs de thèse Zinglé Henri Retirer
Directeurs de thèse Verbeek Jakob Retirer
Directeurs de thèse Lecouteux Benjamin Retirer
Directeurs de thèse Chevrot Jean-Pierre Retirer
1 - 4 sur 4
Nombre de résultats par page
- Auteur
- Christian Vicente-Garcia
- Résumé
- Lire le résumé
- Ce travail de thèse traite de la systématisation d'une lexicologie orientée vers les besoins des traducteurs et des apprentis traducteurs (LST) et de son application à un domaine concret : la langue spécialisée du commerce électronique en français et en espagnol. Il veut être une contribution à la construction d'une théorie formalisée du courant de traduction des études terminologiques et à l'exploration des fondements d'une telle théorie, ainsi qu'une réflexion linguistique globale sur les langues spécialisées et leur traduction. Nous définissons et traitons un certain nombre de problèmes de traduction qui ont souvent été exclus des théories terminologique et lexicologique classiques, pour ensuite construire une théorie explicative pour ces faits. La méthodologie présentée est appliquée à une base de données du domaine du commerce électronique, à partir de laquelle nous donnons un échantillon de cinquante fiches de traduction entièrement réalisées selon notre modèle de travail.
- Disicipline
- Sciences du langage
- Date
- Soutenue le 02/01/2004
- Sous la direction de
- Henri Zinglé
- Danielle Dubroca
- Organisme
- Nice
- Salamanca

- Auteur
- William Havard
- Résumé
- Lire le résumé
- Ces dernières années, les méthodes d'apprentissage profond ont permis de créer des modèles neuronaux capables de traiter plusieurs modalités à la fois. Les modèles neuronaux de traitement de la Parole Visuellement Contextualisée (PVC) sont des modèles de ce type, capables de traiter conjointement une entrée vocale et une entrée visuelle correspondante. Ils sont couramment utilisés pour résoudre une tâche de recherche d'image à partir d'une requête vocale: c'est-à-dire qu'à partir d'une description orale, ils sont entraînés à retrouver l'image correspondant à la description orale passée en entrée. Ces modèles ont suscité l'intérêt des linguistes et des chercheurs en sciences cognitives car ils sont capables de modéliser des interactions complexes entre deux modalités --- la parole et la vision --- et peuvent être utilisés pour simuler l'acquisition du langage chez l'enfant, et plus particulièrement l'acquisition lexicale.Dans cette thèse, nous étudions un modèle récurrent de PVC et analysons les connaissances linguistiques que de tels modèles sont capables d'inférer comme sous-produit de la tâche principale pour laquelle ils sont entraînés. Nous introduisons un nouveau jeu de données qui convient à l'entraînement des modèles de PVC. Contrairement à la plupart des jeux de données qui sont en anglais, ce jeu de données est en japonais, ce qui permet d'étudier l'impact de la langue d'entrée sur les représentations apprises par les modèles neuronaux.Nous nous concentrons ensuite sur l'analyse des mécanismes d'attention de deux modèles de PVC, l'un entrainé sur le jeu de données en anglais, l'autre sur le jeu de données en japonais, et montrons que les modèles ont développé un comportement général, valable quelle que soit la langue utilisée, en utilisant leur poids d'attention pour se focaliser sur des noms spécifiques dans la chaîne parlée. Nos expériences révèlent que ces modèles sont également capables d'adopter un comportement spécifique à la langue en prenant en compte les particularités de la langue d'entrée afin de mieux résoudre la tâche qui leur est donnée.Nous étudions ensuite si les modèles de PVC sont capables d'associer des mots isolés à leurs référents visuels. Cela nous permet d'examiner si le modèle a implicitement segmenté l'entrée parlée en sous-unités. Nous étudions ensuite comment les mots isolés sont stockés dans les poids des réseaux en empruntant une méthodologie issue de la linguistique, le paradigme de gating, et nous montrons que la partie initiale du mot joue un rôle majeur pour une activation réussie.Enfin, nous présentons une méthode simple pour introduire des informations sur les frontières des segments dans un modèle neuronal de traitement de la parole. Cela nous permet de tester si la segmentation implicite qui a lieu dans le réseau est aussi efficace qu'une segmentation explicite. Nous étudions plusieurs types de frontières, allant des frontières de phones aux frontières de mots, et nous montrons que ces dernières donnent les meilleurs résultats. Nous observons que donner au réseau plusieurs frontières en même temps est bénéfique. Cela permet au réseau de prendre en compte la nature hiérarchique de l'entrée linguistique.
- Disicipline
- Sciences du langage Spécialité Informatique et sciences du langage
- Date
- Soutenue le 06/07/2021
- Sous la direction de
- Jean-Pierre Chevrot
- Laurent Besacier
- Organisme
- Université Grenoble Alpes
- École doctorale langues, littératures et sciences humaines (Grenoble)

- Auteur
- Loïc Vial
- Résumé
- Lire le résumé
- La désambiguïsation lexicale (DL) et la traduction automatique (TA) sont deux tâches centrales parmi les plus anciennes du traitement automatique des langues (TAL). Bien qu'ayant une origine commune, la DL ayant été conçue initialement comme un problème fondamental à résoudre pour la TA, les deux tâches ont par la suite évolué très indépendamment. En effet, d'un côté, la TA a su s'affranchir d'une désambiguïsation explicite des termes grâce à des modèles statistiques et neuronaux entraînés sur de grandes quantités de corpus parallèles, et de l'autre, la DL, qui est confrontée à certaines limitations comme le manque de ressources unifiées et un champs d'application encore restreint, reste un défi majeur pour permettre une meilleure compréhension de la langue en général.Aujourd'hui, dans un contexte où les méthodes à base de réseaux de neurones et les représentations vectorielles des mots prennent de plus en plus d'ampleur dans la recherche en TAL, les nouvelles architectures neuronales et les nouveaux modèles de langue pré-entraînés offrent non seulement de nouvelles possibilités pour développer des systèmes de DL et de TA plus performants, mais aussi une opportunité de réunir les deux tâches à travers des modèles neuronaux joints, permettant de faciliter l'étude de leurs interactions.Dans cette thèse, nos contributions porteront dans un premier temps sur l'amélioration des systèmes de DL, par l'unification des données nécessaires à leur mise en oeuvre, la conception de nouvelles architectures neuronales et le développement d'approches originales pour l'amélioration de la couverture et des performances de ces systèmes. Ensuite, nous développerons et comparerons différentes approches pour l'intégration de nos systèmes de DL état de l'art et des modèles de langue, dans des systèmes de TA, pour l'amélioration générale de leur performance. Enfin, nous présenterons une nouvelle architecture pour l'apprentissage d'un modèle neuronal joint pour la DL et la TA, s'appuyant sur nos meilleurs systèmes neuronaux pour l'une et l'autre tâche.
- Disicipline
- Informatique
- Date
- Soutenue le 21/07/2020
- Sous la direction de
- Benjamin Lecouteux
- Organisme
- Université Grenoble Alpes
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)

2020GRALM012
Une alternative aux modèles neuronaux séquence-à-séquence pour la traduction automatique
- Auteur
- Maha Elbayad
- Résumé
- Lire le résumé
- L'apprentissage profond a permis des avancées significatives dans le domaine de la traduction automatique.La traduction automatique neuronale (NMT) s'appuie sur l'entrainement de réseaux de neurones avec un grand nombre de paramètres sur une grand quantité de données parallèles pour apprendre à traduire d'une langue à une autre.Un facteur primordial dans le succès des systèmes NMT est la capacité de concevoir des architectures puissantes et efficaces. Les systèmes de pointe sont des modèles encodeur-décodeurs qui, d'abord, encodent une séquence source sous forme de vecteurs de caractéristiques, puis décodent de façon conditionne la séquence cible.Dans cette thèse, nous remettons en question le paradigme encodeur-décodeur et préconisons de conjointement encoder la source et la cible afin que les deux séquences interagissent à des niveaux d'abstraction croissants. À cette fin, nous introduisons Pervasive Attention, un modèle basé sur des convolutions bidimensionnelles qui encodent conjointement les séquences source et cible avec des interactions qui sont omniprésentes dans le réseau neuronal.Pour améliorer l'efficacité des systèmes NMT, nous étudions la traduction automatique simultanée où la source est lue de manière incrémentielle et le décodeur est alimenté en contextes partiels afin que le modèle puisse alterner entre lecture et écriture. Nous améliorons les agents déterministes qui guident l'alternance lecture / écriture à travers un chemin de décodage rigide et introduisons de nouveaux agents dynamiques pour estimer un chemin de décodage adapté au cas-par-cas.Nous abordons également l'efficacité computationnelle des modèles NMT et affirmons qu'ajouter plus de couches à un réseau de neurones n'est pas requis pour tous les cas.Nous concevons des décodeurs Transformer qui peuvent émettre des prédictions à tout moment dotés de mécanismes d'arrêt adaptatifs pour allouer des ressources en fonction de la complexité de l'instance.
- Disicipline
- Mathématiques et informatique
- Date
- Soutenue le 23/06/2020
- Sous la direction de
- Laurent Besacier
- Jakob Verbeek
- Organisme
- Université Grenoble Alpes
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)
