Affiner les résultats
- Paris 3180
- 129
- Lyon58
- Paris 457
- Lyon 246
- Paris 11[remove]37
- Paris 1034
- Montpellier 332
- Paris 732
- Sorbonne Paris Cité32
- Paris 1331
- Paris, INALCO31
- Besançon27
- Sorbonne université27
- Toulouse 226
- Aix-Marseille 125
- Lille 325
- Caen23
- Paris 823
- Université Grenoble Alpes23
- Grenoble22
- Nice19
- Paris 619
- Toulouse 318
- Université de Lorraine18
- Grenoble 117
- Poitiers17
- Rennes 217
- Strasbourg17
- Université Grenoble Alpes (ComUE)17
- Artois16
- Nantes14
- Rouen14
- Lyon 113
- Lyon 313
- Bordeaux 312
- Bourgogne Franche-Comté12
- Le Mans12
- Paris, EHESS12
- Université Paris-Saclay (ComUE)12
- Limoges11
- Paris 511
- Paris, EPHE11
- Strasbourg 211
- Université de Paris (2019-....)11
- Aix-Marseille10
- Orléans10
- Tours10
- Grenoble 39
- Avignon8
- Informatique22
- Pharmacie2
- Sciences biologiques Sciences biologiques 2
- Biochimie structurale1
- Endocrinologie et interactions cellulaires1
- Endocrinologie et interactions cellulaires 1
- Physique1
- Sciences biologiques1
- Sciences biologiques 1
- Sciences du végétal1
- Sciences et techniques1
- Sciences naturelles1
- Terre, océan, espace1
- Électronique1
- Yvon François4
- Adda-Decker Martine2
- Alessandro Christophe d'2
- Devillers Laurence2
- Gauvain Jean-Luc2
- Kodratoff Yves2
- Vilnat Anne2
- Bassinot Franck1
- Bellik Yacine1
- Bonneau Hélène1
- Bonnemay Alain1
- Braffort Annelies1
- Dubois Catherine1
- Gadal Pierre1
- Gourdji Danielle1
- Graille Marc1
- Grau Brigitte1
- Kean Katherine1
- Mariani Joseph1
- Martin Jean-Claude1
- Max Aurélien1
- Mirande Marc1
- Mireau Hakim1
- Negrutskii Boris1
- Pende Mario1
- Pernodet Jean-Luc1
- Picard Marguerite1
- Poncet Didier1
- Rosset Sophie1
- Rousset Jean-Pierre1
- Rousset Marie-Christine1
- Sansonnet Jean-Paul1
- Schwenk Holger1
- Sebag Michèle1
- Tran Do Dat1
- Weiser Jaroslav1
- Westbrook Nathalie1
- Zweigenbaum Pierre1
Search
1 - 10 sur 37
| Suivant »
Nombre de résultats par page
- Auteur
- Thi Thu Trang Nguyen
- Résumé
- Lire le résumé
- L’objectif de cette thèse est de concevoir et de construire, un système Text-To-Speech (TTS) haute qualité à base de HMM (Hidden Markov Model) pour le vietnamien, une langue tonale. Le système est appelé VTED (Vietnamese TExt-to-speech Development system). Au vu de la grande importance de tons lexicaux, un tonophone” – un allophones dans un contexte tonal – a été proposé comme nouvelle unité de la parole dans notre système de TTS. Un nouveau corpus d’entraînement, VDTS (Vietnamese Di-Tonophone Speech corpus), a été conçu à partir d’un grand texte brut pour une couverture de 100% de di-phones tonalisés (di-tonophones) en utilisant l’algorithme glouton. Un total d’environ 4000 phrases ont été enregistrées et pré-traitées comme corpus d’apprentissage de VTED.Dans la synthèse de la parole sur la base de HMM, bien que la durée de pause puisse être modélisée comme un phonème, l’apparition de pauses ne peut pas être prédite par HMM. Les niveaux de phrasé ne peuvent pas être complètement modélisés avec des caractéristiques de base. Cette recherche vise à obtenir un découpage automatique en groupes intonatifs au moyen des seuls indices de durée. Des blocs syntaxiques constitués de phrases syntaxiques avec un nombre borné de syllabes (n), ont été proposés pour prévoir allongement final (n = 6) et pause apparente (n = 10). Des améliorations pour allongement final ont été effectuées par des stratégies de regroupement des blocs syntaxiques simples. La qualité du modèle prédictive J48-arbre-décision pour l’apparence de pause à l’aide de blocs syntaxiques, combinée avec lien syntaxique et POS (Part-Of-Speech) dispose atteint un F-score de 81,4 % (Précision = 87,6 %, Recall = 75,9 %), beaucoup mieux que le modèle avec seulement POS (F-score=43,6%) ou un lien syntaxique (F-score=52,6%).L’architecture du système a été proposée sur la base de l’architecture HTS avec une extension d’une partie traitement du langage naturel pour le Vietnamien. L’apparence de pause a été prédit par le modèle proposé. Les caractéristiques contextuelles incluent les caractéristiques d’identité de “tonophones”, les caractéristiques de localisation, les caractéristiques liées à la tonalité, et les caractéristiques prosodiques (POS, allongement final, niveaux de rupture). Mary TTS a été choisi comme plateforme pour la mise en oeuvre de VTED. Dans le test MOS (Mean Opinion Score), le premier VTED, appris avec les anciens corpus et des fonctions de base, était plutôt bonne, 0,81 (sur une échelle MOS 5 points) plus élevé que le précédent système – HoaSung (lequel utilise la sélection de l’unité non-uniforme avec le même corpus) ; mais toujours 1,2-1,5 point de moins que le discours naturel. La qualité finale de VTED, avec le nouveau corpus et le modèle de phrasé prosodique, progresse d’environ 1,04 par rapport au premier VTED, et son écart avec le langage naturel a été nettement réduit. Dans le test d’intelligibilité, le VTED final a reçu un bon taux élevé de 95,4%, seulement 2,6% de moins que le discours naturel, et 18% plus élevé que le premier. Le taux d’erreur du premier VTED dans le test d’intelligibilité générale avec le carré latin test d’environ 6-12% plus élevé que le langage naturel selon des niveaux de syllabe, de ton ou par phonème. Le résultat final ne s’écarte de la parole naturelle que de 0,4-1,4%.
- Disicipline
- Informatique
- Date
- Soutenue le 25/09/2015
- Sous la direction de
- Christophe d' Alessandro
- Do Dat Tran
- Organisme
- Paris 11
- Institut Polytechnique (Hanoï)
- Ecole doctorale Informatique de Paris-Sud

- Auteur
- Li Gong
- Résumé
- Lire le résumé
- La traduction automatique statistique produit des résultats qui en font un choix privilégié dans la plupart des scénarios de traduction assistée par ordinateur.Cependant, le développement de ces systèmes de haute performance implique des traitements très coûteux sur des données à grande échelle. De nouvelles données sont continuellement disponibles,alors que les systèmes construits de manière standard sont statiques, ce qui rend l'utilisation de nouvelles données couteuse car les systèmes sont typiquement reconstruits en intégralité.En outre, le processus d'adaptation des systèmes de traduction est généralement fondé sur un corpus de développement et est effectué une fois pour toutes. Dans cette thèse, nous proposons un cadre informatique pour répondre à ces trois problèmes conjointement. Ce cadre permet de développer des systèmes de traduction à la demande avec des mises à jour incrémentales et permet d’adapter les systèmes construits à chaque nouveau texte à traduire.La première contribution importante de cette thèse concerne une nouvelle méthode d'alignement sous-phrastique qui peut aligner des paires de phrases en isolation. Cette propriété permet aux systèmes de traduction de calculer des informations à la demande afin d'intégrer de façon transparente de nouvelles données disponibles sans re-entraînement complet des systèmes.La deuxième contribution importante de cette thèse est de proposer l'intégration de stratégies d'échantillonnage contextuel pour sélectionner des exemples de traduction à partir de corpus à grande échelle sur la base de leur similarité avec le texte à traduire afin d obtenir des tables de traduction adaptées
- Disicipline
- Informatique
- Date
- Soutenue le 26/11/2014
- Sous la direction de
- François Yvon
- Aurélien Max
- Organisme
- Paris 11
- Ecole doctorale Informatique de Paris-Sud

2014PA112116
Des spécifications en langage naturel aux spécifications formelles via une ontologie comme modèle pivot
- Auteur
- Driss Sadoun
- Résumé
- Lire le résumé
- Le développement d'un système a pour objectif de répondre à des exigences. Aussi, le succès de sa réalisation repose en grande partie sur la phase de spécification des exigences qui a pour vocation de décrire de manière précise et non ambiguë toutes les caractéristiques du système à développer.Les spécifications d'exigences sont le résultat d'une analyse des besoins faisant intervenir différentes parties. Elles sont généralement rédigées en langage naturel (LN) pour une plus large compréhension, ce qui peut mener à diverses interprétations, car les textes en LN peuvent contenir des ambiguïtés sémantiques ou des informations implicites. Il n'est donc pas aisé de spécifier un ensemble complet et cohérent d'exigences. D'où la nécessité d'une vérification formelle des spécifications résultats.Les spécifications LN ne sont pas considérées comme formelles et ne permettent pas l'application directe de méthodes vérification formelles.Ce constat mène à la nécessité de transformer les spécifications LN en spécifications formelles.C'est dans ce contexte que s'inscrit cette thèse.La difficulté principale d'une telle transformation réside dans l'ampleur du fossé entre spécifications LN et spécifications formelles.L'objectif de mon travail de thèse est de proposer une approche permettant de vérifier automatiquement des spécifications d'exigences utilisateur, écrites en langage naturel et décrivant le comportement d'un système.Pour cela, nous avons exploré les possibilités offertes par un modèle de représentation fondé sur un formalisme logique.Nos contributions portent essentiellement sur trois propositions :1) une ontologie en OWL-DL fondée sur les logiques de description, comme modèle de représentation pivot permettant de faire le lien entre spécifications en langage naturel et spécifications formelles; 2) une approche d'instanciation du modèle de représentation pivot, fondée sur une analyse dirigée par la sémantique de l'ontologie, permettant de passer automatiquement des spécifications en langage naturel à leur représentation conceptuelle; et 3) une approche exploitant le formalisme logique de l'ontologie, pour permettre un passage automatique du modèle de représentation pivot vers un langage de spécifications formelles nommé Maude.
- Disicipline
- Informatique
- Date
- Soutenue le 18/06/2014
- Sous la direction de
- Brigitte Grau
- Catherine Dubois
- Organisme
- Paris 11
- Ecole doctorale Informatique de Paris-Sud

2014PA112032
Constitution de ressources linguistiques multilingues à partir de corpus de textes parallèles et comparables
- Auteur
- Dhouha Bouamor
- Résumé
- Lire le résumé
- Les lexiques bilingues sont des ressources particulièrement utiles pour la Traduction Automatique et la Recherche d’Information Translingue. Leur construction manuelle nécessite une expertise forte dans les deux langues concernées et est un processus coûteux. Plusieurs méthodes automatiques ont été proposées comme une alternative, mais elles qui ne sont disponibles que dans un nombre limité de langues et leurs performances sont encore loin derrière la qualité des traductions manuelles.Notre travail porte sur l'extraction de ces lexiques bilingues à partir de corpus de textes parallèles et comparables, c'est à dire la reconnaissance et l'alignement d'un vocabulaire commun multilingue présent dans ces corpus.
- Disicipline
- Informatique
- Date
- Soutenue le 22/02/2014
- Sous la direction de
- Pierre Zweigenbaum
- Organisme
- Paris 11
- Ecole doctorale Informatique de Paris-Sud

- Auteur
- Clément Chastagnol
- Résumé
- Lire le résumé
- La majorité des systèmes de reconnaissance d'états affectifs est entrainée sur des données artificielles hors contexte applicatif et les évaluations sont effectuées sur des données pré-enregistrées de même qualité. Cette thèse porte sur les différents défis résultant de la confrontation de ces systèmes à des situations et des utilisateurs réels.Pour disposer de données émotionnelles spontanées au plus proche de la réalité, un système de collecte simulant une interaction naturelle et mettant en oeuvre un agent virtuel expressif a été développé. Il a été mis en oeuvre pour recueillir deux corpus émotionnels, avec la participation de près de 80 patients de centres médicaux de la région de Montpellier, dans le cadre du projet ANR ARMEN.Ces données ont été utilisées dans l'exploration d'approches pour la résolution du problème de la généralisation des performances des systèmes de détection des émotions à d'autres données. Dans cette optique, une grande partie des travaux menés a porté sur des stratégies cross-corpus ainsi que la sélection automatique des meilleurs paramètres. Un algorithme hybride combinant des techniques de sélection flottante avec des métriques de similitudes et des heuristiques multi-échelles a été proposé et appliqué notamment dans le cadre d'un challenge (InterSpeech 2012). Les résultats de l'application de cet algorithme offrent des pistes pour différencier des corpus émotionnels à partir des paramètres les plus pertinents pour les représenter.Un prototype du système de dialogue complet, incluant le module de détection des émotions et l'agent virtuel a également été implémenté.
- Disicipline
- Informatique
- Date
- Soutenue le 05/10/2013
- Sous la direction de
- Laurence Devillers
- Organisme
- Paris 11
- Ecole doctorale Informatique de Paris-Sud

- Auteur
- Souhir Gahbiche-Braham
- Résumé
- Lire le résumé
- La traduction automatique des documents est considérée comme l’une des tâches les plus difficiles en traitement automatique des langues et de la parole. Les particularités linguistiques de certaines langues, comme la langue arabe, rendent la tâche de traduction automatique plus difficile. Notre objectif dans cette thèse est d'améliorer les systèmes de traduction de l'arabe vers le français et vers l'anglais. Nous proposons donc une étude détaillée sur ces systèmes. Les principales recherches portent à la fois sur la construction de corpus parallèles, le prétraitement de l'arabe et sur l'adaptation des modèles de traduction et de langue.Tout d'abord, un corpus comparable journalistique a été exploré pour en extraire automatiquement un corpus parallèle. Ensuite, différentes approches d’adaptation du modèle de traduction sont exploitées, soit en utilisant le corpus parallèle extrait automatiquement soit en utilisant un corpus parallèle construit automatiquement.Nous démontrons que l'adaptation des données du système de traduction permet d'améliorer la traduction. Un texte en arabe doit être prétraité avant de le traduire et ceci à cause du caractère agglutinatif de la langue arabe. Nous présentons notre outil de segmentation de l'arabe, SAPA (Segmentor and Part-of-speech tagger for Arabic), indépendant de toute ressource externe et permettant de réduire les temps de calcul. Cet outil permet de prédire simultanément l’étiquette morpho-syntaxique ainsi que les proclitiques (conjonctions, prépositions, etc.) pour chaque mot, ensuite de séparer les proclitiques du lemme (ou mot de base). Nous décrivons également dans cette thèse notre outil de détection des entités nommées, NERAr (Named Entity Recognition for Arabic), et nous examions l'impact de l'intégration de la détection des entités nommées dans la tâche de prétraitement et la pré-traduction de ces entités nommées en utilisant des dictionnaires bilingues. Nous présentons par la suite plusieurs méthodes pour l'adaptation thématique des modèles de traduction et de langue expérimentées sur une application réelle contenant un corpus constitué d’un ensemble de phrases multicatégoriques.Ces expériences ouvrent des perspectives importantes de recherche comme par exemple la combinaison de plusieurs systèmes lors de la traduction pour l'adaptation thématique. Il serait également intéressant d'effectuer une adaptation temporelle des modèles de traduction et de langue. Finalement, les systèmes de traduction améliorés arabe-français et arabe-anglais sont intégrés dans une plateforme d'analyse multimédia et montrent une amélioration des performances par rapport aux systèmes de traduction de base.
- Disicipline
- Informatique
- Date
- Soutenue le 01/10/2013
- Sous la direction de
- François Yvon
- Hélène Bonneau
- Organisme
- Paris 11
- Ecole doctorale Informatique de Paris-Sud

2013PA114826
Etude structurale et fonctionnelle de protéines impliquées dans la dégradation des ARNm aberrants
- Auteur
- Zeineb Fourati-Kammoun (Fourati)
- Résumé
- Lire le résumé
- La traduction des ARNm en protéine est un processus finement régulé grâce aux mécanismes développés par la cellule pour en contrôler l’efficacité et la fidélité. En effet, les ARNm sont sujets à diverses erreurs au cours de leur transcription et leur maturation. En particuliers, les erreurs entrainant l’apparition de codons stop précoces peuvent conduire à la synthèse de protéines tronquées à effet néfaste sur la cellule. C’est pour cela que de tels ARNm sont rapidement dégradés grâce à un mécanisme régulateur appelé la NMD (Nonsence mediated mRNA Decay). Chez la levure Saccharomyces cerevisiae, cette voie est régie par l’action coordonnée des protéines Upf1, Upf2 et Upf3 formant le complexe de surveillance, mais elle fait également intervenir les facteurs de terminaison classique eRF1 et eRF3, ainsi que d’autres facteurs peu caractérisés tels que la protéine Ebs1. Par ailleurs, la dégradation de ces ARNm défectueux est accélérée par la dégradation rapide de la coiffe ou « decapping ». Au cours de ce travail, nous avons caractérisé des domaines fonctionnels de protéines impliquées dans la détection et la dégradation de ces ARNm. En particuliers, nous nous sommes intéressés à l’étude structurale de la protéine Upf2 qui constitue l’élément central du complexe de surveillance. Nous avons également caractérisé un domaine de la protéine Pat1, puissant activateur du « decapping ». Cette étude nous a permis de mieux comprendre le rôle de ces protéines dans le contrôle qualité et la dégradation des ARNm.
- Disicipline
- Biochimie structurale
- Date
- Soutenue le 27/09/2013
- Sous la direction de
- Marc Graille
- Organisme
- Paris 11
- Ecole doctorale Innovation Thérapeutique : du Fondamental à l'Appliqué (Châtenay-Malabry, Haut-de-Seine ; 2000-2015)

- Auteur
- David Doukhan
- Résumé
- Lire le résumé
- L'objectif de la thèse est de proposer des méthodes permettant d'améliorer l'expressivité des systèmes de synthèse de la parole. Une des propositions centrales de ce travail est de définir, utiliser et mesurer l'impact de structures linguistiques opérant au delà du niveau de la phrase, par opposition aux approches opérant sur des phrases isolées de leur contexte. Le cadre de l'étude est restreint au cas de la lecture de contes pour enfants. Les contes ont la particularité d'avoir été l'objet d'un certain nombre d'études visant à en dégager une structure narrative et de faire intervenir une certain nombre de stéréotypes de personnages (héros, méchant, fée) dont le discours est souvent rapporté. Ces caractéristiques particulières sont exploitées pour modéliser les propriétés prosodiques des contes au delà du niveau de la phrase. La transmission orale des contes a souvent été associée à une pratique musicale (chants, instruments) et leur lecture reste associée à des propriétés mélodiques très riches, dont la reproduction reste un défi pour les synthétiseurs de parole modernes. Pour répondre à ces problématiques, un premier corpus de contes écrits est collecté et annoté avec des informations relatives à la structure narrative des contes, l'identification et l'attribution des citations directes, le référencement des mentions des personnages ainsi que des entités nommées et des énumérations étendues. Le corpus analysé est décrit en terme de couverture et d'accord inter-annotateurs. Il est utilisé pour modéliser des systèmes de segmentation des contes en épisode, de détection des citations directes, des actes de dialogue et des modes de communication. Un deuxième corpus de contes lus par un locuteur professionnel est présenté. La parole est alignée avec les transcriptions lexicale et phonétique, les annotations du corpus texte et des méta-informations décrivant les caractéristiques des personnages intervenant dans le conte. Les relations entre les annotations linguistiques et les propriétés prosodiques observées dans le corpus de parole sont décrites et modélisées. Finalement, un prototype de contrôle des paramètres expressifs du synthétiseur par sélection d'unités Acapela est réalisé. Le prototype génère des instructions prosodiques opérant au delà du niveau de la phrase, notamment en utilisant les informations liées à la structure du conte et à la distinction entre discours direct et discours rapporté. La validation du prototype de contrôle est réalisée dans le cadre d'une expérience perceptive, qui montre une amélioration significative de la qualité de la synthèse.
- Disicipline
- Informatique
- Date
- Soutenue le 21/09/2013
- Sous la direction de
- Christophe d' Alessandro
- Organisme
- Paris 11
- Ecole doctorale Informatique de Paris-Sud

- Auteur
- Nawel Haili El Jaouhari
- Résumé
- Lire le résumé
- L’expression des gènes mitochondriaux est grande partie dirigée par des protéines codées dans le noyau et importées dans l’organite depuis le cytosol. Diverses études ont montré que les protéines de la famille PentatricoPeptide Repeat (PPR) jouent un rôle prépondérant et varié dans ce phénomène. Au cours de ma thèse, j’ai déterminé la fonction de deux nouvelles protéines PPR chez Arabidopsis thaliana, nommées MTSF1 (pour Mitochondrial Stability Factor 1) et PPR24. Chacune de ces protéines est impliquée dans l’expression d’un ARNm mitochondrial codant une sous-unité du complexe I de la chaine respiratoire. J’ai montré que la protéine MTSF1 était requise pour stabiliser l’ARN mitochondrial nad4. Le site de liaison de MTSF1 a été déterminé et il correspond aux vingt derniers nucléotides de l’ARN nad4. Nous pensons donc qu’en s’associant à l’extrémité 3’ terminale de cet ARN, la protéine MTSF1 bloque la progression d’exoribonucléases 3’-5’ et stabilise ainsi l’ARN nad4 in vivo. L’étude de la protéine PPR24 nous a conduit à observer qu’elle était essentielle à la traduction de l’ARNm mitochondrial nad7. J’ai pu démontrer que la protéine NAD7 n’était pas synthétisée chez les mutants ppr24 et que cela était associé à l’absence de ribosomes sur l’ARNm nad7. J’ai aussi montré que la protéine PPR24 pouvait se lier spécifiquement à une courte région située au milieu de la 5’ UTR de l’ARN nad7. La modélisation de la 5’ UTR de cet ARN indique que ce site de liaison se situerait à la base d’une structure en tige-boucle pouvant diminuer fortement l’accessibilité au codon initiateur de la traduction de l’ARN nad7. Il est donc possible que la fixation de la protéine PPR24 puisse déstabiliser cette structure en tige-boucle et permettre aux ribosomes mitochondriaux d’accéder plus facilement au codon AUG. L’ensemble de ces études a permis d’apporter des informations essentielles sur la fonction et le mode d’action des protéines PPR dans l’expression génétique mitochondriale chez les plantes.
- Disicipline
- Sciences du végétal
- Date
- Soutenue le 07/03/2013
- Sous la direction de
- Hakim Mireau
- Organisme
- Paris 11
- Ecole doctorale Sciences du Végétal (1992-2015 ; Orsay, Essonne)

- Auteur
- Hai Son Le
- Résumé
- Lire le résumé
- Les modèles de langage ont pour but de caractériser et d'évaluer la qualité des énoncés en langue naturelle. Leur rôle est fondamentale dans de nombreux cadres d'application comme la reconnaissance automatique de la parole, la traduction automatique, l'extraction et la recherche d'information. La modélisation actuellement état de l'art est la modélisation "historique" dite n-gramme associée à des techniques de lissage. Ce type de modèle prédit un mot uniquement en fonction des n-1 mots précédents. Pourtant, cette approche est loin d'être satisfaisante puisque chaque mot est traité comme un symbole discret qui n'a pas de relation avec les autres. Ainsi les spécificités du langage ne sont pas prises en compte explicitement et les propriétés morphologiques, sémantiques et syntaxiques des mots sont ignorées. De plus, à cause du caractère éparse des langues naturelles, l'ordre est limité à n=4 ou 5. Sa construction repose sur le dénombrement de successions de mots, effectué sur des données d'entrainement. Ce sont donc uniquement les textes d'apprentissage qui conditionnent la pertinence de la modélisation n-gramme, par leur quantité (plusieurs milliards de mots sont utilisés) et leur représentativité du contenu en terme de thématique, époque ou de genre. L'usage des modèles neuronaux ont récemment ouvert de nombreuses perspectives. Le principe de projection des mots dans un espace de représentation continu permet d'exploiter la notion de similarité entre les mots: les mots du contexte sont projetés dans un espace continu et l'estimation de la probabilité du mot suivant exploite alors la similarité entre ces vecteurs. Cette représentation continue confère aux modèles neuronaux une meilleure capacité de généralisation et leur utilisation a donné lieu à des améliorations significative en reconnaissance automatique de la parole et en traduction automatique. Pourtant, l'apprentissage et l'inférence des modèles de langue neuronaux à grand vocabulaire restent très couteux. Ainsi par le passé, les modèles neuronaux ont été utilisés soit pour des tâches avec peu de données d'apprentissage, soit avec un vocabulaire de mots à prédire limités en taille. La première contribution de cette thèse est donc de proposer une solution qui s’appuie sur la structuration de la couche de sortie sous forme d’un arbre de classification pour résoudre ce problème de complexité. Le modèle se nomme Structure OUtput Layer (SOUL) et allie une architecture neuronale avec les modèles de classes. Dans le cadre de la reconnaissance automatique de la parole et de la traduction automatique, ce nouveau type de modèle a permis d'obtenir des améliorations significatives des performances pour des systèmes à grande échelle et à état l'art. La deuxième contribution de cette thèse est d'analyser les représentations continues induites et de comparer ces modèles avec d'autres architectures comme les modèles récurrents. Enfin, la troisième contribution est d'explorer la capacité de la structure SOUL à modéliser le processus de traduction. Les résultats obtenus montrent que les modèles continus comme SOUL ouvrent des perspectives importantes de recherche en traduction automatique.
- Disicipline
- Informatique
- Date
- Soutenue le 21/12/2012
- Sous la direction de
- François Yvon
- Organisme
- Paris 11
- Ecole doctorale Informatique de Paris-Sud
