Affiner les résultats
- Lederer Marianne23
- Boitet Christian[remove]20
- Israël Fortunato17
- Cardey-Greenfield Sylviane16
- Durieux Christine16
- Yvon François14
- Hamzé Hassan13
- Depecker Loïc12
- Besacier Laurent11
- Dichy Joseph10
- Gile Daniel9
- Gautier Laurent8
- Humbley John8
- Lerat Pierre8
- Seleskovitch Danica8
- Zinglé Henri8
- Collombat Isabelle7
- Levet Jean-Pierre7
- Qasem Fayza El7
- Szende Tamás7
- Ballard Michel6
- Blanchon Hervé6
- Ladmiral Jean-René6
- Morin Emmanuel6
- Schwenk Holger6
- Tutin Agnès6
- Barrault Loïc5
- Cristinoi-Bursuc Antonia5
- Daille Béatrice5
- Danlos Laurence5
- Estève Yannick5
- Grass Thierry5
- Guillaume Jean-Patrick5
- Hassoun Mohamed5
- Ibrahim Amr Helmy5
- Kraif Olivier5
- Maniez François5
- Masson-Vincourt Marie-Paule5
- Mejri Salah5
- Paoli Bruno5
- Pergnier Maurice5
- Plassard Freddie5
- Roman André5
- Zweigenbaum Pierre5
- القاسم فايزة5
- Banoun Bernard4
- Bensimon Paul4
- Bosredon Bernard4
- Cavalla Cristelle4
- Chiaramella Yves4
Search
Votre recherche :
Directeurs de thèse Lachkar Abdenbi Retirer
Directeurs de thèse Boitet Christian Retirer
1 - 10 sur 24
| Suivant »
Nombre de résultats par page
- Auteur
- Marya-Initia Yammine
- Résumé
- Lire le résumé
- Langage, discours, cultures, médias, traduction et identité, six notions inextricablement liées constituent la pierre angulaire de notre recherche et guident notre réflexion qui admet que la langue n’est pas uniquement un système de sons et de signes, elle est plutôt un mode d’expression de la culture, et nous renvoie à notre identité, à l’altérité et à la collectivité.La présente étude se propose de faire une analyse lexico-discursive minutieuse et systématique de la manière dont les médias au Liban traitent les phénomènes migratoires surtout depuis la crise syrienne en 2011. En plus de se focaliser sur la valeur sémio-sémantique et lexico-grammaticale des mots désignant ou renvoyant aux migrants, elle tente de vérifier si le champ lexical du mot مهاجر (migrant) et ses variantes, dans ce contexte arabe, ressemble à celui des autres contextes non arabes, notamment français. Même si la traduction est une technique primordiale dans la compréhension du phénomène migratoire syrien depuis le début de la guerre en Syrie, nous avons opté pour la traduction en tant qu’interprétation et non en tant que technique. Cette étude tente aussi d’expliquer qu’une crise migrantoire constitue un phénomène socioculturel et géopolitique qu’il faut prendre en compte pour garantir une stabilité sociale dans les zones d’accueil.Il est à noter que cette thèse comprend deux volumes. Le premier volume s’intéresse à la partie théorique et pratique et le deuxième volume regroupe les données du corpus et les conditions de l’enquête de terrain.Le premier volume se consacre à l’étude des théories lexicales et énonciatives, spécifiquement celles qui traitent de la subjectivité du langage pour s’articuler ensuite sur la sémantique et la pragmatique. Elle prend comme support d’étude un corpus de presse écrite et numérique réunissant des articles de presse arabophones et francophones publiés au Liban entre 2013 et 2018. Après extraction des des occurrences, cooccurences, collocations et locutions portant sur le rapport réfugiés-migrants-déplacés, notre étude classe ces derniers puis les analyse en respactant l’ordre chronologique de leurs apparitions dans les discours politique et médiatiques libanais. Elle rend compte de l’ambiguïté, de l’opacité et de la confusion sémantiques marquant l’emploi du mot « migrant » et ses équivalents dans ces genres de discursifs. Notre étude se fonde donc sur l’analyse du discours, tout en s’inscrivant dans le cadre de la sémantique lexicale discursive et interprétative d’une part, et de la linguistique de corpus et de terrain, d’autre part. Elle compare les différentes catégorisations et représentations du mot « migrant » et ses resignifiants dans les discours politiques et médiatiques au Liban et en France. Les témoignages des « réfugiés » syriens au Liban que cette recherche expose permettent de comprendre le contexte géopolitique de la présence syrienne « bien justifiée » au Liban. Les résultats de l’analyse vont dans ce sens et démontrent la complexité du phénomène et son appréciation parodoxale par les sociétés d’accueil. Au début de la guerre, cet accueil était dominé par l’hospitalité des locaux mais qui s’est vite transformé en haine, colère, stigmatisation et criminalisation du migrant dans les discours identitaires, avec le temps.
- Disicipline
- Sciences du langage
- Date
- Soutenue le 01/12/2020
- Sous la direction de
- Abdenbi Lachkar
- Tanios Njeim
- Organisme
- Montpellier 3
- Université Saint-Esprit. Faculté de philosophie et des sciences humaines. Département des sciences de l'éducation (Kaslik, Liban)
- École doctorale 58, Langues, Littératures, Cultures, Civilisations

- Auteur
- Hani Aji
- Résumé
- Lire le résumé
- Ce travail vise à étudier les collocations à verbe support. Un phénomène qui a été introduit par Z. Harris (1964) et décrit par plusieurs chercheurs à la suite des travaux du laboratoire d’automatique documentaire et linguistique dirigés par M. Gross. L’un des principaux buts de ce travail est de savoir comment ces phénomènes sont construits et comment les modéliser et les anticiper. Il s’agira de donner les caractéristiques différenciant ce phénomène des autres constructions comme les locutions figées, en nous penchant sur sa charge sémantique considérée à tort comme vide de sens.Cette recherche est faite dans l’optique de créer un dictionnaire bilingue de verbes supports (arabe – français) (français – arabe). C’est en ce sens que cette recherche s’intéressera aussi à la traduction de ces verbes supports en arabe afin d’essayer de créer un nouveau type d’article dictionnairique spécialement conçu pour ces derniers. Pour créer cet article dictionnairique, nous chercherons à démontrer la possibilité de classer les noms prédicatifs et leurs verbes supports suivants des catégories. Les noms prédicatifs seront divisés suivant des catégories lexicales engendrées par une ontologie binaire construite avec quatre notions et dégageant onze catégories lexicales. Les verbes supports sont à leur tour divisés en catégories sémantiques de verbes supports « scénarios » suivants lesquelles ils sont classés et peuvent être anticipés. Ces scénarios répondront aux deux critères de la limitation en nombre de scénarios et de l’exhaustivité de l’application.
- Disicipline
- Lexicologie et terminologie multilingues
- Date
- Soutenue le 06/07/2019
- Sous la direction de
- Abdenbi Lachkar
- Organisme
- Lyon
- École doctorale Lettres, langues, linguistique, arts (Lyon)

- Auteur
- Aymene Zermane
- Résumé
- Lire le résumé
- L'objectif de ce travail de recherche est d’étudier la terminologie et la phraséologie multilingue (anglais, français, arabe) des textes de l’Organisation des Nations Unies sur le commerce électronique. Cette étude s’intéresse aux modes d’adaptation de la terminologie du commerce électronique dans la langue arabe. Dans la partie théorique, nous avons défini le domaine du commerce électronique, ses différents modèles et les différences et les liens qu’il a avec le business électronique et l’économie du savoir. L’objectif était d’établir l’arbre de domaine qui facilitera la compréhension de son système conceptuel. Par la suite, nous avons abordé les fondements et les théories de la terminologie et de la phraséologie, ainsi que les principes théoriques et pratiques de la linguistique de corpus. La finalité de cette étape était d’arriver à choisir la méthodologie d’analyse appliquée aux données recueillies du corpus de travail tiré du « Corpus Multilingue des Nations Unies ». Dans le volet pratique, nous avons analysé dans ce travail les problématiques suivantes: les modes de création lexicaux et sémantiques dont dispose la langue arabe pour adapter les nouveaux termes et les intégrer dans ses systèmes de nomination et de communication. Ensuite, nous avons procédé au traitement de la phraséologie et les différentes formes d’unités phraséologiques. À travers cette étude, nous avons attiré l’attention la question de la normalisation en terminologie. Dans une perspective d’enrichissement du contenu de la langue arabe sur le web, nous avons travaillé sur la localisation en arabe d’une ontologie d’une liste de termes du commerce électronique.
- Disicipline
- Lexicologie et terminologie multilingues
- Date
- Soutenue le 03/12/2017
- Sous la direction de
- Abdenbi Lachkar
- Organisme
- Lyon
- École doctorale Lettres, langues, linguistique, arts (Lyon)

- Auteur
- Ritesh Shah
- Résumé
- Lire le résumé
- Alors que Twitter évolue vers un outil omniprésent de diffusion de l'information, la compréhension des tweets en langues étrangères devient un problème important et difficile. En raison de la nature intrinsèquement à commutation de code, discrète et bruitée des tweets, la traduction automatique (MT) à l'état de l'art n'est pas une option viable (Farzindar & Inkpen, 2015). En effet, au moins pour le hindi et le japonais, nous observons que le pourcentage de tweets « compréhensibles » passe de 80% pour les locuteurs natifs à moins de 30% pour les lecteurs monolingues cible (anglais ou français) utilisant Google Translate. Notre hypothèse de départ est qu'il devrait être possible de créer des outils génériques, permettant aux étrangers de comprendre au moins 70% des « tweets locaux », en utilisant une interface polyvalente de « lecture active » (LA, AR en anglais) tout en déterminant simultanément le pourcentage de tweets compréhensibles en-dessous duquel un tel système serait jugé inutile par les utilisateurs prévus.Nous avons donc spécifié un « SUFT » (système d'aide à la compréhension des tweets étrangers) générique, et mis en œuvre SUFT-1, un système interactif à mise en page multiple basé sur la LA, et facilement configurable en ajoutant des dictionnaires, des modules morphologiques et des plugins de TA. Il est capable d'accéder à plusieurs dictionnaires pour chaque langue source et fournit une interface d'évaluation. Pour les évaluations, nous introduisons une mesure liée à la tâche induisant un coût négligeable, et une méthodologie visant à permettre une « évaluation continue sur des données ouvertes », par opposition aux mesures classiques basées sur des jeux de test liés à des ensembles d'apprentissage fermés. Nous proposons de combiner le taux de compréhensibilité et le temps de décision de compréhensibilité comme une mesure de qualité à deux volets, subjectif et objectif, et de vérifier expérimentalement qu'une présentation de type lecture active, basée sur un dictionnaire, peut effectivement aider à comprendre les tweets mieux que les systèmes de TA disponibles.En plus de rassembler diverses ressources lexicales, nous avons construit une grande ressource de "formes de mots" apparaissant dans les tweets indiens, avec leurs analyses morphologiques (à savoir 163221 formes de mots hindi dérivées de 68788 lemmes et 72312 formes de mots marathi dérivées de 6026 lemmes) pour créer un analyseur morphologique multilingue spécialisé pour les tweets, capable de gérer des tweets à commutation de code, de calculer des traits unifiés, et de présenter un tweet en lui attachant un graphe de LA à partir duquel des lecteurs étrangers peuvent extraire intuitivement une signification plausible, s'il y en a une.
- Disicipline
- Informatique
- Date
- Soutenue le 28/10/2017
- Sous la direction de
- Christian Boitet
- Pushpak Bhattacharyya
- Organisme
- Université Grenoble Alpes (ComUE)
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)

- Auteur
- Ying Zhang
- Résumé
- Lire le résumé
- Notre recherche se situe en lexicographie computationnelle, et concerne non seulement le support informatique aux ressources lexicales utiles pour la TA (traduction automatique) et la THAM (traduction humaine aidée par la machine), mais aussi l'architecture linguistique des bases lexicales supportant ces ressources, dans un contexte opérationnel (thèse CIFRE avec L&M).Nous commençons par une étude de l'évolution des idées, depuis l'informatisation des dictionnaires classiques jusqu'aux plates-formes de construction de vraies "bases lexicales" comme JIBIKI-1 [Mangeot, M. et al., 2003 ; Sérasset, G., 2004] et JIBIKI-2 [Zhang, Y. et al., 2014]. Le point de départ a été le système PIVAX-1 [Nguyen, H.-T. et al., 2007 ; Nguyen, H. T. & Boitet, C., 2009] de bases lexicales pour systèmes de TA hétérogènes à pivot lexical supportant plusieurs volumes par "espace lexical" naturel ou artificiel (UNL). En prenant en compte le contexte industriel, nous avons centré notre recherche sur certains problèmes, informatiques et lexicographiques.Pour passer à l'échelle, et pour profiter des nouvelles fonctionnalités permises par JIBIKI-2, dont les "liens riches", nous avons transformé PIVAX-1 en PIVAX-2, et réactivé le projet GBDLEX-UW++ commencé lors du projet ANR TRAOUIERO, en réimportant toutes les données (multilingues) supportées par PIVAX-1, et en les rendant disponibles sur un serveur ouvert.Partant d'un besoin de L&M concernant les acronymes, nous avons étendu la "macrostructure" de PIVAX en y intégrant des volumes de "prolexèmes", comme dans PROLEXBASE [Tran, M. & Maurel, D., 2006]. Nous montrons aussi comment l'étendre pour répondre à de nouveaux besoins, comme ceux du projet INNOVALANGUES. Enfin, nous avons créé un "intergiciel de lemmatisation", LEXTOH, qui permet d'appeler plusieurs analyseurs morphologiques ou lemmatiseurs, puis de fusionner et filtrer leurs résultats. Combiné à un nouvel outil de création de dictionnaires, CREATDICO, LEXTOH permet de construire à la volée un "mini-dictionnaire" correspondant à une phrase ou à un paragraphe d'un texte en cours de "post-édition" en ligne sous IMAG/SECTRA, ce qui réalise la fonctionnalité d'aide lexicale proactive prévue dans [Huynh, C.-P., 2010]. On pourra aussi l'utiliser pour créer des corpus parallèles "factorisés" pour construire des systèmes de TA en MOSES.
- Disicipline
- Informatique
- Date
- Soutenue le 29/06/2016
- Sous la direction de
- Christian Boitet
- Valérie Bellynck
- Mathieu Mangeot
- Organisme
- Université Grenoble Alpes (ComUE)
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)

- Auteur
- Lingxiao Wang
- Résumé
- Lire le résumé
- La thèse, effectuée dans le cadre d'une bourse CIFRE, et prolongeant un des aspects du projet ANR Traouiero, aborde d'abord la production, l'extension et l'amélioration de corpus multilingues par traduction automatique (TA) et post-édition contributive (PE). Des améliorations fonctionnelles et techniques ont été apportées aux logiciels SECTra et iMAG, et on a progressé vers une définition générique de la structure d'un corpus multilingue, multi-annoté et multimédia, pouvant contenir des documents classiques aussi bien que des pseudo-documents et des méta-segments. Cette partie a été validée par la création de bons corpus bilingues français-chinois, l'un d'eux résultant de la toute première application à la traduction littéraire.Une seconde partie, initialement motivée par un besoin industriel, a consisté à construire des systèmes de TA de type Moses, spécialisés à des sous-langages, en français↔chinois, et à étudier la façon de les améliorer dans le cadre d'un usage en continu avec possibilité de PE. Dans le cadre d'un projet interne sur le site du LIG et d'un projet (TABE-FC) en coopération avec l'université de Xiamen, on a pu démontrer l'intérêt de l'apprentissage incrémental en TA statistique, sous certaines conditions, grâce à une expérience qui s'est étalée sur toute la thèse.La troisième partie est consacrée à des contributions et mises à disposition de supports informatiques et de ressources. Les principales se placent dans le cadre du projet COST MUMIA de l'EU et résultent de l'exploitation de la collection CLEF-2011 de 1,5 M de brevets partiellement multilingues. De grosses mémoires de traductions en ont été extraites (17,5 M segments), 3 systèmes de TA en ont été tirés, et un site Web de support à la RI multilingue sur les brevets a été construit. On décrit aussi la réalisation en cours de JianDan-eval, une plate-forme de construction, déploiement et évaluation de systèmes de TA.
- Disicipline
- Informatique
- Date
- Soutenue le 15/12/2015
- Sous la direction de
- Christian Boitet
- Valérie Bellynck
- Organisme
- Université Grenoble Alpes (ComUE)
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)

- Auteur
- Carlos Eduardo Ramisch
- Résumé
- Lire le résumé
- Cette thèse présente un environnement ouvert et souple pour l'acquisition automatique d'expressions multimots (MWE) à partir de corpus textuels monolingues. Cette recherche est motivée par l'importance des MWE pour les applications du TALN. Après avoir brièvement présenté les modules de l'environnement, le mémoire présente des résultats d'évaluation intrinsèque en utilisant deux applications: la lexicographie assistée par ordinateur et la traduction automatique statistique. Ces deux applications peuvent bénéficier de l'acquisition automatique de MWE, et les expressions acquises automatiquement à partir de corpus peuvent à la fois les accélérer et améliorer leur qualité. Les résultats prometteurs de nos expériences nous encouragent à mener des recherches ultérieures sur la façon optimale d'intégrer le traitement des MWE dans ces applications et dans bien d'autres
- Disicipline
- Informatique
- Date
- Soutenue le 12/09/2012
- Sous la direction de
- Christian Boitet
- Aline Villavicencio
- Organisme
- Grenoble
- Universidade Federal do Rio Grande do Sul (Porto Alegre, Brésil)
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)

- Auteur
- Mohammad Daoud
- Résumé
- Lire le résumé
- Notre motivation est de combler le fossé terminologique qui grandit avec la production massive de nouveaux concepts (50 quotidiens) dans divers domaines, pour lesquels les termes sont souvent inventés d'abord dans une certaine langue bien dotée, telle que l'anglais ou le français. Trouver des termes équivalents dans différentes langues est nécessaire pour de nombreuses applications, telles que la RI translingue et la TA. Cette tâche est très difficile, particulièrement pour certaines langues très utilisées telles que l'arabe, parce que (1) seule une petite proportion de nouveaux termes est correctement enregistrée par des terminologues, et pour peu de langues ; (2) des communautés spécifiques créent continuellement des termes équivalents sans les normaliser ni même les enregistrer (terminologie latente) ; (3) dans de nombreux cas, aucuns termes équivalents ne sont créés, formellement ou informellement (absence de terminologie). Cette thèse propose de remplacer le but impossible de construire d'une manière continue une terminologie à jour, complète et de haute qualité pour un grand nombre de langues par celui de construire une preterminologie, en utilisant des méthodes non conventionnelles et des contributions passives ou actives par des communautés d'internautes : extraction de termes parallèles potentiels non seulement à partir de textes parallèles ou comparables, mais également à partir des logs (traces) des visites à des sites Web tels que DSR (Route de la Soie Digitale), et à partir de données produites par des jeux sérieux. Une préterminologie est un nouveau genre de ressource lexicale qui peut être facilement construit et a une bonne couverture. Suivant en ceci une tendance croissante en lexicographie computationnelle et en TALN en général, nous représentons une préterminologie multilingue par une structure de graphe (Multilingual Preterminological Graph, MPG), où les nœuds portent des prétermes et les arcs des relations préterminologiques simples (synonymie monolingue, traduction, généralisation, spécialisation, etc. ) qui sont des approximations des relations (terminologiques ou ontologiques) usuelles. Un Système complet pour Éliciter une Préterminologie (SEPT) a été développé pour construire et maintenir des MPG. Des approches passives ont été expérimentées en développant un MPG pour le site Web culturel de DSR, et un autre pour le domaine de l'onirologie arabe : les ressources produites ont atteint une bonne couverture informationnelle et linguistique. L'approche indirecte par contribution active est testée depuis 8-9 mois sur l'instance arabe du jeu sérieux JeuxDeMots.
- Disicipline
- Informatique
- Date
- Soutenue le 02/01/2010
- Sous la direction de
- Christian Boitet
- Kyō Kageura
- Mathieu Mangeot
- Organisme
- Grenoble
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)

- Auteur
- Amel Fraisse
- Résumé
- Lire le résumé
- Nous proposons une méthode novatrice pour permettre la localisation en contexte de la majorité des logiciels commerciaux et libres, ceux programmés en Java et en C++/C#. Actuellement, la traduction des documents techniques ainsi que celle des éléments d'interface des logiciels commerciaux est confiée uniquement à des professionnels, ce qui allonge le processus de traduction, le rend coûteux, et quelquefois aboutit à une mauvaise qualité car les traducteurs professionnels n'ont pas accès au contexte d'utilisation des éléments textuels. Dès que l'on sort du petit ensemble des quelques langues les mieux dotées, et que l'on veut localiser un logiciel pour des « langues peu dotées », ce processus n'est plus viable pour des raisons de coût et surtout de rareté, de cherté, ou d'absence de traducteurs professionnels. Notre méthode consiste à faire participer de façon efficace et dynamique les bêta- testeurs et les utilisateurs finals au processus de localisation: pendant qu'ils utilisent l'application, les utilisateurs connaissant la langue originale du logiciel (souvent mais pas toujours l'anglais) peuvent intervenir sur les éléments textuels d'interface que l'application leur présente dans leur contexte d'utilisation courant. Ils peuvent ainsi traduire en contexte les boutons, les menus, les étiquettes, les onglets, etc. , ou améliorer la traduction proposée par des systèmes de traduction automatique (TA) ou des mémoires de traductions (MT). Afin de mettre en place ce nouveau paradigme, nous avons besoin d'intervenir très localement sur le code source du logiciel: il s'agit donc aussi d'un paradigme de localisation interne. La mise en place d'une telle approche de localisation a nécessité l'intégration d'un gestionnaire de flot de traductions « SECTra - w ». Ainsi, nous avons un nouveau processus de localisation tripartite dont les trois parties sont l'utilisateur, l'éditeur du logiciel et le site collaboratif SECTra_w. Nous avons effectué une expérimentation complète du nouveau processus de localisation sur deux logiciels libres à code source ouvert: Notepad-plus-plus et Vuze.
- Disicipline
- Informatique
- Date
- Soutenue le 02/01/2010
- Sous la direction de
- Christian Boitet
- Organisme
- Grenoble
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)

- Auteur
- Muhammad Ghulam Abbas Malik
- Résumé
- Lire le résumé
- Étant données une langue source L1 et une langue cible L2, un segment (phrase ou titre) S de n mots écrit en L1 peut avoir un nombre exponentiel N=O(kn) de traductions valides T1. . . TN. Nous nous intéressons au cas où N est très faible en raison de la proximité des formes écrites de L1 et L2. Notre domaine d'investigation est la classe des paires de combinaisons de langue et de système d'écriture (Li-Wi, Lj-Wj) telles qu'il peut y avoir une seule traduction valide, ou un très petit nombre de traductions valides, pour tout segment S de Li écrit en Wi. Le problème de la traduction d'une phrase hindi/ourdou écrite en ourdou vers une phrase équivalente en devanagari tombe dans cette classe. Nous appelons le problème de la traduction pour une telle paire un problème faible de traduction. Nous avons conçu et expérimenté des méthodes de complexité croissante pour résoudre des instances de ce problème, depuis la transduction à états finis simple jusqu'à à la transformation de graphes de chaînes d'arbres syntaxiques partiels, avec ou sans l'inclusion de méthodes empiriques (essentiellement probabilistes). Cela conduit à l'identification de la difficulté de traduction d'une paire (Li-Wi, Lj-Wj) comme le degré de complexité des méthodes de traduction atteignant un objectif souhaité (par exemple, moins de 15% de taux d'erreur). Considérant la translittération ou la transcription comme un cas spécial de traduction, nous avons développé une méthode basée sur la définition d'une transcription intermédiaire universelle (UIT) pour des groupes donnés de couples Li-Wi, et avons utilisé UIT comme un pivot phonético-graphémique. Pour traiter la traduction interdialectale dans des langues à morphologie flexionnelle riche, nous proposons de faire une analyse de surface sur demande et limitée, produisant des arbres syntaxiques partiels, et de l'employer pour mettre à jour et propager des traits tels que le genre et le nombre, et pour traiter les phénomènes aux limites des mots. A côté d'expériences à grande échelle, ce travail a conduit à la production de ressources linguistiques telles que des corpus parallèles et annotés, et à des systèmes opérationnels, tous disponibles gratuitement sur le Web. Ils comprennent des corpus monolingues, des lexiques, des analyseurs morphologiques avec un vocabulaire limité, des grammaires syntagmatiques du hindi, du punjabi et de l'ourdou, des services Web en ligne pour la translittération entre hindi et ourdou, punjabi (shahmukhi) et punjabi (gurmukhi), etc. Une perspective intéressante est d'appliquer nos techniques à des paires distantes LW, pour lesquelles elles pourraient produire efficacement des présentations d'apprentissage actif, sous la forme de sorties pidgin multiples.
- Disicipline
- Informatique
- Date
- Soutenue le 02/01/2010
- Sous la direction de
- Christian Boitet
- Organisme
- Grenoble
- École doctorale mathématiques, sciences et technologies de l'information, informatique (Grenoble)
