Mémoires 2014-2015
Détection de contenu utile depuis des sites d’actualité
Année : 2015
Résumé : Dans un contexte de veille sur des sites d’actualité, la détection automatique du contenu rédigé par les journalistes est nécessaire au bon déroulement de traitements linguistiques automatisés. Nous adressons ce sujet en partant du constat que sur un même site d’actualité c’est principalement le contenu textuel porteur d’information qui change d’une page à l’autre. Plus généralement, nous définissons le contenu utile comme le contenu textuel qui diffère entre deux pages internet du même site. Nous utilisons différentes heuristiques et une comparaison par distance d’édition entre arbres HTML de mêmes structures pour déterminer ce contenu utile. Nous montrons que notre approche améliore les résultats par rapport à un outil de référence sur un corpus composé de pages récentes issues de différents sites d’actualité.
Pratique de la lecture en L2 : classification automatique de textes en thaï par progression lexicale
Année : 2015
Résumé : La création automatique de ressources pour l’apprentissage de langues étrangères peu enseignées et peu dotées en matériels pédagogiques est particulièrement séduisante. Or, le développement de méthodes spécifiques à une langue étant souvent problématique en termes de rentabilité quand les effectifs d’apprenants sont restreints, il est intéressant de considérer comment adapter des ressources existantes ou de développer des méthodes génériques adaptables pour la création de matériel pédagogique. Cette étude concerne l’adaptation à la langue thaïe du logiciel TextLadder, qui classifie l es textes d’un corpus dans un ordre qui maximise la facilité de lecture pour l’apprenant, en calculant la similarité lexicale entre les textes. Cette classification automatique de textes par la progression lexicale constitue une méthode intéressante pour proposer une séquence de textes appropriée au niveau d’un lecteur en L2, surtout en ce qui concerne les textes qui portent sur une thématique particulière, que ce soit pour proposer des textes à des lecteurs autonomes, ou pour la création de matériel pédagogique destiné à être utilisé en classe.
Apports de la catégorisation automatique à la veille collaborative
Année : 2015
Résumé : Ce travail aborde la question de l’utilisation de la fouille de texte dans le domaine de la veille, plus particulièrement la classification automatique de documents. Il s’agit de comparer différentes méthodes de catégorisation dépendant de problématiques linguistiques propres à chaque thématique traitée dans une plateforme de veille collaborative. Nous présenterons les résultats de trois méthodes de classification automatique, utilisant d’une part un modèle d’apprentissage et d’autre part des ressources linguistiques, à savoir l’utilisation d’une hiérarchie de concepts et d’un thésaurus.
Dé-identification cohérente de l’ensemble des documents cliniques d’un patient
Année : 2015
Résumé : Ce travail propose une méthode de dé-identification pour les documents médicaux, permettant de traiter des ensembles de documents rattachés à un même patient. L'objectif est de conserver la cohérence entre les documents traitant d'un même patient, mais pas entre des documents traitant de patients différents. Notre méthode est basée sur un système symbolique, et se concentre sur la cohérence des dates et des noms de personne. Nous obtenons une F-mesure de 0.75, dont 0.77 pour les noms de famille et 0.91 pour les dates.
Optimisation et amélioration du process de traduction des rapports d'intervention pour service Europe
Année : 2015
Résumé : Ce travail s’inscrit dans le cadre du projet CHU (Complaint Handling Unit) Translation Productivity au sein de GEHC à Buc, France. Le travail effectué consiste à optimiser l'extraction, le traitement des rapports d'intervention générés dans les systèmes de gestion de services dans plusieurs langues, ainsi que leur traduction réalisée à la demande de la FDA (Food and Drug Administration). Le projet a été réalisé entre l’équipe de Traduction, de Global Services et de Sourcing. Nous analysons donc le problème de traitement de rapports, ainsi que la difficulté de la traduction technique dans le domaine médical. La solution mise en oeuvre consiste à gérer spécifiquement la concaténation et la segmentation des textes à traduire, en tenant compte de la mémoire de traduction et des portions déjà rédigées en anglais dans les textes sources. Le résultat de ce travail permet d'améliorer l'effet de levier et de réduire les coûts de traduction.
Combinaison de méthode distributionnelle et d’extraction terminologique pour l’adaptation de ressources terminologiques
Année : 2015
Résumé : Les ressources terminologiques sont beaucoup utilisées pour supporter les travaux du traitement automatique des langues. Cependant, la couverture de ces ressources peut être limitée parfois par le problème d’adaptation au corpus et de mise à jour des nouveaux termes. L’objectif de notre travail est donc de la constitution d’une ressource terminologique adaptée au corpus. Pour ce faire, nous proposons une méthode combinant l’extraction de termes et l’analyse distributionnelle pour classifier les termes d’un corpus. Nous avons extrait les termes candidats par l’extracteur YaTeA sur le corpus GENIA. Ces termes candidats extraits sont ensuite utilisés pour définir les mots cibles et les contextes d’une analyse distributionnelle réalisée par word2vec. Les termes sont finalement classés et ordonnés sémantiquement à l’aide le k-means clustering et un vote majoritaire.
Approches pour une numérisation de qualité d’un dictionnaire vietnamien-français comprenant des caractères Nôm
Année : 2015
Résumé : la numérisation d’un dictionnaire ancien de vietnamien-français (Bonet 1899) qui fait usage de caractères anciens forgés sur le modèles de caractères chinois pose plusieurs problèmes : le support des dits caractères et la gestion du multilinguisme en particulier. Une architecture logicielle pour adresser le problème est décrite, ainsi que différentes techniques visant à augmenter la qualité de la reconnaissance en sortie.
Exploitation de reformulations pour l'acquisition d'un vocabulaire expert/non expert
Année : 2015
Résumé : Ce mémoire explique les différentes tâches accomplies durant mon stage de fin d'étude. Celui-ci s'inscrit dans un projet qui concerne la communication patient/médecin. Nous avons utilisé des corpus médicaux écrits monolingues simples, rédigés par des spécialistes, afin d'extraire différents types de reformulations : abréviations et leur signification, reformulations avec marqueurs (c'est-à-dire, autrement dit, encore appelé), reformulations avec parenthèses. Les extractions ont été alignés avec des terminologies médicales, afin de garder uniquement celles évoquant un concept médical. L'exploitation de ces reformulations permettra d'enrichir un lexique de vocabulaire profane et son équivalent en vocabulaire médical, afin d'aider les patients à mieux comprendre les informations médicales.
Filtrage sémantique et visualisation de données textuelles
Année : 2015
Résumé : Ce travail porte sur la question de la visualisation thématique en recherche d’informations. Dans un contexte de plus en plus prégnant de circulation d’informations et face à d’importants flux de données il convient de synthétiser l’information. A plus forte raison garantir un accès rapide et pertinent à l’information peut devenir délicat lorsque c’est un utilisateur qui définit le thème recherché. Nous proposons une approche par croisement de thèmes "simples" pour définir une thématique "complexe". Nous abordons ensuite un système d’enrichissement thématique basé sur des coefficients de similarité. Enfin nous traitons de la visualisation de données en nous appuyant sur les entités nommées contenues dans la thématique détectée . On considérera ici qu’un utilisateur peut obtenir une réponse à une information recherchée grâce à la synthèse visuelle d’entités nommées issues de la détection de thème.
L’analyse textuelle de corpus de discours écologiques relatifs au smog épais en Chine au moyen d’outils informatiques de text mining
Année : 2015
Résumé : La dégradation de l’environnement surtout celle atmosphérique, qui résulte du développement industriel rapide de Chine, suscite l’attention générale de la société chinoise. Du fait que cette pollution de l’air est au détriment de tous les côtés de la vie quotidienne, et qu’elle affecte une zone très étendue en Chine, toute la société y prête leur attention, du milieu gouvernemental au peuple chinois. Dès lors, l’expression «雾wù霾 maí»(le brouillard de pollution) est devenu un mot-clé qui apparaît fréquemment sur les sites web de types divers. On discute de l’origine du smog épais en Chine à ses nocivités de cet air polluant sur la santé humaine et sur différents aspects de la vie courante. Ayant pour objectif de comparer et d’extraire les attitudes et les réactions différentes du gouvernement chinois et du grand public, à l’aide des outils informatiques, notre recherche vise à recueillir d’abord en grande quantité les textes publiés sur deux types de sites web chinois [1]: institutionnel et médiatique, puis catégoriser les textes en fonction de leur nature [2] et subdiviser ces textes encore à l’intérieur de chaque catégorie : les sous-type selon les rubriques que les textes subordonnent. Dans un second temps, à partir du corpus classé et basé sur le wù maí comme mot-clé, on analyse et compare entre les sous-corpus et entre les sous-types homogènes, les deux types de discours au niveau de la fréquence, de la cooccurrence et de la concordance du mot-clé. Quant à la conclusion, les caractéristiques manifestées par les trois sous-corpus montrent les différences des attitudes et des réactions du milieu gouvernemental et du grand public en Chine : le gouvernement met l’accent sur ses actions et mesures prises sur le problème wù maí, alors que le peuple chinois s’intéresse plutôt « D’où vient le smog épais ? » « Quelles sont les nocivités liées au smog épais dans la vie courante ? » « Comment se protéger contre le brouillard quotidiennement ? ».