extraction terminologique
Résumé
L'objectif de ce mémoire est de mettre en place une méthode qui permette d'extraire les différents nommages d'ingrédients et actifs cosmétiques à partir de commentaires postés sur le Web en français et en anglais. Les commentaires n'étant pas normalisés, les diverses expressions qui s'y trouvent, amènent à s'intéresser à leurs variations graphiques et morphosyntaxiques. La méthode exposée est hybride, alliant patrons morphosyntaxiques et distance de Levenshtein. Employée dans un contexte d'acquisition de connaissances, les candidats termes validés pourront être intégrés aux ressources linguistiques et réutilisés dans des analyses ultérieures.
Résumé
L'acquisition, à partir de larges collections de textes, d'unités lexicales multi-mots pertinentes du point de vue de la terminologie est un enjeu fondamental dans le contexte de la recherche d’information. En effet, leur identification conduit à une amélioration du processus d’indexation de documents, et permet de guider l'utilisateur dans sa quête d'information. Notre travail propose ainsi deux méthodes d'extraction de ces unités, aussi appelées termes complexes. La première se base sur un modèle CRF supervisé pour l'étiquetage de données séquentielles. Notre seconde méthode exploite la puissance des patrons morphosyntaxiques et des grammaires locales.
Résumé
Les ressources terminologiques sont beaucoup utilisées pour supporter les travaux du traitement automatique des langues. Cependant, la couverture de ces ressources peut être limitée parfois par le problème d’adaptation au corpus et de mise à jour des nouveaux termes. L’objectif de notre travail est donc de la constitution d’une ressource terminologique adaptée au corpus. Pour ce faire, nous proposons une méthode combinant l’extraction de termes et l’analyse distributionnelle pour classifier les termes d’un corpus. Nous avons extrait les termes candidats par l’extracteur YaTeA sur le corpus GENIA. Ces termes candidats extraits sont ensuite utilisés pour définir les mots cibles et les contextes d’une analyse distributionnelle réalisée par word2vec. Les termes sont finalement classés et ordonnés sémantiquement à l’aide le k-means clustering et un vote majoritaire.
Résumé
Ce projet vise à améliorer le processus d’acquisition de terminologie du système d’Extraction d’Information de TEMIS, Insight Discoverer Extractor (IDE). Un système d’extraction d’information analyse des textes libres afin d’extraire l’information se rapportant à des types d’évènements, d’entités ou de relations pré-déterminés. Le portefeuille de Temis, société spécialisée en « Text Intelligence », comprend des applications d’extraction d’information spécialisées en Intelligence Economique (CI) et en analyse de relations clients (Customer Relationship Management (CRM)) pour des domaines de l’industrie qui couvrent aussi bien l’automobile, l’énergie, les pharmaceutiques, la médecine ou les médias. Pour la maintenance et l’amélioration de ces applications et afin d’accéder à de nouveaux domaines, il est nécessaire d’acquérir rapidement une nouvelle terminologie et de mettre à jour les applications existantes. Ce besoin a permis de déterminer les tâches du projet. La partie du projet liée à la recherche porte sur des méthodes de fouille de textes portant sur des domaines spécifiques pour la constitution de terminologie. La partie du projet liée à l’application elle-même offre une vision du processus d’extraction d’information de TEMIS, processus fondé sur la technologie des transducteurs à états finis. Nous décrivons plus particulièrement l’intégration de ressources lexicales acquises à partir de bases de lexique et de règles déjà existantes (TEMIS possède un format propriétaire appelé Skill Cartridges) qui sont utilisées par l’IDE. L’intégration des nouvelles ressources a été implémentée avec un outil d’import (LexTool). Nous décrivons enfin l’implémentation de l’outil, ainsi que son cadre d’expérimentation.
Résumé
Ce mémoire présente une méthode de construction d'un lexique trilingue à partir de corpus. Nous utilisons un ensemble de documents juridique de l'OMC traduits dans les 3 langues. Nous examinons d'abord la définition du terme dans les trois langues, puis nous survolons les travaux déjà réalisés en acquisition automatique de terminologies à partir de corpus. Etant données les caractéristiques différentes des trois langues traitées, différents outils ont été utilisés dans le but d'automatiser l'étape d'extraction de termes. Durant la tâche d'acquisition de termes chinois, les complexités posées par cette langue sont mises en lumière.
Résumé
Le mémoire voudrait proposer une réflexion méthodologique et des outils informatiques permettant la constitution de lexiques électroniques bilingues. Une première phase du projet a trait à la méthodologie et aux techniques de collecte automatisée de corpus bilingues sur le Web. Elle explicite le choix du/des corpus sélectionnés. La constitution de lexique bilingue passe ensuite par l’alignement des couples de pages parallèles bilingues recueillies. Dans cette deuxième phase du projet, sont élaborées les différentes étapes (niveaux) de cet alignement, les techniques et les outils informatiques que l’on veut utiliser pour celles-ci. On cherchera à savoir également s’il existe un standard de codage pour ces niveaux d’alignement. L’alignement des couples de pages lui-même suppose une réflexion sur le travail de prétraitement des textes (sur la disposition formelle des textes notamment ). Une dernière phase concerne la mise au point des outils pour la collecte du lexique mis en correspondance dans les deux langues. Les correspondances observées seront comparées aux mots et termes des lexiques médicaux actuellement en cours.
Résumé
Dans le présent mémoire nous proposons une méthodologie de création de ressources lexicales (glossaires, lexiques etc.) par extraction terminologique automatique à partir de corpus parallèles français-macédonien.
Une telle méthodologie contribuera à l'enrichissement du fond modeste des ressources lexicales existant pour ce couple de langues.
Dans un premier temps nous allons décrire le processus de constitution et de prétraitement du corpus. Ensuite, nous allons nous pencher sur l'extraction terminologique et l'alignement des candidats termes.
Nous présentons les outils de TAL utilisés à ce propos, leurs points forts et leurs limites. Les difficultés rencontrées lors de la démarche entreprise seront également traitées. Enfin nous allons dresser un bilan du travail effectué et de la possibilité d'automatisation du processus de création de ressources lexicales français-macédonien.