entités nommées

L’analyse textuelle de corpus de discours écologiques relatifs au smog épais en Chine au moyen d’outils informatiques de text mining

Résumé
La dégradation de l’environnement surtout celle atmosphérique, qui résulte du développement industriel rapide de Chine, suscite l’attention générale de la société chinoise. Du fait que cette pollution de l’air est au détriment de tous les côtés de la vie quotidienne, et qu’elle affecte une zone très étendue en Chine, toute la société y prête leur attention, du milieu gouvernemental au peuple chinois. Dès lors, l’expression «雾wù霾 maí»(le brouillard de pollution) est devenu un mot-clé qui apparaît fréquemment sur les sites web de types divers. On discute de l’origine du smog épais en Chine à ses nocivités de cet air polluant sur la santé humaine et sur différents aspects de la vie courante. Ayant pour objectif de comparer et d’extraire les attitudes et les réactions différentes du gouvernement chinois et du grand public, à l’aide des outils informatiques, notre recherche vise à recueillir d’abord en grande quantité les textes publiés sur deux types de sites web chinois [1]: institutionnel et médiatique, puis catégoriser les textes en fonction de leur nature [2] et subdiviser ces textes encore à l’intérieur de chaque catégorie : les sous-type selon les rubriques que les textes subordonnent. Dans un second temps, à partir du corpus classé et basé sur le wù maí comme mot-clé, on analyse et compare entre les sous-corpus et entre les sous-types homogènes, les deux types de discours au niveau de la fréquence, de la cooccurrence et de la concordance du mot-clé. Quant à la conclusion, les caractéristiques manifestées par les trois sous-corpus montrent les différences des attitudes et des réactions du milieu gouvernemental et du grand public en Chine : le gouvernement met l’accent sur ses actions et mesures prises sur le problème wù maí, alors que le peuple chinois s’intéresse plutôt « D’où vient le smog épais ? » « Quelles sont les nocivités liées au smog épais dans la vie courante ? » « Comment se protéger contre le brouillard quotidiennement ? ».

Filtrage sémantique et visualisation de données textuelles

Résumé
Ce travail porte sur la question de la visualisation thématique en recherche d’informations. Dans un contexte de plus en plus prégnant de circulation d’informations et face à d’importants flux de données il convient de synthétiser l’information. A plus forte raison garantir un accès rapide et pertinent à l’information peut devenir délicat lorsque c’est un utilisateur qui définit le thème recherché. Nous proposons une approche par croisement de thèmes "simples" pour définir une thématique "complexe". Nous abordons ensuite un système d’enrichissement thématique basé sur des coefficients de similarité. Enfin nous traitons de la visualisation de données en nous appuyant sur les entités nommées contenues dans la thématique détectée . On considérera ici qu’un utilisateur peut obtenir une réponse à une information recherchée grâce à la synthèse visuelle d’entités nommées issues de la détection de thème.

Identification des entités nommées dans un corpus français-anglais-arabe

Résumé
Avec la montée en puissance des réseaux (Internet notamment), la taille des documents multilingues à traiter devient de plus en plus importante, ce qui augmente les besoins en outils de traitement automatique pour différentes langues. Parmi ces outils, beaucoup ont recours à la reconnaissance et l'extraction automatique des entités nommées : indexation automatique de documents, recherche d'information, traduction automatique, catégorisation, etc. Notre travail de stage consiste à repérer les entités nommées dans un corpus trilingue Anglais/Arabe/Français (non aligné) collecté à partir des ressources disponibles sur Internet. Dans notre mémoire, nous commencerons d'abord par la présentation d'un état de l'art pour passer en revue les récents systèmes développés pour la reconnaissance des entités nommées pour le Français et l'Anglais ayant notamment participé aux conférences MUC. Nous tenterons ensuite d'examiner ce qui a été fait pour le traitement automatique de l'Arabe et, si possible, ceux concernant l'extraction des entités nommées. Nous ferons ensuite le lien avec le travail réalisé durant notre stage et aborderons les difficultés rencontrées et les solutions mises en place pour les résoudre. 

EJE : Outil d’extraction d’entités nommées en japonais à partir de textes alignés japonais-langue2

Résumé
Le but de ce projet était d'automatiser l’extraction d’entités nommées en japonais afin de faciliter leur reconnaissance dans une autre langue et ce, dans le cadre d’un alignement textuel.L'outil créé prend donc en entrée un couple de textes alignés japonais-langue2 et effectue l'extraction des entités en japonais. L'utilisation de l'unicode pour les traitements et l'affichage autorise l'utilisateur à choisir en langue2 la langue de son choix.Un affichage sous forme de tableau html permet ensuite à l'utilisateur de visualiser les phrases japonaises contenant ces entités surlignées ainsi que les phrases équivalentes dans la deuxième langue.

Pistes méthodologiques pour l'acquisition de noms de personnes à partir du WEB

Résumé
L'acquisition de noms de personnes peut être nécessaire pour des applications en ingénierie linguistique.

Nous avons constitué un lexique de noms de famille de personnes norvégiennes pour un système de reconnaissance d'écriture à l'aide d'une méthode simple qui nous semble manquer de robustesse. Pour essayer de trouver des méthodes alternatives, nous avons étudié la tâche de reconnaissance des entités nommées et les systémes dédiés à celle-ci, ainsi que quelques méthodes d'acquisition d'entités nommées à partir du WEB.

Nous en avons tiré un certain nombre de pistes éventuellement exploitables pour constituer des listes de noms de famille de personnes habitant un pays donné.Ces derniéres sont : l'utilisation de dictionnaires de prénoms, de listes de mots déclencheurs, d'informations de capitalisation et d'informations de formatage des documents HTML.