{ "paper_id": "F13-1012", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T09:41:58.978199Z" }, "title": "Construction d'un large corpus \u00e9crit libre annot\u00e9 morpho-syntaxiquement en fran\u00e7ais", "authors": [ { "first": "Nicolas", "middle": [], "last": "Hernandez", "suffix": "", "affiliation": { "laboratory": "", "institution": "Universit\u00e9 de Nantes", "location": {} }, "email": "nicolas.hernandez@univ-nantes.fr" }, { "first": "Florian", "middle": [], "last": "Boudin", "suffix": "", "affiliation": { "laboratory": "", "institution": "Universit\u00e9 de Nantes", "location": {} }, "email": "florian.boudin@univ-nantes.fr" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "Cet article \u00e9tudie la possibilit\u00e9 de cr\u00e9er un nouveau corpus \u00e9crit en fran\u00e7ais annot\u00e9 morphosyntaxiquement \u00e0 partir d'un corpus annot\u00e9 existant. Nos objectifs sont de se lib\u00e9rer de la licence d'exploitation contraignante du corpus d'origine et d'obtenir une modernisation perp\u00e9tuelle des textes. Nous montrons qu'un corpus pr\u00e9-annot\u00e9 automatiquement peut permettre d'entra\u00eener un \u00e9tiqueteur produisant des performances \u00e9tat-de-l'art, si ce corpus est suffisamment grand.", "pdf_parse": { "paper_id": "F13-1012", "_pdf_hash": "", "abstract": [ { "text": "Cet article \u00e9tudie la possibilit\u00e9 de cr\u00e9er un nouveau corpus \u00e9crit en fran\u00e7ais annot\u00e9 morphosyntaxiquement \u00e0 partir d'un corpus annot\u00e9 existant. Nos objectifs sont de se lib\u00e9rer de la licence d'exploitation contraignante du corpus d'origine et d'obtenir une modernisation perp\u00e9tuelle des textes. Nous montrons qu'un corpus pr\u00e9-annot\u00e9 automatiquement peut permettre d'entra\u00eener un \u00e9tiqueteur produisant des performances \u00e9tat-de-l'art, si ce corpus est suffisamment grand.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "L'entra\u00eenement et le test de syst\u00e8mes statistiques de Traitement Automatique des Langues (TAL) requi\u00e8rent la disponibilit\u00e9 de larges corpus annot\u00e9s (Haji\u010dov\u00e1 et al., 2010) . Force est de constater que la communaut\u00e9 scientifique est pauvre en corpus \u00e9crits en fran\u00e7ais librement accessibles, annot\u00e9s en quantit\u00e9 et en qualit\u00e9 suffisantes avec des analyses linguistiques structurelles (segmentation des textes en titres, paragraphes, phrases et mots), morpho-syntaxiques (parties du discours, lemme, genre, nombre, temps...) et syntaxiques (en constituants et en d\u00e9pendances) qui constituent les pr\u00e9-traitements de la plupart des applications du TAL. Nous reprenons ainsi \u00e0 notre compte des propos \u00e9nonc\u00e9s pr\u00e8s de dix ans plus t\u00f4t dans (Salmon-Alt et al., 2004) . Dans cet article nous nous int\u00e9ressons \u00e0 l'entra\u00eenement d'\u00e9tiqueteurs morpho-syntaxiques pour traiter des \u00e9crits en fran\u00e7ais ainsi qu'\u00e0 la construction des corpus annot\u00e9s associ\u00e9s.", "cite_spans": [ { "start": 148, "end": 171, "text": "(Haji\u010dov\u00e1 et al., 2010)", "ref_id": "BIBREF19" }, { "start": 734, "end": 759, "text": "(Salmon-Alt et al., 2004)", "ref_id": "BIBREF27" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Parmi les corpus \u00e9crits annot\u00e9s et en fran\u00e7ais que nous recensons, nous comptons PAROLE 1 et MULTEXT JOC 2 (V\u00e9ronis et Khouri, 1995) , le French Treebank (P7T) (Abeill\u00e9 et al., 2003) , la base 1. http://catalog.elra.info/product_info.php?products_id=565 2. http://catalog.elra.info/product_info.php?products_id=534", "cite_spans": [ { "start": 107, "end": 132, "text": "(V\u00e9ronis et Khouri, 1995)", "ref_id": "BIBREF31" }, { "start": 160, "end": 182, "text": "(Abeill\u00e9 et al., 2003)", "ref_id": "BIBREF0" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "FREEBANK (Salmon-Alt et al., 2004) et le r\u00e9cent corpus Sequoia 3 (Candito et Seddah, 2012) . Except\u00e9 la FREEBANK, ces corpus sont toujours accessibles aujourd'hui via un guichet sur le Web. La FREEBANK, dont la motivation \u00e9tait le recueil collaboratif, la construction et le partage de corpus libres annot\u00e9s en fran\u00e7ais a malheureusement disparu dans les limbes du Web 4 du fait de la difficult\u00e9 d'acquisition de textes libres et du co\u00fbt de r\u00e9alisation d'une telle entreprise. Le P7T 5 est probablement le corpus annot\u00e9 le plus utilis\u00e9 et le plus r\u00e9f\u00e9renc\u00e9, et ce essentiellement pour trois raisons : il est libre d'usage pour des activit\u00e9s de recherche, il b\u00e9n\u00e9ficie d'une analyse multi-niveaux (de la structure textuelle \u00e0 la structure syntaxique en passant par des annotations en morphologie) et il compte pr\u00e8s du double de mots annot\u00e9s que tous les autres corpus disponibles r\u00e9unis. En pratique ce corpus se compose d'articles journalistiques issus du journal Le Monde \u00e9crits dans les ann\u00e9es 90, soit plus de 500 000 mots annot\u00e9s. Ainsi (Candito et al., 2010a) utilisent la structure en constituants du P7T pour construire une structure en d\u00e9pendances et permettre l'entra\u00eenement d'analyseurs syntaxiques statistiques en d\u00e9pendance du fran\u00e7ais (Candito et al., 2010b) . (Sagot et al., 2012) l'enrichissent avec des annotations r\u00e9f\u00e9rentielles en entit\u00e9s nomm\u00e9es. Tandis que (Danlos et al., 2012) projettent de l'utiliser comme base d'annotations discursives.", "cite_spans": [ { "start": 9, "end": 34, "text": "(Salmon-Alt et al., 2004)", "ref_id": "BIBREF27" }, { "start": 65, "end": 90, "text": "(Candito et Seddah, 2012)", "ref_id": "BIBREF6" }, { "start": 1041, "end": 1064, "text": "(Candito et al., 2010a)", "ref_id": "BIBREF7" }, { "start": 1248, "end": 1271, "text": "(Candito et al., 2010b)", "ref_id": "BIBREF8" }, { "start": 1274, "end": 1294, "text": "(Sagot et al., 2012)", "ref_id": "BIBREF26" }, { "start": 1377, "end": 1398, "text": "(Danlos et al., 2012)", "ref_id": "BIBREF12" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Il y a n\u00e9anmoins quelques probl\u00e8mes associ\u00e9s \u00e0 l'utilisation du corpus P7T dans une optique de d\u00e9veloppement de syst\u00e8mes statistiques de TAL.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "1. Le premier probl\u00e8me concerne la faible ad\u00e9quation du mod\u00e8le th\u00e9orique linguistique avec la t\u00e2che d'entra\u00eenement \u00e0 laquelle on le destine. (Schluter et van Genabith, 2007; Crabb\u00e9 et Candito, 2008 ) montrent qu'en remaniant certaines annotations syntaxiques et le jeu d'\u00e9tiquettes, il est possible d'am\u00e9liorer les performances des syst\u00e8mes entra\u00een\u00e9s avec ce corpus. Un autre aspect du probl\u00e8me porte sur la notion de mots compos\u00e9s d\u00e9finie par les auteurs. Celle-ci est tr\u00e8s large et a pour cons\u00e9quence de rendre difficilement reproductible la segmentation du P7T par un syst\u00e8me automatique non entra\u00een\u00e9 sur cette ressource. Cette cons\u00e9quence conduit \u00e0 s'interroger sur la pertinence d'utiliser des mod\u00e9lisations construites sur ce corpus pour traiter d'autres corpus. (Candito et Seddah, 2012) , par exemple, d\u00e9cident de restreindre cette d\u00e9finition et d'aborder le traitement des formes les plus ouvertes (compos\u00e9s nominaux et verbaux) qu'au niveau syntaxique. En comparaison, le Penn Treebank 6 , qui constitue la r\u00e9f\u00e9rence pour l'anglais-am\u00e9ricain (Marcus et al., 1993; Gabbard et al., 2006) , favorise un d\u00e9coupage en mots simples 7 en privil\u00e9giant la rupture pour les mots joints. Il est n\u00e9anmoins important de rappeler que le P7T a initialement \u00e9t\u00e9 cr\u00e9\u00e9 avec une motivation diff\u00e9rente de la n\u00f4tre aujourd'hui \u00e0 savoir la construction de ressources lexicales de type dictionnaire 8 .", "cite_spans": [ { "start": 141, "end": 173, "text": "(Schluter et van Genabith, 2007;", "ref_id": "BIBREF28" }, { "start": 174, "end": 197, "text": "Crabb\u00e9 et Candito, 2008", "ref_id": "BIBREF11" }, { "start": 769, "end": 794, "text": "(Candito et Seddah, 2012)", "ref_id": "BIBREF6" }, { "start": 1052, "end": 1073, "text": "(Marcus et al., 1993;", "ref_id": "BIBREF23" }, { "start": 1074, "end": 1095, "text": "Gabbard et al., 2006)", "ref_id": "BIBREF17" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "2. Le second probl\u00e8me est plus technique et concerne la relative inad\u00e9quation du sch\u00e9ma XML de repr\u00e9sentation des annotations pour des t\u00e2ches automatiques ainsi que le manque de consistance de la structure d'annotation. La repr\u00e9sentation des amalgames en deux \u00e9l\u00e9ments XML distincts qui se retrouvent distribu\u00e9s dans diff\u00e9rentes configurations selon qu'ils se produisent en partie dans un mot compos\u00e9 est une situation difficile \u00e0 traiter automatiquement car elle oblige \u00e0 \u00e9num\u00e9rer tous les cas possibles. Certains \u00e9l\u00e9ments n'ont pas syst\u00e9matiquement tous leurs attributs, inconsistances sont relev\u00e9es dans de nombreux travaux (Arun et Keller, 2005; Schluter et van Genabith, 2007; Green et al., 2011; Candito et Seddah, 2012; Boudin et Hernandez, 2012) qui militent en faveur d'une am\u00e9lioration voire d'une r\u00e9organisation de la structure du P7T avant de pouvoir l'utiliser dans toute \u00e9tude s\u00e9rieuse.", "cite_spans": [ { "start": 627, "end": 649, "text": "(Arun et Keller, 2005;", "ref_id": "BIBREF1" }, { "start": 650, "end": 681, "text": "Schluter et van Genabith, 2007;", "ref_id": "BIBREF28" }, { "start": 682, "end": 701, "text": "Green et al., 2011;", "ref_id": "BIBREF18" }, { "start": 702, "end": 726, "text": "Candito et Seddah, 2012;", "ref_id": "BIBREF6" }, { "start": 727, "end": 753, "text": "Boudin et Hernandez, 2012)", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "3. G\u00e9n\u00e9ralement les m\u00eames auteurs ont aussi observ\u00e9s des inconsistances au niveau d'annotations. Certains, comme (Schluter et van Genabith, 2007; Boudin et Hernandez, 2012) , mettent en oeuvre des techniques automatiques pour d\u00e9tecter et corriger des erreurs d'\u00e9tiquetage morpho-syntaxique. Le nombre d'erreurs de ce type est souvent minime ramen\u00e9 au nombre de mots annot\u00e9s. Sur les 628 767 tokens mots consid\u00e9r\u00e9s dans (Boudin et Hernandez, 2012) par exemple, seulement 169 ont \u00e9t\u00e9 consid\u00e9r\u00e9s comme ayant une erreur d'\u00e9tiquette. Le corpus \u00e9tant construit semi-automatiquement (d'abord analys\u00e9 automatiquement puis valid\u00e9 manuellement), ce type de probl\u00e8me illustre le fait que la validation humaine ne garantie pas l'absence d'erreurs sur un large corpus.", "cite_spans": [ { "start": 113, "end": 145, "text": "(Schluter et van Genabith, 2007;", "ref_id": "BIBREF28" }, { "start": 146, "end": 172, "text": "Boudin et Hernandez, 2012)", "ref_id": "BIBREF4" }, { "start": 419, "end": 446, "text": "(Boudin et Hernandez, 2012)", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "4. Le quatri\u00e8me probl\u00e8me que nous relevons r\u00e9sulte d'un parti pris que nous prenons 9 . Nous estimons en effet que sa licence d'exploitation n'est pas adapt\u00e9e pour favoriser son utilisation dans le monde de la recherche. Bien que la licence permette des utilisations avec des outils propri\u00e9taires et \u00e0 des fins commerciales moyennant finance, elle n'autorise pas la modification et la diffusion libre des modifications du corpus. Cela a pour principale cons\u00e9quence de ralentir voire de d\u00e9courager les contributions ext\u00e9rieures et l'am\u00e9lioration de la ressource (par exemple pour corriger les probl\u00e8mes pr\u00e9c\u00e9demment cit\u00e9s). (Koehn, 2005) . Nous nous int\u00e9resserons ici aux \u00e9crits en fran\u00e7ais de Wikinews et de Europarl. La version en fran\u00e7ais de Janvier 2013 de Wikinews compte plus de 28 000 articles d'actualit\u00e9 (soit plus de 2,5 millions de mots sur pr\u00e8s de 90 000 phrases) et couvre une p\u00e9riode s'\u00e9talant de Janvier 2005 \u00e0 nos jours. La section en fran\u00e7ais de la version 7 (mai 2012) du corpus Europarl compte, quant \u00e0 elle, plus de 61,5 millions de mots (plus de 2 millions de phrases) et couvre une p\u00e9riode s'\u00e9talant de 1996 \u00e0 2011. Les textes du premier sont disponibles sous licence 13 Creative Commons Attribution 2.5 (CC-BY 2.5) (les versions ant\u00e9rieures \u00e0 Septembre 2005 sont dans le domaine public) qui permet \u00e0 l'utilisateur d'utiliser, de modifier et de diffuser la ressource et ses modifications comme il le souhaite moyennant l'obligation d'en citer l'auteur. Les textes du second sont libres de reproduction 14 .", "cite_spans": [ { "start": 623, "end": 636, "text": "(Koehn, 2005)", "ref_id": "BIBREF20" }, { "start": 1523, "end": 1525, "text": "14", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Dans les sections suivantes, nous nous interrogeons sur la possibilit\u00e9 d'exploiter des donn\u00e9es pr\u00e9-annot\u00e9es automatiquement pour construire un syst\u00e8me ayant des performances similaires \u00e0 des syst\u00e8mes entra\u00een\u00e9s sur des donn\u00e9es valid\u00e9es manuellement. Nous proposons notamment d'observer comment la taille des donn\u00e9es pr\u00e9-annot\u00e9es automatiquement peut jouer un r\u00f4le dans la performance d'un \u00e9tiqueteur morpho-syntaxique entra\u00een\u00e9 sur celles-ci.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Dans cette section, nous pr\u00e9sentons les donn\u00e9es, le jeu d'\u00e9tiquettes et l'\u00e9tiqueteur que nous utilisons (section 2.1). Nous pr\u00e9sentons aussi les pr\u00e9-traitements op\u00e9r\u00e9s sur les donn\u00e9es pour les exploiter (sections 2.2 et 2.3) ainsi que le protocole d'\u00e9valuation de nos exp\u00e9riences (section 2.4). (Candito et al., 2010b) . Par la suite nous ferons r\u00e9f\u00e9rence \u00e0 ce jeu d'\u00e9tiquette par le nom P7T+. Par abus ce nom d\u00e9signera aussi le corpus P7T avec des \u00e9tiquettes converties en P7T+.", "cite_spans": [ { "start": 295, "end": 318, "text": "(Candito et al., 2010b)", "ref_id": "BIBREF8" } ], "ref_spans": [], "eq_spans": [], "section": "Cadre exp\u00e9rimental", "sec_num": "2" }, { "text": "En ce qui concerne l'\u00e9tiqueteur morpho-syntaxique que nous avons utilis\u00e9 pour nos exp\u00e9riences, il s'agit de la version 3.1.3 du Stanford POS Tagger (Toutanova et al., 2003) . Ce syst\u00e8me utilise un mod\u00e8le par maximum d'entropie, et peut atteindre des performances au niveau de l'\u00e9tat-de-l'art en fran\u00e7ais (Boudin et Hernandez, 2012) . Nous utilisons un ensemble standard 16 de traits bidirectionnels sur les mots et les \u00e9tiquettes. ", "cite_spans": [ { "start": 148, "end": 172, "text": "(Toutanova et al., 2003)", "ref_id": "BIBREF30" }, { "start": 304, "end": 331, "text": "(Boudin et Hernandez, 2012)", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "Donn\u00e9es, jeu d'\u00e9tiquettes et \u00e9tiqueteur", "sec_num": "2.1" }, { "text": "Afin de faciliter le traitement automatique ult\u00e9rieur du P7T, nous r\u00e9alisons des op\u00e9rations de r\u00e9vision et d'extension de la forme et du contenu. Nous envisageons \u00e0 terme la construction de mod\u00e9lisations de toutes les informations disponibles dans le P7T pour des syst\u00e8mes pr\u00e9dictifs statistiques. Nous avons jug\u00e9 compliqu\u00e9es les situations o\u00f9 l'extraction de certaines informations n\u00e9cessite des travaux d'analyse d\u00e9di\u00e9es (que cela soit des analyses de valeurs d'attributs ou des manipulations de la mod\u00e9lisation objet des documents (DOM) pour obtenir diff\u00e9rents fragments d'une m\u00eame information).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "Concernant les op\u00e9rations visant la validation 18 , l'homog\u00e9n\u00e9isation et la simplification de la structure XML des documents (second type de probl\u00e8mes recens\u00e9 \u00e0 la section 1), nous avons par exemple fusionn\u00e9 les \u00e9l\u00e9ments XML composant les amalgames 19 en un seul \u00e9l\u00e9ment de mani\u00e8re similaire \u00e0 (Candito et Seddah, 2012 ) (19 489 fusions). Nous avons explicit\u00e9 les caract\u00e9ristiques morphologiques de chaque mot par des attributs propres (genre, nombre, temps, personne. . .). Nous avons fait diverses corrections pour valider les documents comme l'ajout d'attributs manquant (e.g. 3166 attribut compound ajout\u00e9s) et le renommage d'attribut (e.g. 3 726 attributs cat corrig\u00e9s en catint).", "cite_spans": [ { "start": 249, "end": 251, "text": "19", "ref_id": null }, { "start": 294, "end": 318, "text": "(Candito et Seddah, 2012", "ref_id": "BIBREF6" } ], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "Concernant les op\u00e9rations de modification de contenu, la segmentation en tokens mots originale et le contenu textuel du P7T ont \u00e9t\u00e9 \u00e9pargn\u00e9s. De m\u00eame, les corrections d'erreurs triviales d'\u00e9tiquetage ont \u00e9t\u00e9 consid\u00e9r\u00e9es \u00e0 la marge pour cette \u00e9tude. Les op\u00e9rations se sont concentr\u00e9es d'une part sur la d\u00e9termination des traits morpho-syntaxiques (cat\u00e9gorie grammaticale, sous-cat\u00e9gorie, flexion morphologique et lemme) des mots composant les mots compos\u00e9s, et d'autre part sur l'attribution \u00e0 chaque mot de l'\u00e9tiquette grammaticale du jeux d'\u00e9tiquettes du P7T+ correspondant \u00e0 ses attributs. Ces deux types d'op\u00e9rations, dont le d\u00e9tail est pr\u00e9sent\u00e9 respectivement dans les deux paragraphes suivants, visent \u00e0 traiter le premier type de probl\u00e8mes recens\u00e9 \u00e0 la section 1 ; en particulier la d\u00e9termination des traits morpho-syntaxiques est une \u00e9tape n\u00e9cessaire \u00e0 l'affectation d'une \u00e9tiquette P7T+ aux mots composants (cf. section 2.2).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "Le processus de d\u00e9termination des traits manquants pour les mots composants repose sur l'observation des s\u00e9quences de traits associ\u00e9es aux occurrences des compos\u00e9s, aux s\u00e9quences de mots simples correspondant aux composants des compos\u00e9s, ainsi que sur l'observation des traits associ\u00e9s individuellement \u00e0 chaque mot du corpus. Notre approche tente d'abord une r\u00e9solution avec des statistiques globales et s'appuie ensuite sur des traits locaux au compos\u00e9 en cas d'ambigu\u00eft\u00e9 au niveau global. Sur les 1 892 lemmes de compos\u00e9s incomplets que nous observons, nous proposons une solution \u00e0 1 736 (3 009 occurrences).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "Le processus d'attribution \u00e0 chaque mot d'une \u00e9tiquette du P7T+ exploite les traits cat\u00e9gorie, sous-cat\u00e9gorie et flexion morphologique des mots. Pour ce faire, nous nous sommes appuy\u00e9s sur la table de conversion \u00e9nonc\u00e9e par (Crabb\u00e9 et Candito, 2008) ainsi que sur la documentation de l'\u00e9tiqueteur morpho-syntaxique MELT (Denis et Sagot, 2010) pour compl\u00e9ter quelques r\u00e8gles manquantes 20 . 31 r\u00e8gles r\u00e9alisent la conversion. Sur les 679 584 mots (simples, compos\u00e9s et composants) que compte le P7T, la proc\u00e9dure attribue une \u00e9tiquette P7T+ \u00e0 664 240 mots ;", "cite_spans": [ { "start": 224, "end": 249, "text": "(Crabb\u00e9 et Candito, 2008)", "ref_id": "BIBREF11" }, { "start": 320, "end": 342, "text": "(Denis et Sagot, 2010)", "ref_id": "BIBREF14" }, { "start": 385, "end": 387, "text": "20", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "18. Seulement 27 des 44 fichiers composant la section tagged (\u00e9tiquet\u00e9 grammaticalement) de la version de Janvier 2012 sont valides (c'est-\u00e0-dire v\u00e9rifient la sp\u00e9cification d\u00e9finie par le sch\u00e9ma NG fourni par les auteurs.)", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "19. Les amalgames sont des unit\u00e9s lexicales d\u00e9crite par une unit\u00e9 graphique mais compos\u00e9s deux cat\u00e9gories grammaticales (e.g. \"du\" pour \"de+le\", \"auxquel\" pour \"\u00e0+lequel\").", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "20. Un mot de cat\u00e9gorie \"Nom\" et de sous-cat\u00e9gorie \"cardinal\" (million, huit, 2001...) est converti en nom commun. L'\u00e9tiquette \"pr\u00e9fix\" ne change pas, comme celle des amalgames apr\u00e8s fusion de ses sous-\u00e9l\u00e9ments.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "15 344 sont donc ind\u00e9finis. Nos r\u00e8gles de conversion, test\u00e9es sur les annotations P7T du corpus Sequoia, produisent les m\u00eames 21 annotations P7T+ que le corpus met aussi \u00e0 disposition.", "cite_spans": [ { "start": 126, "end": 128, "text": "21", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "En pratique les diff\u00e9rentes op\u00e9rations ont \u00e9t\u00e9 mises en oeuvre via des r\u00e8gles 22 plus ou moins g\u00e9n\u00e9rales exprim\u00e9es sur le DOM des documents. Les op\u00e9rations de comptage requises par certaines strat\u00e9gies ont \u00e9t\u00e9 r\u00e9alis\u00e9s sur tout le corpus et non seulement sur chaque document.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9vision et extension du P7T", "sec_num": "2.3" }, { "text": "Notre objectif est d'\u00e9valuer les performances d'un \u00e9tiqueteur morpho-syntaxique construit sur des donn\u00e9es pr\u00e9-annot\u00e9es automatiquement par rapport \u00e0 un \u00e9tiqueteur construit sur des donn\u00e9es valid\u00e9es manuellement. Notre m\u00e9thodologie est pr\u00e9sent\u00e9e \u00e0 la figure 1. La premi\u00e8re \u00e9tape consiste \u00e0 produire l'ensemble de donn\u00e9es d'entra\u00eenement. Pour cela, nous utilisons le Stanford POS tagger avec un mod\u00e8le entra\u00een\u00e9 sur le P7T+ pour annoter un large corpus de donn\u00e9es non-\u00e9tiquet\u00e9es. Cet ensemble de donn\u00e9es est not\u00e9 CORPUS pos apr\u00e8s qu'il ait \u00e9t\u00e9 \u00e9tiquet\u00e9 morphosyntaxiquement. Nous l'utilisons alors dans une deuxi\u00e8me \u00e9tape pour entra\u00eener un nouveau mod\u00e8le. La performance du mod\u00e8le cr\u00e9\u00e9 \u00e0 partir de CORPUS pos est ensuite \u00e9valu\u00e9e sur le P7T+. Afin d'\u00e9tudier l'impact de la taille du corpus d'entra\u00eenement sur la performance de l'\u00e9tiquetage morpho-syntaxique, nous avons entra\u00een\u00e9 diff\u00e9rents mod\u00e8les en utilisant des portions de CORPUS pos repr\u00e9sentant un facteur x du nombre de phrases de P7T+. Ici, nous utilisons Wikinews et Europarl en fran\u00e7ais comme CORPUS. Pour Wikinews, nous avons test\u00e9 les facteurs allant de 1 \u00e0 4 fois le nombre de phrases de P7T+ (4 \u00e9tant la limite que nous pouvions atteindre avec le nombre de phrases contenu dans Wikinews). Pour Europarl, nous avons explor\u00e9 jusqu'au facteur 16.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Protocole d'\u00e9valuation", "sec_num": "2.4" }, { "text": "Trois mesures d'\u00e9valuation sont consid\u00e9r\u00e9es comme pertinentes pour nos exp\u00e9riences : la pr\u00e9cision sur les tokens, la pr\u00e9cision sur les phrases (nombre de phrases dans lesquelles tous les tokens ont \u00e9t\u00e9 correctement \u00e9tiquet\u00e9s par rapport au nombre de phrases total) et la pr\u00e9cision sur les mots inconnus (calcul\u00e9e \u00e0 partir des tokens n'apparaissant pas dans l'ensemble d'entra\u00eenement).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Protocole d'\u00e9valuation", "sec_num": "2.4" }, { "text": "21. 108 mots obtiennent une \u00e9tiquette diff\u00e9rente de celle attribu\u00e9e par les auteurs du Sequoia, \u00e0 savoir une \u00e9tiquette d\u00e9signant une valeur ind\u00e9finie. En y regardant d'un peu plus pr\u00e8s nous avons constat\u00e9 que cela concernait en fait 22 formes distinctes et que ces formes \u00e9taient ambigu\u00ebs et pouvaient correspondre \u00e0 des noms communs ou bien \u00e0 des adverbes n\u00e9gatifs (e.g. 34 \u00abpersonnes ?\u00bb, 37 \u00abpoints ?\u00bb). En creusant davantage, nous avons constat\u00e9 un probl\u00e8me d'annotation. Ces mots \u00e9taient annot\u00e9s en tant que nom (cat\u00e9gorie \u00abN\u00bb) mais poss\u00e9daient une sous-cat\u00e9gorie \u00abNEG\u00bb propre aux adverbes. La description incompl\u00e8te de certains traits semblent \u00eatre aussi la raison de l'attribution d'une \u00e9tiquette ind\u00e9finie. C'est le cas de verbes (\u00ababoutisse, \u00abagrandisse\u00bb, \u00abremplisse\u00bb) dont le mode n'est pas pr\u00e9cis\u00e9. Indirectement notre syst\u00e8me a permis ainsi de d\u00e9tecter des erreurs d'inconsistances dans le Sequoia.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Protocole d'\u00e9valuation", "sec_num": "2.4" }, { "text": "22. L'outil de r\u00e9vision et d'extension est librement disponible sur https://sites.google.com/site/ nicolashernandez/resources", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Protocole d'\u00e9valuation", "sec_num": "2.4" }, { "text": "Cette section pr\u00e9sente les exp\u00e9riences que nous avons men\u00e9es. Nous rapportons d'abord la performance d'un \u00e9tiqueteur \u00e9tat-de-l'art construit sur des donn\u00e9es manuellement valid\u00e9es (section 3.1). Puis nous rapportons les performances observ\u00e9es pour diff\u00e9rentes tailles de donn\u00e9es d'entra\u00eenement annot\u00e9es automatiquement et ce pour des corpus d'entra\u00eenement de deux genres diff\u00e9rents (sections 3.2 et 3.2). Enfin nous rapportons les performances de ces \u00e9tiqueteurs construits sur des donn\u00e9es non valid\u00e9es sur un corpus sans aucun lien de filiation connu (section 3.3). Le mod\u00e8le et les traits d'entra\u00eenement de ces \u00e9tiqueteurs sont pr\u00e9sent\u00e9s \u00e0 la section 2.1.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences", "sec_num": "3" }, { "text": "La premi\u00e8re exp\u00e9rience que nous avons men\u00e9e porte sur l'\u00e9valuation du Stanford POS Tagger sur l'ensemble de donn\u00e9es P7T+. Il s'agit de conna\u00eetre la performance maximale que peut obtenir le syst\u00e8me lorsqu'il est entra\u00een\u00e9 sur des donn\u00e9es qui ont \u00e9t\u00e9 manuellement valid\u00e9es. Les r\u00e9sultats que nous pr\u00e9sentons ici ont \u00e9t\u00e9 obtenus en validation crois\u00e9e en 10 strates. L'\u00e9cart type (\u03c3) des scores calcul\u00e9s sur les diff\u00e9rentes strates est \u00e9galement report\u00e9. Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans la table 1. Le Stanford POS Tagger obtient une pr\u00e9cision moyenne de 96,93% sur les tokens et de 50,03% sur les phrases. Ces r\u00e9sultats sont conformes \u00e0 l'\u00e9tat-de-l'art des m\u00e9thodes n'utilisant pas de ressources externes (Crabb\u00e9 et Candito, 2008) . Il faut cependant noter que les scores pr\u00e9sent\u00e9s ne sont pas directement comparables aux approches pr\u00e9c\u00e9dentes qui n'utilisaient pas une m\u00e9thodologie d'\u00e9valuation en validation crois\u00e9e.", "cite_spans": [ { "start": 703, "end": 728, "text": "(Crabb\u00e9 et Candito, 2008)", "ref_id": "BIBREF11" } ], "ref_spans": [], "eq_spans": [], "section": "Performance d'un \u00e9tiqueteur \u00e9tat-de-l'art", "sec_num": "3.1" }, { "text": "Min. -Max. La table 3 rapporte les r\u00e9sultats que nous obtenons avec le corpus Europarl pos . De par la diff\u00e9rence de genre, il \u00e9tait attendu que les scores obtenus avec ce corpus soient moins \u00e9lev\u00e9s que ceux obtenus avec Wikinews pos . On note que, en comparaison avec Wikinews pos , il faut davantage de donn\u00e9es de Europarl pos pour obtenir un niveau de performance acceptable. Plus exactement, il semble falloir quatre fois plus de donn\u00e9es pour obtenir les m\u00eames performances. Ainsi avec 16 fois plus de donn\u00e9es que le P7T+, on arrive \u00e0 une performance significative similaire \u00e0 un syst\u00e8me \u00e9tat-de-l'art entra\u00een\u00e9 sur celui-ci. Malgr\u00e9 des scores de pr\u00e9cisions moins \u00e9lev\u00e9s, on observe les m\u00eames tendances de progression quels que soient les scores. Bien que la pr\u00e9cision sur les mots inconnus diminue, le nombre de mots inconnus mal \u00e9tiquet\u00e9s est \u00e9galement \u00e0 la baisse.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Pr\u00e9cision", "sec_num": null }, { "text": "Dans la m\u00eame table, nous pr\u00e9sentons \u00e0 titre de comparaison les r\u00e9sultats obtenus par un mod\u00e8le entra\u00een\u00e9 sur Sequoia, seul corpus librement disponible \u00e0 ce jour. Les scores de pr\u00e9cision de ce mod\u00e8le \u00e9valu\u00e9 sur le P7T+ sont bien en dessous de ceux obtenus par les mod\u00e8les entra\u00een\u00e9s sur Wikinews pos et Europarl pos , avec une pr\u00e9cision de 93,99% sur les tokens et de seulement 28,42% sur les phrases. Ces r\u00e9sultats confirment qu'un ensemble de donn\u00e9es automatiquement annot\u00e9es repr\u00e9sente une alternative pertinente pour l'entra\u00eenement de mod\u00e8les d'\u00e9tiquetage morpho-syntaxique. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Entra\u00eenement \u00e0 partir de donn\u00e9es automatiquement annot\u00e9es", "sec_num": "3.2" }, { "text": "La proc\u00e9dure d'annotation morpho-syntaxique de corpus repose en g\u00e9n\u00e9ral sur une proc\u00e9dure en deux \u00e9tapes 24 : d'abord une assignation automatique des \u00e9tiquettes par un \u00e9tiqueteur existant (\u00e9tape aussi appel\u00e9e \u00abpr\u00e9-annotation\u00bb) et ensuite une r\u00e9vision de celles-ci par des annotateurs humains (Haji\u010dov\u00e1 et al., 2010) . On retrouve cette mani\u00e8re de pr\u00e9c\u00e9der dans la construction des corpus Penn Treebank (Marcus et al., 1993) , PAROLE, MULTEXT JOC (V\u00e9ronis et Khouri, 1995) , French Treebank (Abeill\u00e9 et al., 2003) , FREEBANK (Salmon-Alt et al., 2004) , TCOF-POS (un corpus libre de fran\u00e7ais parl\u00e9) (Benzitoun et al., 2012) et Sequoia (Candito et Seddah, 2012) .", "cite_spans": [ { "start": 292, "end": 315, "text": "(Haji\u010dov\u00e1 et al., 2010)", "ref_id": "BIBREF19" }, { "start": 402, "end": 423, "text": "(Marcus et al., 1993)", "ref_id": "BIBREF23" }, { "start": 446, "end": 471, "text": "(V\u00e9ronis et Khouri, 1995)", "ref_id": "BIBREF31" }, { "start": 490, "end": 512, "text": "(Abeill\u00e9 et al., 2003)", "ref_id": "BIBREF0" }, { "start": 524, "end": 549, "text": "(Salmon-Alt et al., 2004)", "ref_id": "BIBREF27" }, { "start": 597, "end": 621, "text": "(Benzitoun et al., 2012)", "ref_id": "BIBREF3" }, { "start": 633, "end": 658, "text": "(Candito et Seddah, 2012)", "ref_id": "BIBREF6" } ], "ref_spans": [], "eq_spans": [], "section": "Travaux connexes relatifs \u00e0 la construction de corpus", "sec_num": "4" }, { "text": "24. Le processus de construction d'un corpus annot\u00e9 est plus complexe et comprend notamment les \u00e9tapes suivantes : s\u00e9lection et constitution de la base de textes \u00e0 annoter, d\u00e9finition du sch\u00e9ma d'annotation, mise en place du protocole de validation par les experts, entra\u00eenement et mesure du taux d'accord entre ceux-ci.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Travaux connexes relatifs \u00e0 la construction de corpus", "sec_num": "4" }, { "text": "Cette phase de post-\u00e9dition, connue comme \u00e9tant toujours n\u00e9cessaire, constitue une entreprise co\u00fbteuse en temps et p\u00e9cuniairement. (Fort et Sagot, 2010) montrent n\u00e9anmoins qu'il suffit d'un petit corpus d'entra\u00eenement pour construire un syst\u00e8me produisant une pr\u00e9-annotation de qualit\u00e9 suffisante pour permettre une annotation par correction plus rapide qu'une annotation manuelle. Dans ce travail, nous ne nous situons pas dans une perspective d'un post-traitement correctif manuel.", "cite_spans": [ { "start": 131, "end": 152, "text": "(Fort et Sagot, 2010)", "ref_id": "BIBREF16" } ], "ref_spans": [], "eq_spans": [], "section": "Travaux connexes relatifs \u00e0 la construction de corpus", "sec_num": "4" }, { "text": "Diff\u00e9rentes techniques ont \u00e9t\u00e9 propos\u00e9es pour rendre plus fiable l'assignation automatique d'\u00e9tiquettes ainsi que pour faciliter le travail des annotateurs en d\u00e9tectant (voire en corrigeant) les erreurs d'annotation. En ce qui concerne l'assignation automatique, (Clark et al., 2003) utilisent deux \u00e9tiqueteurs morpho-syntaxiques pour annoter de nouvelles donn\u00e9es et \u00e9tendre leur corpus d'entra\u00eenement avec une s\u00e9lection de celles-ci. Leur id\u00e9e consiste \u00e0 s\u00e9lectionner les phrases qui maximisent l'accord d'annotation entre les \u00e9tiqueteurs et d'ajouter celles-ci aux donn\u00e9es d'entra\u00eenement, puis de recommencer la proc\u00e9dure. Les auteurs constatent que le coentra\u00eenement permet d'am\u00e9liorer la performance des syst\u00e8mes entra\u00een\u00e9s \u00e0 partir d'une quantit\u00e9 de donn\u00e9es manuellement annot\u00e9e tr\u00e8s faible. Cette approche trouve son utilit\u00e9 lorsque l'on dispose de peu de quantit\u00e9 de donn\u00e9es annot\u00e9s pour entra\u00eener un syst\u00e8me. L'id\u00e9e de combiner plusieurs \u00e9tiqueteurs se retrouve dans d'autres travaux. (Loftsson et al., 2010) , par exemple, entra\u00eenent cinq \u00e9tiqueteurs sur un m\u00eame corpus (le corpus Icelandic Frequency Dictionary (IFD)), et utilisent leur combinaison pour annoter un second corpus. La combinaison 25 se fait par vote \u00e0 la majorit\u00e9 et par degr\u00e9 de confiance dans les \u00e9tiqueteurs en cas d'\u00e9galit\u00e9. Le r\u00e9sultat de cette combinaison est ensuite sujet \u00e0 la d\u00e9tection d'erreurs en utilisant la d\u00e9tection d'incoh\u00e9rences entre un \u00e9tiquetage en constituants fourni par un outil tiers et l'\u00e9tiquetage morphosyntaxique des mots contenus dans les constituants (Loftsson, 2009) . La correction effective des erreurs est ensuite r\u00e9alis\u00e9e manuellement. Les auteurs montrent que la combinaison des \u00e9tiqueteurs permet d'augmenter la pr\u00e9cision de l'\u00e9tiquetage comparativement aux performances individuelles de chacun des \u00e9tiqueteurs. La raison invoqu\u00e9e pour expliquer le ph\u00e9nom\u00e8ne est que les diff\u00e9rents \u00e9tiqueteurs produisent diff\u00e9rentes erreurs et que cette diff\u00e9rence peut souvent \u00eatre exploit\u00e9e pour conduire \u00e0 de meilleurs r\u00e9sultats.", "cite_spans": [ { "start": 263, "end": 283, "text": "(Clark et al., 2003)", "ref_id": "BIBREF9" }, { "start": 992, "end": 1015, "text": "(Loftsson et al., 2010)", "ref_id": "BIBREF22" }, { "start": 1555, "end": 1571, "text": "(Loftsson, 2009)", "ref_id": "BIBREF21" } ], "ref_spans": [], "eq_spans": [], "section": "Travaux connexes relatifs \u00e0 la construction de corpus", "sec_num": "4" }, { "text": "Sur le fran\u00e7ais, le travail qui se rapproche le plus de ces efforts est celui de (Dejean et al., 2010) pour qui le d\u00e9veloppement d'un corpus annot\u00e9 morpho-syntaxiquement reste avant tout un moyen d'atteindre leur objectif : construire un \u00e9tiqueteur morpho-syntaxique libre du fran\u00e7ais. Les auteurs observent (apr\u00e8s alignement des jeux d'\u00e9tiquettes) les divergences d'annotations des \u00e9tiqueteurs de (Brill, 1994 ) (BRILL) et de (Schmid, 1994 ) (TREETAGGER). Ces observations les conduisent \u00e0 \u00e9mettre des r\u00e8gles correctives sur le r\u00e9sultat de la combinaison de ces \u00e9tiqueteurs, qu'ils utilisent pour entra\u00eener un \u00e9tiqueteur \u00e9tat-de-l'art. Leurs exp\u00e9rimentations sont r\u00e9alis\u00e9es sur un corpus de pr\u00e8s de 500 000 mots construit \u00e0 partir d'extraits de Wikip\u00e9dia, Wikiversity et Wikinews. L'\u00e9tiqueteur est entra\u00een\u00e9 sur une partie du corpus et ses r\u00e9sultats sont compar\u00e9s sur une autre partie par rapport aux sorties produites par l'\u00e9tiqueteur BRILL. Le fait que la mise au point des \u00e9tiqueteurs BRILL et TREETAGGER n'aient pas \u00e9t\u00e9 r\u00e9alis\u00e9e sur un m\u00eame corpus ainsi que l'absence de corpus de r\u00e9f\u00e9rence pour \u00e9valuer les \u00e9tiquetages produits, rendent difficile l'interpr\u00e9tation de ces r\u00e9sultats.", "cite_spans": [ { "start": 81, "end": 102, "text": "(Dejean et al., 2010)", "ref_id": "BIBREF13" }, { "start": 398, "end": 410, "text": "(Brill, 1994", "ref_id": "BIBREF5" }, { "start": 427, "end": 440, "text": "(Schmid, 1994", "ref_id": "BIBREF29" } ], "ref_spans": [], "eq_spans": [], "section": "Travaux connexes relatifs \u00e0 la construction de corpus", "sec_num": "4" }, { "text": "Afin d'assister la t\u00e2che de correction de corpus annot\u00e9s, (Dickinson et Meurers, 2003) proposent, dans le cadre du projet DECCA 26 , de s'appuyer sur l'observation des variations d'annotations 25 . http://combitagger.sourceforge.net 26. http://decca.osu.edu associ\u00e9es \u00e0 un m\u00eame n-gramme de mots pour trouver des erreurs d'\u00e9tiquetage. L'hypoth\u00e8se qu'ils font est qu'un mot ambigu peut avoir diff\u00e9rentes \u00e9tiquettes dans diff\u00e9rents contextes mais plus ses contextes d'occurrences sont similaires, plus rare devrait \u00eatre la variation d'\u00e9tiquetage ; et par cons\u00e9quent plus grande devrait \u00eatre la probabilit\u00e9 qu'il s'agisse d'une erreur. Appliqu\u00e9 sur le corpus du Wall Street Journal (WSJ), il observe que 97,6% des variations ramen\u00e9es pour des n-grammes de taille sup\u00e9rieure \u00e0 6 constituent des erreurs effectives.", "cite_spans": [ { "start": 58, "end": 86, "text": "(Dickinson et Meurers, 2003)", "ref_id": "BIBREF15" }, { "start": 193, "end": 195, "text": "25", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Travaux connexes relatifs \u00e0 la construction de corpus", "sec_num": "4" }, { "text": "Poursuivant le m\u00eame objectif, (Loftsson, 2009) s'appuie sur cette technique ainsi que sur deux autres : le vote de plusieurs \u00e9tiqueteurs automatiques et la coh\u00e9rence de l'\u00e9tiquetage morphosyntaxique des mots en regard d'une analyse en constituants des phrases. Il observe que ces techniques permettent individuellement de d\u00e9tecter des erreurs et qu'elles agissent en compl\u00e9mentarit\u00e9 ; ce qui lui permet de corriger manuellement 0,23% (1 334 tokens mots) du corpus IFD. Nous notons que les deux premi\u00e8res techniques ne sont pas d\u00e9pendantes de la langue mais que la derni\u00e8re repose sur l'\u00e9criture de r\u00e8gles ad'hoc issues de l'observation des donn\u00e9es. (Boudin et Hernandez, 2012) appliquent sur le P7T des techniques de d\u00e9tection d'erreurs fond\u00e9es sur les travaux de (Dickinson et Meurers, 2003) ainsi que des heuristiques pour assigner automatiquement des \u00e9tiquettes morpho-syntaxiques aux mots composants. Ils montrent que ces corrections am\u00e9liorent les performances de syst\u00e8mes d'\u00e9tiquetage \u00e9tat-de-l'art.", "cite_spans": [ { "start": 30, "end": 46, "text": "(Loftsson, 2009)", "ref_id": "BIBREF21" }, { "start": 649, "end": 676, "text": "(Boudin et Hernandez, 2012)", "ref_id": "BIBREF4" }, { "start": 764, "end": 792, "text": "(Dickinson et Meurers, 2003)", "ref_id": "BIBREF15" } ], "ref_spans": [], "eq_spans": [], "section": "Travaux connexes relatifs \u00e0 la construction de corpus", "sec_num": "4" }, { "text": "Dans cet article nous montrons qu'\u00e0 partir d'une certaine quantit\u00e9 de donn\u00e9es pr\u00e9-annot\u00e9es automatiquement il est possible d'entra\u00eener des \u00e9tiqueteurs morpho-syntaxiques qui produisent des r\u00e9sultats \u00e9quivalents \u00e0 des syst\u00e8mes entra\u00een\u00e9s sur des donn\u00e9es valid\u00e9es manuellement. La cons\u00e9quence directe de ce r\u00e9sultat d\u00e9coule de la nature des donn\u00e9es utilis\u00e9es pour ces exp\u00e9riences (\u00e0 savoir Wikinews et Europarl) : il est possible de construire un corpus libre annot\u00e9 morphosyntaxiquement offrant une modernisation perp\u00e9tuelle des textes et qui puisse servir de base pour entra\u00eener des \u00e9tiqueteurs morpho-syntaxiques statistiques produisant des analyses \u00e9tat-de-l'art.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "5" }, { "text": "Les perspectives \u00e0 ce travail sont triples : d'abord confirmer la qualit\u00e9 de l'\u00e9tiquetage automatique des annotations morpho-syntaxiques du corpus ainsi construit, ensuite \u00e9tendre les annotations du corpus \u00e0 d'autres niveaux d'analyse, et enfin diffuser librement la ressource par un moyen qui permette un enrichissement collaboratif. Concernant l'am\u00e9lioration de la qualit\u00e9 d'\u00e9tiquetage, (Schluter et van Genabith, 2007; Loftsson et al., 2010; Boudin et Hernandez, 2012) ont montr\u00e9 des pistes pour la d\u00e9tection et la correction d'erreurs par des proc\u00e9dures automatiques en utilisant la d\u00e9tection de variations d'\u00e9tiquetage ou la combinaison de multiples \u00e9tiqueteurs. Concernant l'extension du corpus \u00e0 d'autres niveaux d'analyses, (Candito et Seddah, 2012) utilisent pour le projet Sequoia diff\u00e9rentes techniques pour pr\u00e9-annoter automatiquement le niveau syntaxique avec des analyses en constituants et en d\u00e9pendances. Les solutions mises en oeuvre dans le projet DECCA (cf. note 26) permettent d'envisager la d\u00e9tection d'erreurs \u00e0 ces niveaux. L'une des difficult\u00e9s sera de voir s'il est possible d'automatiser certaines corrections comme dans (Boudin et Hernandez, 2012) ainsi que de voir si la taille des donn\u00e9es annot\u00e9es a une incidence sur la qualit\u00e9 des syst\u00e8mes entra\u00een\u00e9s. L'enjeu de la mise au point de telles techniques est \u00e9norme puisqu'il s'agit de pouvoir offrir \u00e0 la communaut\u00e9 un large corpus annot\u00e9 croissant continuellement sous une licence d'exploitation offrant \u00e0 l'utilisateur le droit de copier, modifier et utiliser la ressource pour la finalit\u00e9 qu'il souhaite.", "cite_spans": [ { "start": 389, "end": 421, "text": "(Schluter et van Genabith, 2007;", "ref_id": "BIBREF28" }, { "start": 422, "end": 444, "text": "Loftsson et al., 2010;", "ref_id": "BIBREF22" }, { "start": 445, "end": 471, "text": "Boudin et Hernandez, 2012)", "ref_id": "BIBREF4" }, { "start": 732, "end": 757, "text": "(Candito et Seddah, 2012)", "ref_id": "BIBREF6" }, { "start": 1147, "end": 1174, "text": "(Boudin et Hernandez, 2012)", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "5" }, { "text": "c ATALA", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "", "sec_num": null } ], "back_matter": [], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "Building and using Parsed Corpora, chapitre Building a treebank for French. Language and Speech series", "authors": [ { "first": "A", "middle": [], "last": "Abeill\u00e9", "suffix": "" }, { "first": "L", "middle": [], "last": "Cl\u00e9ment", "suffix": "" }, { "first": "F", "middle": [], "last": "Toussenel", "suffix": "" } ], "year": 2003, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ABEILL\u00c9, A., CL\u00c9MENT, L. et TOUSSENEL, F. (2003). Building and using Parsed Corpora, chapitre Building a treebank for French. Language and Speech series, Kluwer, Dordrecht.", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "Lexicalization in crosslinguistic probabilistic parsing : The case of French", "authors": [ { "first": "A", "middle": [], "last": "Arun", "suffix": "" }, { "first": "F", "middle": [], "last": "Keller", "suffix": "" } ], "year": 2005, "venue": "Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL'05)", "volume": "", "issue": "", "pages": "306--313", "other_ids": {}, "num": null, "urls": [], "raw_text": "ARUN, A. et KELLER, F. (2005). Lexicalization in crosslinguistic probabilistic parsing : The case of French. In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL'05), pages 306-313, Ann Arbor, Michigan.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "Sxpipe 2 : architecture pour le traitement pr\u00e9-syntaxique de corpus bruts", "authors": [ { "first": "S", "middle": [], "last": "Beno\u00eet", "suffix": "" }, { "first": "P", "middle": [], "last": "Boullier", "suffix": "" } ], "year": 2008, "venue": "Traitement Automatique des Langues", "volume": "49", "issue": "2", "pages": "155--188", "other_ids": {}, "num": null, "urls": [], "raw_text": "BENO\u00ceT, S. et BOULLIER, P. (2008). Sxpipe 2 : architecture pour le traitement pr\u00e9-syntaxique de corpus bruts. Traitement Automatique des Langues, 49(2):155-188.", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "TCOF-POS : un corpus libre de fran\u00e7ais parl\u00e9 annot\u00e9 en morphosyntaxe", "authors": [ { "first": "C", "middle": [], "last": "Benzitoun", "suffix": "" }, { "first": "K", "middle": [], "last": "Fort", "suffix": "" }, { "first": "B", "middle": [], "last": "Sagot", "suffix": "" } ], "year": 2012, "venue": "Actes de la conf\u00e9rence conjointe JEP-TALN-RECITAL", "volume": "", "issue": "", "pages": "99--112", "other_ids": {}, "num": null, "urls": [], "raw_text": "BENZITOUN, C., FORT, K. et SAGOT, B. (2012). TCOF-POS : un corpus libre de fran\u00e7ais parl\u00e9 annot\u00e9 en morphosyntaxe. In Actes de la conf\u00e9rence conjointe JEP-TALN-RECITAL, pages 99- 112, Grenoble, France. Quaero.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "D\u00e9tection et correction automatique d'erreurs d'annotation morpho-syntaxique du french treebank", "authors": [ { "first": "F", "middle": [], "last": "Boudin", "suffix": "" }, { "first": "N", "middle": [], "last": "Hernandez", "suffix": "" } ], "year": 2012, "venue": "Proceedings of the Joint Conference JEP-TALN-RECITAL 2012", "volume": "2", "issue": "", "pages": "281--291", "other_ids": {}, "num": null, "urls": [], "raw_text": "BOUDIN, F. et HERNANDEZ, N. (2012). D\u00e9tection et correction automatique d'erreurs d'an- notation morpho-syntaxique du french treebank. In Proceedings of the Joint Conference JEP-TALN-RECITAL 2012, volume 2 : TALN, pages 281-291, Grenoble, France. ATALA/AFCP.", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "Some advances in rule-based part of speech tagging", "authors": [ { "first": "E", "middle": [], "last": "Brill", "suffix": "" } ], "year": 1994, "venue": "Proceedings of the Twelfth National Conference on Artificial Intelligence (AAAI)", "volume": "", "issue": "", "pages": "722--727", "other_ids": {}, "num": null, "urls": [], "raw_text": "BRILL, E. (1994). Some advances in rule-based part of speech tagging. In Proceedings of the Twelfth National Conference on Artificial Intelligence (AAAI), pages 722-727.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "Le corpus Sequoia : annotation syntaxique et exploitation pour l'adaptation d'analyseur par pont lexical", "authors": [ { "first": "M", "middle": [], "last": "Candito", "suffix": "" }, { "first": "D", "middle": [], "last": "Seddah", "suffix": "" } ], "year": 2012, "venue": "19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CANDITO, M. et SEDDAH, D. (2012). Le corpus Sequoia : annotation syn- taxique et exploitation pour l'adaptation d'analyseur par pont lexical. In 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles, Grenoble, France.", "links": null }, "BIBREF7": { "ref_id": "b7", "title": "Statistical french dependency parsing : Treebank conversion and first results", "authors": [ { "first": "M.-H", "middle": [], "last": "Candito", "suffix": "" }, { "first": "B", "middle": [], "last": "Crabb\u00e9", "suffix": "" }, { "first": "P", "middle": [], "last": "Denis", "suffix": "" } ], "year": 2010, "venue": "Proceedings of LREC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CANDITO, M.-H., CRABB\u00c9, B. et DENIS, P. (2010a). Statistical french dependency parsing : Treebank conversion and first results. In Proceedings of LREC, Valletta, Malta.", "links": null }, "BIBREF8": { "ref_id": "b8", "title": "Benchmarking of statistical dependency parsers for french", "authors": [ { "first": "M.-H", "middle": [], "last": "Candito", "suffix": "" }, { "first": "J", "middle": [], "last": "Nivre", "suffix": "" }, { "first": "P", "middle": [], "last": "Denis", "suffix": "" }, { "first": "E", "middle": [ "H" ], "last": "Anguiano", "suffix": "" } ], "year": 2010, "venue": "COLING'2010 (poster session)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CANDITO, M.-H., NIVRE, J., DENIS, P. et ANGUIANO, E. H. (2010b). Benchmarking of statistical dependency parsers for french. In COLING'2010 (poster session), Beijing, China.", "links": null }, "BIBREF9": { "ref_id": "b9", "title": "Bootstrapping pos-taggers using unlabelled data", "authors": [ { "first": "S", "middle": [], "last": "Clark", "suffix": "" }, { "first": "J", "middle": [], "last": "Curran", "suffix": "" }, { "first": "M", "middle": [], "last": "Osborne", "suffix": "" }, { "first": "W", "middle": [], "last": "Daelemans", "suffix": "" }, { "first": "M", "middle": [], "last": "Osborne", "suffix": "" } ], "year": 2003, "venue": "\u00e9diteurs : Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003", "volume": "", "issue": "", "pages": "49--55", "other_ids": {}, "num": null, "urls": [], "raw_text": "CLARK, S., CURRAN, J. et OSBORNE, M. (2003). Bootstrapping pos-taggers using unlabelled data. In DAELEMANS, W. et OSBORNE, M., \u00e9diteurs : Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003, pages 49-55.", "links": null }, "BIBREF10": { "ref_id": "b10", "title": "Int\u00e9grer des connaissances linguistiques dans un CRF : application \u00e0 l'apprentissage d'un segmenteur\u00e9tiqueteur du fran\u00e7ais", "authors": [ { "first": "M", "middle": [], "last": "Constant", "suffix": "" }, { "first": "I", "middle": [], "last": "Tellier", "suffix": "" }, { "first": "D", "middle": [], "last": "Duchier", "suffix": "" }, { "first": "Y", "middle": [], "last": "Dupont", "suffix": "" }, { "first": "A", "middle": [], "last": "Sigogne", "suffix": "" }, { "first": "S", "middle": [], "last": "Billot", "suffix": "" } ], "year": 2011, "venue": "Actes de la 18e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2011)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CONSTANT, M., TELLIER, I., DUCHIER, D., DUPONT, Y., SIGOGNE, A. et BILLOT, S. (2011). Int\u00e9grer des connaissances linguistiques dans un CRF : application \u00e0 l'apprentissage d'un segmenteur- \u00e9tiqueteur du fran\u00e7ais. In Actes de la 18e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2011), Montpellier, France.", "links": null }, "BIBREF11": { "ref_id": "b11", "title": "Exp\u00e9riences d'analyse syntaxique statistique du fran\u00e7ais", "authors": [ { "first": "B", "middle": [], "last": "Crabb\u00e9", "suffix": "" }, { "first": "M", "middle": [], "last": "Candito", "suffix": "" } ], "year": 2008, "venue": "Actes de la 15\u00e8me conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CRABB\u00c9, B. et CANDITO, M. (2008). Exp\u00e9riences d'analyse syntaxique statistique du fran\u00e7ais. In Actes de la 15\u00e8me conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN), Avignon, France.", "links": null }, "BIBREF12": { "ref_id": "b12", "title": "Vers le FDTB : French Discourse Tree Bank", "authors": [ { "first": "L", "middle": [], "last": "Danlos", "suffix": "" }, { "first": "D", "middle": [], "last": "Antolinos-Basso", "suffix": "" }, { "first": "C", "middle": [], "last": "Braud", "suffix": "" }, { "first": "C", "middle": [], "last": "Roze", "suffix": "" } ], "year": 2012, "venue": "Actes de la 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN)", "volume": "", "issue": "", "pages": "471--478", "other_ids": {}, "num": null, "urls": [], "raw_text": "DANLOS, L., ANTOLINOS-BASSO, D., BRAUD, C. et ROZE, C. (2012). Vers le FDTB : French Discourse Tree Bank. In Actes de la 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN), pages 471-478, Grenoble, France.", "links": null }, "BIBREF13": { "ref_id": "b13", "title": "Un \u00e9tiqueteur de r\u00f4les grammaticaux libre pour le fran\u00e7ais int\u00e9gr\u00e9 \u00e0 Apache UIMA", "authors": [ { "first": "C", "middle": [], "last": "Dejean", "suffix": "" }, { "first": "M", "middle": [], "last": "Fortun", "suffix": "" }, { "first": "C", "middle": [], "last": "Massot", "suffix": "" }, { "first": "V", "middle": [], "last": "Pottier", "suffix": "" }, { "first": "F", "middle": [], "last": "Poulard", "suffix": "" }, { "first": "M", "middle": [], "last": "Vernier", "suffix": "" } ], "year": 2010, "venue": "Actes de la 17e Conf\u00e9rence sur le Traitement Automatique des Langues Naturelles", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "DEJEAN, C., FORTUN, M., MASSOT, C., POTTIER, V., POULARD, F. et VERNIER, M. (2010). Un \u00e9tiqueteur de r\u00f4les grammaticaux libre pour le fran\u00e7ais int\u00e9gr\u00e9 \u00e0 Apache UIMA. In Actes de la 17e Conf\u00e9rence sur le Traitement Automatique des Langues Naturelles, Montr\u00e9al, Canada.", "links": null }, "BIBREF14": { "ref_id": "b14", "title": "Exploitation d'une ressource lexicale pour la construction d'un \u00e9tiqueteur morpho-syntaxique \u00e9tat-de-l'art du fran\u00e7ais", "authors": [ { "first": "P", "middle": [], "last": "Denis", "suffix": "" }, { "first": "B", "middle": [], "last": "Sagot", "suffix": "" } ], "year": 2010, "venue": "Actes de la 17e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2010)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "DENIS, P. et SAGOT, B. (2010). Exploitation d'une ressource lexicale pour la construction d'un \u00e9tiqueteur morpho-syntaxique \u00e9tat-de-l'art du fran\u00e7ais. In Actes de la 17e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2010), Montr\u00e9al, Canada.", "links": null }, "BIBREF15": { "ref_id": "b15", "title": "Detecting errors in part-of-speech annotation", "authors": [ { "first": "M", "middle": [], "last": "Dickinson", "suffix": "" }, { "first": "W", "middle": [ "D" ], "last": "Meurers", "suffix": "" } ], "year": 2003, "venue": "Proceedings of the 10th Conference of the European Chapter of the Association for Computational Linguistics (EACL-03)", "volume": "", "issue": "", "pages": "107--114", "other_ids": {}, "num": null, "urls": [], "raw_text": "DICKINSON, M. et MEURERS, W. D. (2003). Detecting errors in part-of-speech annotation. In Proceedings of the 10th Conference of the European Chapter of the Association for Computational Linguistics (EACL-03), pages 107-114, Budapest, Hungary.", "links": null }, "BIBREF16": { "ref_id": "b16", "title": "Influence of pre-annotation on pos-tagged corpus development", "authors": [ { "first": "K", "middle": [], "last": "Fort", "suffix": "" }, { "first": "B", "middle": [], "last": "Sagot", "suffix": "" } ], "year": 2010, "venue": "Proceedings of the Fourth Linguistic Annotation Workshop", "volume": "", "issue": "", "pages": "56--63", "other_ids": {}, "num": null, "urls": [], "raw_text": "FORT, K. et SAGOT, B. (2010). Influence of pre-annotation on pos-tagged corpus development. In Proceedings of the Fourth Linguistic Annotation Workshop, pages 56-63, Uppsala, Sweden. Association for Computational Linguistics.", "links": null }, "BIBREF17": { "ref_id": "b17", "title": "Fully parsing the penn treebank", "authors": [ { "first": "R", "middle": [], "last": "Gabbard", "suffix": "" }, { "first": "M", "middle": [], "last": "Marcus", "suffix": "" }, { "first": "S", "middle": [], "last": "Kulick", "suffix": "" } ], "year": 2006, "venue": "Proceedings of the main conference on Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics, HLT-NAACL '06", "volume": "", "issue": "", "pages": "184--191", "other_ids": {}, "num": null, "urls": [], "raw_text": "GABBARD, R., MARCUS, M. et KULICK, S. (2006). Fully parsing the penn treebank. In Proceedings of the main conference on Human Language Technology Conference of the North American Chapter of the Association of Computational Linguistics, HLT-NAACL '06, pages 184-191, Stroudsburg, PA, USA. Association for Computational Linguistics.", "links": null }, "BIBREF18": { "ref_id": "b18", "title": "Multiword expression identification with tree substitution grammars : A parsing tour de force with french", "authors": [ { "first": "S", "middle": [], "last": "Green", "suffix": "" }, { "first": "Marneffe", "middle": [], "last": "De", "suffix": "" }, { "first": "M.-C", "middle": [], "last": "Bauer", "suffix": "" }, { "first": "J", "middle": [], "last": "Manning", "suffix": "" }, { "first": "C", "middle": [ "D" ], "last": "", "suffix": "" } ], "year": 2011, "venue": "EMNLP", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "GREEN, S., de MARNEFFE, M.-C., BAUER, J. et MANNING, C. D. (2011). Multiword expression identification with tree substitution grammars : A parsing tour de force with french. In EMNLP.", "links": null }, "BIBREF19": { "ref_id": "b19", "title": "Handbook of Natural Language Processing, chapitre Treebank Annotation", "authors": [ { "first": "E", "middle": [], "last": "Haji\u010dov\u00e1", "suffix": "" }, { "first": "A", "middle": [], "last": "Abeill\u00e9", "suffix": "" }, { "first": "J", "middle": [], "last": "Haji\u010d", "suffix": "" }, { "first": "J", "middle": [], "last": "Mirovsk\u00fd", "suffix": "" }, { "first": "Z", "middle": [], "last": "Ure\u0161ov\u00e1", "suffix": "" } ], "year": 2010, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "HAJI\u010cOV\u00c1, E., ABEILL\u00c9, A., HAJI\u010c, J., MIROVSK\u00dd, J. et URE\u0160OV\u00c1, Z. (2010). Handbook of Natural Language Processing, chapitre Treebank Annotation. Chapman & Hall/CRC.", "links": null }, "BIBREF20": { "ref_id": "b20", "title": "Europarl : A parallel corpus for statistical machine translation", "authors": [ { "first": "P", "middle": [], "last": "Koehn", "suffix": "" } ], "year": 2005, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "KOEHN, P. (2005). Europarl : A parallel corpus for statistical machine translation. In MT Summit.", "links": null }, "BIBREF21": { "ref_id": "b21", "title": "Correcting a POS-tagged corpus using three complementary methods", "authors": [ { "first": "H", "middle": [], "last": "Loftsson", "suffix": "" } ], "year": 2009, "venue": "Proceedings of the 12th Conference of the European Chapter of the ACL (EACL 2009)", "volume": "", "issue": "", "pages": "523--531", "other_ids": {}, "num": null, "urls": [], "raw_text": "LOFTSSON, H. (2009). Correcting a POS-tagged corpus using three complementary methods. In Proceedings of the 12th Conference of the European Chapter of the ACL (EACL 2009), pages 523-531, Athens, Greece. Association for Computational Linguistics.", "links": null }, "BIBREF22": { "ref_id": "b22", "title": "Developing a pos-tagged corpus using existing tools", "authors": [ { "first": "H", "middle": [], "last": "Loftsson", "suffix": "" }, { "first": "J", "middle": [ "H" ], "last": "Yngvason", "suffix": "" }, { "first": "S", "middle": [], "last": "Helgad\u00f3ttir", "suffix": "" }, { "first": "E", "middle": [], "last": "R\u00f6gnvaldsson", "suffix": "" } ], "year": 2010, "venue": "Proceedings of LREC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LOFTSSON, H., YNGVASON, J. H., HELGAD\u00d3TTIR, S. et R\u00d6GNVALDSSON, E. (2010). Developing a pos-tagged corpus using existing tools. In Proceedings of LREC.", "links": null }, "BIBREF23": { "ref_id": "b23", "title": "Building a large annotated corpus of english : the penn treebank", "authors": [ { "first": "M", "middle": [ "P" ], "last": "Marcus", "suffix": "" }, { "first": "M", "middle": [ "A" ], "last": "Marcinkiewicz", "suffix": "" }, { "first": "B", "middle": [], "last": "Santorini", "suffix": "" } ], "year": 1993, "venue": "Computational Linguistics", "volume": "19", "issue": "2", "pages": "313--330", "other_ids": {}, "num": null, "urls": [], "raw_text": "MARCUS, M. P., MARCINKIEWICZ, M. A. et SANTORINI, B. (1993). Building a large annotated corpus of english : the penn treebank. Computational Linguistics, 19(2):313-330.", "links": null }, "BIBREF24": { "ref_id": "b24", "title": "Macaon : Une cha\u00eene linguistique pour le traitement de graphes de mots", "authors": [ { "first": "A", "middle": [], "last": "Nasr", "suffix": "" }, { "first": "F", "middle": [], "last": "B\u00e9chet", "suffix": "" }, { "first": "J.-F", "middle": [], "last": "Rey", "suffix": "" } ], "year": 2010, "venue": "Traitement Automatique des Langues Naturelles -session de d\u00e9monstrations", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "NASR, A., B\u00c9CHET, F. et REY, J.-F. (2010). Macaon : Une cha\u00eene linguistique pour le traite- ment de graphes de mots. In Traitement Automatique des Langues Naturelles -session de d\u00e9monstrations, Montr\u00e9al.", "links": null }, "BIBREF25": { "ref_id": "b25", "title": "Reinventing Discovery : The New Era of Networked Science", "authors": [ { "first": "M", "middle": [], "last": "Nielsen", "suffix": "" } ], "year": 2011, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "NIELSEN, M. (2011). Reinventing Discovery : The New Era of Networked Science. Princeton, N.J. Princeton University Press.", "links": null }, "BIBREF26": { "ref_id": "b26", "title": "Annotation r\u00e9f\u00e9rentielle du Corpus Arbor\u00e9 de Paris 7 en entit\u00e9s nomm\u00e9es", "authors": [ { "first": "B", "middle": [], "last": "Sagot", "suffix": "" }, { "first": "M", "middle": [], "last": "Richard", "suffix": "" }, { "first": "R", "middle": [], "last": "Stern", "suffix": "" } ], "year": 2012, "venue": "Actes de la 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN)", "volume": "", "issue": "", "pages": "535--542", "other_ids": {}, "num": null, "urls": [], "raw_text": "SAGOT, B., RICHARD, M. et STERN, R. (2012). Annotation r\u00e9f\u00e9rentielle du Corpus Arbor\u00e9 de Paris 7 en entit\u00e9s nomm\u00e9es. In Actes de la 19e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN), pages 535-542, Grenoble, France.", "links": null }, "BIBREF27": { "ref_id": "b27", "title": "La FReeBank : vers une base libre de corpus annot\u00e9s", "authors": [ { "first": "S", "middle": [], "last": "Salmon-Alt", "suffix": "" }, { "first": "E", "middle": [], "last": "Bick", "suffix": "" }, { "first": "L", "middle": [], "last": "Romary", "suffix": "" }, { "first": "J.-M", "middle": [], "last": "Pierrel", "suffix": "" } ], "year": 2004, "venue": "Traitement Automatique des Langues Naturelles -TALN'04", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SALMON-ALT, S., BICK, E., ROMARY, L. et PIERREL, J.-M. (2004). La FReeBank : vers une base libre de corpus annot\u00e9s. In Traitement Automatique des Langues Naturelles -TALN'04, F\u00e8s, Maroc.", "links": null }, "BIBREF28": { "ref_id": "b28", "title": "Preparing, restructuring, and augmenting a french treebank : lexicalised parsers or coherent treebanks ?", "authors": [ { "first": "N", "middle": [], "last": "Schluter", "suffix": "" }, { "first": "J", "middle": [], "last": "Van Genabith", "suffix": "" } ], "year": 2007, "venue": "Proceedings of the 10th Conference of the Pacific Association for Computational Linguistics (PACLING)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SCHLUTER, N. et van GENABITH, J. (2007). Preparing, restructuring, and augmenting a french treebank : lexicalised parsers or coherent treebanks ? In Proceedings of the 10th Conference of the Pacific Association for Computational Linguistics (PACLING), Melbourne, Australia.", "links": null }, "BIBREF29": { "ref_id": "b29", "title": "Probabilistic part-of-speech tagging using decision trees", "authors": [ { "first": "H", "middle": [], "last": "Schmid", "suffix": "" } ], "year": 1994, "venue": "Proceedings of the Conference on New Methods in Language Processing", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SCHMID, H. (1994). Probabilistic part-of-speech tagging using decision trees. In Proceedings of the Conference on New Methods in Language Processing, Manchester, UK.", "links": null }, "BIBREF30": { "ref_id": "b30", "title": "Feature-rich part-of-speech tagging with a cyclic dependency network", "authors": [ { "first": "K", "middle": [], "last": "Toutanova", "suffix": "" }, { "first": "D", "middle": [], "last": "Klein", "suffix": "" }, { "first": "C", "middle": [], "last": "Manning", "suffix": "" }, { "first": "Y", "middle": [], "last": "Singer", "suffix": "" } ], "year": 2003, "venue": "Proceedings of the 3rd Conference of the North American Chapter of the ACL (NAACL 2003)", "volume": "", "issue": "", "pages": "173--180", "other_ids": {}, "num": null, "urls": [], "raw_text": "TOUTANOVA, K., KLEIN, D., MANNING, C. et SINGER, Y. (2003). Feature-rich part-of-speech tagging with a cyclic dependency network. In Proceedings of the 3rd Conference of the North American Chapter of the ACL (NAACL 2003), pages 173-180. Association for Computational Linguistics.", "links": null }, "BIBREF31": { "ref_id": "b31", "title": "Etiquetage grammatical multilingue : le projet multext", "authors": [ { "first": "J", "middle": [], "last": "V\u00e9ronis", "suffix": "" }, { "first": "L", "middle": [], "last": "Khouri", "suffix": "" } ], "year": 1995, "venue": "Traitement Automatique des Langues", "volume": "36", "issue": "1", "pages": "233--248", "other_ids": {}, "num": null, "urls": [], "raw_text": "V\u00c9RONIS, J. et KHOURI, L. (1995). Etiquetage grammatical multilingue : le projet multext. Traitement Automatique des Langues, 36(1/2):233-248.", "links": null } }, "ref_entries": { "FIGREF0": { "num": null, "type_str": "figure", "uris": null, "text": "Apprentissage d'un mod\u00e8le \u00e0 partir de donn\u00e9es automatiquement annot\u00e9es." }, "TABREF1": { "num": null, "content": "
5. Les donn\u00e9es annot\u00e9es sont des textes mono-genres vieux de pr\u00e8s de vingt ans encod\u00e9s en ISO-8859-1. On peut se poser la question de la robustesse et de la pr\u00e9cision des syst\u00e8mes entra\u00een\u00e9s sur ceux-ci pour traiter des textes plus r\u00e9cents (qui pr\u00e9sentent de nouveaux ph\u00e9nom\u00e8nes linguistiques et des caract\u00e8res encod\u00e9s en UTF-8, qui est le standard de facto aujourd'hui pour encoder des textes en fran\u00e7ais) et/ou de genre diff\u00e9rent. 6. M\u00eame s'il constitue le plus gros corpus annot\u00e9 disponible pour le fran\u00e7ais, on peut s'inter-roger sur la repr\u00e9sentativit\u00e9 d'un corpus d'un demi-million de mots pour la construction de syst\u00e8mes automatiques. A titre de comparaison, le Penn Treebank compte en corpus \u00e9crits pr\u00e8s de 2,4 millions de mots annot\u00e9s morphologiquement et syntaxiquement et couvrent le domaine journalistique (Wall Street Journal) et l'anglais g\u00e9n\u00e9ral (Brown). Comparativement, PAROLE et MULTEXT JOC ont aussi des licences restrictives, le Sequoia offre quant \u00e0 lui le plus de libert\u00e9s 10 aux utilisateurs. Aucun des corpus n'est de taille comparable \u00e0 celle du P7T. Ils comptent respectivement 250 000, 200 000 et 72 311 mots annot\u00e9s morpho-syntaxiquement. Except\u00e9 en partie pour le Sequoia, les textes datent des ann\u00e9es 80 et 90. Dans cet article, nous r\u00e9-ouvrons la question de la construction de corpus annot\u00e9s libres en fran\u00e7ais. Une conjoncture \u00e0 la fois soci\u00e9tale, politique, technique et scientifique nous y conduit. En effet nous b\u00e9n\u00e9ficions aujourd'hui d'au moins deux sources de contenu libres et multilingues, en croissance perp\u00e9tuelle et comptant d\u00e9j\u00e0 plusieurs millions de mots, \u00e0 savoir les projets de 9. Nous nous situons dans une d\u00e9marche de recherche scientifique \u00abouverte\u00bb (Nielsen, 2011). (Wikipedia, Wikinews. . .) et les actes du Parlement Europ\u00e9en 12 10. LGPL-LR (la Wikimedia Foundation 11 (Europarl) tels que remani\u00e9s par
", "html": null, "type_str": "table", "text": "Lesser General Public License For Linguistic Resources). Les auteurs ne pr\u00e9cisent pas l'objet d\u00e9sign\u00e9 par la licence. Celle-ci doit se restreindre aux annotations produites et ne peut comprendre les textes. Le corpus est compos\u00e9 de textes de quatre origines. On note que le journal Est R\u00e9publicain diffus\u00e9 par le CNRTL est sous licence CC-BY-NC-SA 2.0 FR qui par sa clause de non-diffusion commerciale s'oppose \u00e0 la LGPL-LR. La licence de wikipedia (CC-BY-SA 3.0) ne semble pas contredire cette licence. La licence de Europarl et de EMEA manque de pr\u00e9cision sur les droits d'usage mais autorise la reproduction." }, "TABREF2": { "num": null, "content": "", "html": null, "type_str": "table", "text": "Olonne elles sont au nombre de 13, les auteurs montrent que les performances d'un \u00e9tiqueteur entra\u00een\u00e9 sur de telles annotations sont meilleures. Par ailleurs, son utilisation facilite l'acc\u00e8s \u00e0 d'autres ressources tels que les analyseurs syntaxiques statistiques en d\u00e9pendance du fran\u00e7ais qui ont d\u00e9j\u00e0 \u00e9t\u00e9 d\u00e9velopp\u00e9s \u00e0 partir de ce jeu d'\u00e9tiquettes15 (MaltParser, MSTParser, Berkeley Parser)" }, "TABREF3": { "num": null, "content": "
", "html": null, "type_str": "table", "text": "Le P7T fournit des analyses linguistiques qui reposent sur une segmentation en mots simples et en mots compos\u00e9s. Les mots composant les compos\u00e9s (nous appelons \u00abmots composants\u00bb les mots qui composent les mots compos\u00e9s) sont signal\u00e9s mais seulement un sous-ensemble b\u00e9n\u00e9ficie d'une cat\u00e9gorie grammaticale et aucun d'eux ne b\u00e9n\u00e9ficie des autres traits (sous-cat\u00e9gorie, flexions morphologiques et lemme). Except\u00e9 le lemme, ces traits sont requis pour la conversion en P7T+.La notion de compos\u00e9 dans le P7T est tr\u00e8s large (cf. note 8). La composition se justifie par des crit\u00e8res aussi bien graphiques que morphologiques, syntaxiques et s\u00e9mantiques. La segmentation en unit\u00e9s lexicales n'est pas un probl\u00e8me trivial. De nombreuses marques de ponctuation (apostrophe, virgule, tiret, point et espace) sont ambigu\u00ebs, et suivant la situation, jouent le r\u00f4le de joint ou de s\u00e9parateur. Cela conduit la majorit\u00e9 des syst\u00e8mes de segmentation(Beno\u00eet et Boullier, 2008;Nasr et al., 2010;Constant et al., 2011) \u00e0 exploiter, en compl\u00e9ment de r\u00e8gles g\u00e9n\u00e9rales, des listes de formes finies ou r\u00e9guli\u00e8res \u00e0 consid\u00e9rer comme unit\u00e9s lexicales. La segmentation en compos\u00e9s du P7T r\u00e9sulte d'un processus d'annotation \u00e0 la fois manuel et \u00e0 base de lexiques non pr\u00e9cis\u00e9ment r\u00e9f\u00e9renc\u00e9s. Outre la difficult\u00e9 \u00e0 reproduire automatiquement cette segmentation, il n'y a pas d'enjeu \u00e0 chercher \u00e0 le faire car celle-ci est avant tout ad hoc \u00e0 une p\u00e9riode et un genre de textes. Motiv\u00e9s par la volont\u00e9 d'entra\u00eener des analyseurs robustes afin de pouvoir traiter des textes pour lesquels des dictionnaires de mots compos\u00e9s ne seraient pas disponibles, nous avons souhait\u00e9 nous abstraire au maximum de la notion de compos\u00e9 du P7T. Nous n'avons ainsi consid\u00e9r\u00e9 comme unit\u00e9s lexicales que les compos\u00e9s consistant en des unit\u00e9s graphiques exemptes d'espace ou ceux consistant en des formes num\u00e9rales r\u00e9guli\u00e8res (e.g. \u00ab20 000\u00bb, \u00ab50,12\u00bb, \u00abdeux cent vingt-et-un\u00bb), lesquelles peuvent admettre des espaces. Certains mots composants sont donc amen\u00e9s \u00e0 \u00eatre consid\u00e9r\u00e9s comme unit\u00e9s lexicales. Il en d\u00e9coule le besoin de d\u00e9terminer les traits morpho-syntaxiques manquants de ceux-ci afin de pouvoir leur affecter une \u00e9tiquette P7T+ (cf. section 2.3). Le P7T compte 6 791 lemmes distincts de mots compos\u00e9s qui ne sont pas des unit\u00e9s graphiques (i.e. ne contenant pas d'espace) soient 26 648 occurrences. 1 892 de ces lemmes de mots compos\u00e9s ont au moins un de leur composant sans \u00e9tiquette grammaticale. Cela repr\u00e9sente 7 795 occurrences. 1 106 n'ont aucune \u00e9tiquette \u00e0 leurs composants.Pour les donn\u00e9es autres que le P7T, nous utilisons dans nos exp\u00e9riences le segmenteur KEA 17 ." }, "TABREF5": { "num": null, "content": "
", "html": null, "type_str": "table", "text": "Scores de pr\u00e9cision sur les tokens, phrases et mots inconnus du Stanford POS tagger calcul\u00e9s \u00e0 partir du P7T+ en validation crois\u00e9e en 10 strates. Le minimum, le maximum et l'\u00e9cart type des scores calcul\u00e9s sur les 10 strates sont \u00e9galement report\u00e9s." }, "TABREF6": { "num": null, "content": "
Wikinews pos (1:1 P7T+)96,4644,4280,81
Wikinews pos (2:1 P7T+)96,7747,3580,08
Wikinews pos (3:1 P7T+)96,8848,5279,20
Wikinews pos (4:1 P7T+)96,97 \u202049,57 \u202078,20
TABLE 2 -Scores de pr\u00e9cision sur les tokens, phrases et mots inconnus du Stanford POS tagger
entra\u00een\u00e9 \u00e0 partir de Wikinews (annot\u00e9 automatiquement) et \u00e9valu\u00e9 sur le P7T+. Le ratio entre la
taille de l'ensemble d'entra\u00eenement et la taille du P7T+ est indiqu\u00e9 entre parenth\u00e8ses. Les scores
indiqu\u00e9s par le caract\u00e8re \u2020 n'ont pas de diff\u00e9rence statistiquement significative par rapport aux
scores obtenus par le mod\u00e8le entra\u00een\u00e9 sur le P7T+ (\u03c1 > 0,1 avec un t-test de Student).
Il est int\u00e9ressant de voir que la pr\u00e9cision sur les tokens et les phrases est en constante aug-
mentation par rapport \u00e0 la taille du corpus d'entra\u00eenement et ce, malgr\u00e9 un nombre d'erreurs
d'\u00e9tiquetage automatique obligatoirement \u00e0 la hausse. La pr\u00e9cision moyenne sur les mots incon-
nus est quant \u00e0 elle en diminution. N\u00e9anmoins, le nombre total d'erreurs commises sur les mots
inconnus est en nette diminution (7128 mots inconnus mal \u00e9tiquet\u00e9s avec le mod\u00e8le entra\u00een\u00e9
\u00e0 partir d'un facteur 1 du P7T+ contre 5168 avec le mod\u00e8le entra\u00een\u00e9 sur 100% Entra\u00eenement Pr\u00e9c. tokens Pr\u00e9c. phrases Pr\u00e9c. inconnus
Europarl pos (1:1 P7T+)95,8540,2279,45
Europarl pos (4:1 P7T+)96,5345,5177,46
Europarl pos (8:1 P7T+)96,7447,3876,68
Europarl pos (16:1 P7T+)96,93 \u202049,22 \u202175,81
Sequoia93,9928,4283,49
", "html": null, "type_str": "table", "text": "Dans une seconde s\u00e9rie d'exp\u00e9riences, nous \u00e9valuons la performance d'une m\u00e9thode d'\u00e9tiquetage morpho-syntaxique entra\u00een\u00e9e \u00e0 partir de donn\u00e9es automatiquement annot\u00e9es. Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans la table 2. Le mod\u00e8le entra\u00een\u00e9 sur la totalit\u00e9 de Wikinews pos obtient les meilleurs scores avec une pr\u00e9cision moyenne de 96,97% sur les tokens et de 49,74% sur les phrases. Il s'agit Wikinews pos ). On peut \u00e9galement constater qu'il faut une quantit\u00e9 bien plus importante de donn\u00e9es automatiquement annot\u00e9es que de donn\u00e9es manuellement annot\u00e9es, ici quatre fois plus, pour obtenir le m\u00eame niveau de performance." }, "TABREF7": { "num": null, "content": "", "html": null, "type_str": "table", "text": "Scores de pr\u00e9cision sur les tokens, phrases et mots inconnus du Stanford POS tagger entra\u00een\u00e9 \u00e0 partir de Europarl (annot\u00e9 automatiquement) et Sequoia (valid\u00e9 manuellement) et \u00e9valu\u00e9 sur le P7T+. Le ratio entre la taille de l'ensemble d'entra\u00eenement et la taille du FTB+ est indiqu\u00e9 entre parenth\u00e8ses. Les scores indiqu\u00e9s par le caract\u00e8re \u2020 (\u03c1 > 0,1 avec un t-test de Student) et \u2021 (\u03c1 > 0,05 avec un t-test de Student) n'ont pas de diff\u00e9rence statistiquement significative par rapport aux scores obtenus par le mod\u00e8le entra\u00een\u00e9 sur le P7T+." }, "TABREF8": { "num": null, "content": "
Entra\u00eenement FTB+94,0095,1094,8692,06 93,85
Wikinews pos93,5594,5694,6191,09 93,30
", "html": null, "type_str": "table", "text": "La troisi\u00e8me et derni\u00e8re exp\u00e9rience que nous avons men\u00e9e consiste \u00e0 \u00e9valuer la performance des mod\u00e8les entra\u00een\u00e9s \u00e0 partir de Wikinews pos et du P7T+ sur un corpus autre que le French TreeBank. Pour cela nous avons choisi le corpus Sequoia. Ce dernier est compos\u00e9 de phrases provenant de quatre origines : Europarl fran\u00e7ais, le journal l'Est R\u00e9publicain, Wikipedia Fr et des documents de l'Agence Europ\u00e9enne du M\u00e9dicament (EMEA). Les r\u00e9sultats sont pr\u00e9sent\u00e9s dans la table 4. D'une mani\u00e8re g\u00e9n\u00e9rale, les scores de pr\u00e9cisions sont plus faibles que ceux observ\u00e9s sur le P7T+. La taille tr\u00e8s restreinte de Sequoia (3204 phrases) ne permet cependant pas d'\u00e9tablir des conclusions. Les meilleurs scores sont obtenus sur les phrases provenant de l'Est R\u00e9publicain et les moins bons sur celles provenant de documents de l'EMEA (domaine m\u00e9dical). Il s'agit d'un comportement normal puisque les mod\u00e8les ont \u00e9t\u00e9 construits \u00e0 partir de phrases issues de documents journalistiques. Encore une fois, les r\u00e9sultats du mod\u00e8le entra\u00een\u00e9 sur Wikinews pos sont tr\u00e8s proches de ceux obtenus par le mod\u00e8le entra\u00een\u00e9 sur le P7T+." }, "TABREF9": { "num": null, "content": "", "html": null, "type_str": "table", "text": "Scores de pr\u00e9cision sur les tokens du Stanford POS tagger entra\u00een\u00e9 \u00e0 partir de Wikinews pos et du FTB+ et \u00e9valu\u00e9 sur le Sequoia. Les scores de pr\u00e9cision en fonction de l'origine des phrases sont \u00e9galement report\u00e9s." } } } }