{ "paper_id": "F14-1017", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T10:23:21.349452Z" }, "title": "Construire un corpus monolingue annot\u00e9 comparable Exp\u00e9rience \u00e0 partir d'un corpus annot\u00e9 morpho-syntaxiquement", "authors": [ { "first": "Nicolas", "middle": [], "last": "Hernandez", "suffix": "", "affiliation": { "laboratory": "LINA UMR 6241", "institution": "Universit\u00e9 de Nantes", "location": {} }, "email": "nicolas.hernandez@univ-nantes.fr" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "Motiv\u00e9 par la probl\u00e9matique de construction automatique d'un corpus annot\u00e9 morpho-syntaxiquement distinct d'un corpus source, nous proposons une d\u00e9finition g\u00e9n\u00e9rale et op\u00e9rationnelle de la relation de la comparabilit\u00e9 entre des corpus monolingues annot\u00e9s. Nous proposons une mesure de la relation de comparabilit\u00e9 et une proc\u00e9dure de construction d'un corpus comparable annot\u00e9 \u00e0 partir d'un corpus annot\u00e9 existant. Nous montrons que la mesure de la perplexit\u00e9 (th\u00e9orie de l'information) est un moyen de s\u00e9lectionner des phrases nouvelles pour construire un corpus comparable annot\u00e9 grammaticalement.", "pdf_parse": { "paper_id": "F14-1017", "_pdf_hash": "", "abstract": [ { "text": "Motiv\u00e9 par la probl\u00e9matique de construction automatique d'un corpus annot\u00e9 morpho-syntaxiquement distinct d'un corpus source, nous proposons une d\u00e9finition g\u00e9n\u00e9rale et op\u00e9rationnelle de la relation de la comparabilit\u00e9 entre des corpus monolingues annot\u00e9s. Nous proposons une mesure de la relation de comparabilit\u00e9 et une proc\u00e9dure de construction d'un corpus comparable annot\u00e9 \u00e0 partir d'un corpus annot\u00e9 existant. Nous montrons que la mesure de la perplexit\u00e9 (th\u00e9orie de l'information) est un moyen de s\u00e9lectionner des phrases nouvelles pour construire un corpus comparable annot\u00e9 grammaticalement.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "La question de construction de corpus comparables est souvent abord\u00e9e dans le contexte applicatif d'extraction terminologique multilingue 1 (Bo et al., 2011) . Cette question a aussi son importance dans un contexte monolingue o\u00f9 l'on peut vouloir construire un corpus avec des propri\u00e9t\u00e9s linguistiques similaires \u00e0 un corpus source. En effet, il n'est pas rare pour un chercheur de souhaiter diffuser des corpus et des r\u00e9sultats d'analyse associ\u00e9s et ce, afin de permettre \u00e0 ses pairs de v\u00e9rifier ou de poursuivre ses exp\u00e9riences (Nielsen, 2011) . N\u00e9anmoins, en pratique ce type d'ambition se trouve souvent compromis pour des questions de droit visant la protection de donn\u00e9es personnelles ou le respect d'une licence d'exploitation associ\u00e9e aux donn\u00e9es utilis\u00e9es.", "cite_spans": [ { "start": 138, "end": 157, "text": "1 (Bo et al., 2011)", "ref_id": null }, { "start": 530, "end": 545, "text": "(Nielsen, 2011)", "ref_id": "BIBREF12" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Dans ce travail, nous nous situons dans un contexte monolingue avec comme contraintes de ne pas pouvoir diffuser tout ou partie d'un corpus source mais d'avoir \u00e0 disposition un corpus, que nous appellerons corpus relais, de taille importante et ne pr\u00e9sentant pas les restrictions d'exploitation du corpus source. Dans ce cadre, nous explorons la possibilit\u00e9 de construire un corpus comparable au corpus source \u00e0 partir d'extraits du corpus relais. Nous postulons que la d\u00e9termination de la relation de comparabilit\u00e9 entre deux corpus est fonction du traitement d'analyse (e.g. segmentation en mots, \u00e9tiquetage morpho-syntaxique, reconnaissance des entit\u00e9s nomm\u00e9es. . . ) \u00e0 laquelle on destine ces corpus. Plus pr\u00e9cis\u00e9ment nous qualifierons de comparables 2 des corpus \u00e0 partir desquels on peut construire des mod\u00e9lisations 3 pour un traitement donn\u00e9, qui produisent des performances \u00e9quivalentes lorsqu'elles sont \u00e9valu\u00e9es sur un corpus tiers.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Dans cet article, nous nous int\u00e9ressons au probl\u00e8me de comparabilit\u00e9 en termes d'annotation morpho-syntaxiques. Nous supposons \u00e0 disposition un corpus source annot\u00e9 morpho-syntaxiquement. Nous nous interrogeons sur la possibilit\u00e9 de construire automatiquement un corpus comparable distinct \u00e0 partir duquel on puisse entra\u00eener un \u00e9tiqueteur dont la performance ne sera statistiquement pas diff\u00e9rente de celle d'un \u00e9tiqueteur construit \u00e0 partir du corpus source.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Ce travail poursuit les travaux de (Hernandez & Boudin, 2013) qui ont montr\u00e9 qu'un \u00e9tiqueteur entra\u00een\u00e9 sur un corpus annot\u00e9 automatiquement pouvait obtenir des performances statistiquement non diff\u00e9rentes d'un \u00e9tiqueteur entra\u00een\u00e9 sur un corpus annot\u00e9 valid\u00e9 manuellement, et ce pourvu que la quantit\u00e9 de donn\u00e9es d'entra\u00eenement f\u00fbt suffisante. En d'autres termes, les auteurs ont montr\u00e9 que sous certaines conditions un corpus avec une annotation manuellement valid\u00e9e et un corpus automatiquement annot\u00e9 pouvaient \u00eatre comparables. Nous nous posons ici la question de savoir si l'observation tenue par (Hernandez & Boudin, 2013) repose seulement sur la quantit\u00e9 des donn\u00e9es d'entra\u00eenement ou bien si une s\u00e9lection \u00e9clair\u00e9e des phrases d'entra\u00eenement pourrait conduire au m\u00eame r\u00e9sultat.", "cite_spans": [ { "start": 35, "end": 61, "text": "(Hernandez & Boudin, 2013)", "ref_id": "BIBREF7" }, { "start": 601, "end": 627, "text": "(Hernandez & Boudin, 2013)", "ref_id": "BIBREF7" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Dans la section 2, nous proposons une d\u00e9finition g\u00e9n\u00e9rale et op\u00e9rationnelle de la notion de comparabilit\u00e9. Nous l'accompagnons d'une proposition d'une proc\u00e9dure g\u00e9n\u00e9rique visant la construction d'un corpus comparable. A la section 3, nous instancions notre r\u00e9flexion sur la probl\u00e9matique de construction d'un corpus comparable annot\u00e9 morpho-syntaxiquement en mettant notamment en avant la possibilit\u00e9 d'utiliser la mesure de perplexit\u00e9 sur les mots (th\u00e9orie de l'information) comme moyen d'ordonner les phrases \u00e0 s\u00e9lectionner pour constituer un corpus comparable. Apr\u00e8s avoir d\u00e9crit notre cadre exp\u00e9rimental \u00e0 la section 4, nous rapportons \u00e0 la section 5 les r\u00e9sultats d'exp\u00e9riences de construction men\u00e9es \u00e0 partir de diff\u00e9rents corpus relais. Enfin nous discutons notre approche par rapport \u00e0 l'existant 6.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Nous posons qu'un corpus peut \u00eatre vu comme un ensemble d'unit\u00e9s textuelles et que ses unit\u00e9s illustrent des ph\u00e9nom\u00e8nes linguistiques de diff\u00e9rentes natures (lexicales, syntaxiques, s\u00e9mantiques, stylistiques, discursives. . . ). Un traitement d'analyse sera sensible \u00e0 un sous-ensemble d\u00e9fini de ces ph\u00e9nom\u00e8nes. Par exemple, la pr\u00e9diction d'une \u00e9tiquette grammaticale pour un mot donn\u00e9 peut \u00eatre fonction des \u00e9l\u00e9ments lexicaux et flexionnels des mots qui le pr\u00e9c\u00e8dent. Le r\u00e9sultat du traitement sera fonction d'une part d'une mod\u00e9lisation des ph\u00e9nom\u00e8nes, construite a priori par l'observation de ceux-ci au sein d'un corpus d'entra\u00eenement et d'autre part, de l'observation de la distribution de ces ph\u00e9nom\u00e8nes dans le corpus nouvellement analys\u00e9. Pour la t\u00e2che d'\u00e9tiquetage grammatical d'un mot, la s\u00e9lection des trois derniers caract\u00e8res du mot qui pr\u00e9c\u00e8de pourra constituer une observation ; sa probabilit\u00e9 d'occurrence pour pr\u00e9dire une certaine \u00e9tiquette constituera une mod\u00e9lisation. La nature des unit\u00e9s textuelles manipul\u00e9es est contrainte par le type d'information que le traitement d'analyse requiert en entr\u00e9e. Pour l'\u00e9tiquetage grammatical c'est g\u00e9n\u00e9ralement la phrase.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Corpus comparables monolingues", "sec_num": "2" }, { "text": "Soient trois corpus \u00e0 disposition : un corpus source S pour lequel on veut construire un corpus comparable, un corpus relais R dont on souhaite extraire le corpus comparableR et un corpus de r\u00e9f\u00e9rence Q sur lequel on peut \u00e9valuer et comparer des mod\u00e9lisations construites \u00e0 partir du corpus source et d'extraits du corpus relais. Soit t un traitement d'analyse. Soient F t l'ensemble des ph\u00e9nom\u00e8nes discriminants pour la t\u00e2che t. Soient o(F t ,R) et o(F t , S), les observations que l'on peut faire de F t (selon une m\u00eame proc\u00e9dure) respectivement dans les corpusR et S. Soient m(o(F t ,R)) et m(o(F t , S)), des mod\u00e9lisations construites selon une m\u00eame proc\u00e9dure et qui capturent la distribution des ph\u00e9nom\u00e8nes discriminants pour la t\u00e2che t respectivement sur les corpusR et S. Nous noterons cardR(x) et card S (x) le nombre d'occurrences du ph\u00e9nom\u00e8ne linguistique x observ\u00e9s respectivement dans les corpusR et S.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Corpus comparables monolingues", "sec_num": "2" }, { "text": "Nous \u00e9non\u00e7ons qu'un corpusR est dit comparable \u00e0 un corpus S (i.e.R C S) si l'on peut observer les propri\u00e9t\u00e9s suivantes :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Propri\u00e9t\u00e9s d'un corpus en relation de comparabilit\u00e9 avec un autre corpus", "sec_num": "2.1" }, { "text": "Propri\u00e9t\u00e9 S etR ne sont pas constitu\u00e9s des m\u00eames unit\u00e9s textuelles.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Propri\u00e9t\u00e9s d'un corpus en relation de comparabilit\u00e9 avec un autre corpus", "sec_num": "2.1" }, { "text": "EQUATION", "cite_spans": [], "ref_spans": [], "eq_spans": [ { "start": 0, "end": 8, "text": "EQUATION", "ref_id": "EQREF", "raw_str": "S =R \u21d4 \u2200u, unit\u00e9 textuelle, (u \u2208 S =\u21d2 u \u2208R) \u2227 (u \u2208R =\u21d2 u \u2208 S)", "eq_num": "(1)" } ], "section": "Propri\u00e9t\u00e9s d'un corpus en relation de comparabilit\u00e9 avec un autre corpus", "sec_num": "2.1" }, { "text": "Propri\u00e9t\u00e9 Les ph\u00e9nom\u00e8nes linguistiques discriminants pour la t\u00e2che t observ\u00e9s dans les unit\u00e9s de S sont aussi observ\u00e9s dans celles deR,", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Propri\u00e9t\u00e9s d'un corpus en relation de comparabilit\u00e9 avec un autre corpus", "sec_num": "2.1" }, { "text": "EQUATION", "cite_spans": [], "ref_spans": [], "eq_spans": [ { "start": 0, "end": 8, "text": "EQUATION", "ref_id": "EQREF", "raw_str": "o(F t , S) \u2286 o(F t ,R) \u21d4 \u2200x, (x \u2208 o(F t , S) \u21d2 x \u2208 o(F t ,R))", "eq_num": "(2)" } ], "section": "Propri\u00e9t\u00e9s d'un corpus en relation de comparabilit\u00e9 avec un autre corpus", "sec_num": "2.1" }, { "text": "Propri\u00e9t\u00e9 . . . et ce, dans les m\u00eames proportions 4 .", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Propri\u00e9t\u00e9s d'un corpus en relation de comparabilit\u00e9 avec un autre corpus", "sec_num": "2.1" }, { "text": "\u2200x \u2208 o(F t , S), \u2200y \u2208 o(F t ,R), (x = y \u21d2 card S (x) = \u03bb * cardR(y)) avec \u03bb > 0 (3)", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Propri\u00e9t\u00e9s d'un corpus en relation de comparabilit\u00e9 avec un autre corpus", "sec_num": "2.1" }, { "text": "En pratique, il n'est pas simple de mesurer ces propri\u00e9t\u00e9s. La raison principale vient du fait qu'il n'est pas ais\u00e9 d'appr\u00e9hender pr\u00e9cis\u00e9ment un ph\u00e9nom\u00e8ne linguistique discriminant pour une t\u00e2che. En effet, un ph\u00e9nom\u00e8ne peut \u00eatre port\u00e9 par une ou plusieurs expressions textuelles distinctes. Celles-ci ne sont pas toujours simples \u00e0 d\u00e9limiter et peuvent participer \u00e0 l'expression de plusieurs ph\u00e9nom\u00e8nes dans un texte. C'est pour cette raison que nous proposons de comparer des corpus \u00e0 travers la comparaison des r\u00e9sultats qu'obtiennent des syst\u00e8mes entra\u00een\u00e9s respectivement sur chacun ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mesure de la relation de comparabilit\u00e9", "sec_num": "2.2" }, { "text": "EQUATION", "cite_spans": [], "ref_spans": [], "eq_spans": [ { "start": 0, "end": 8, "text": "EQUATION", "ref_id": "EQREF", "raw_str": "res i (t(m(o(F t ,R)), Q i )), res i (t(m(o(F t , S)), Q i )) > \u03b1", "eq_num": "(4)" } ], "section": "Mesure de la relation de comparabilit\u00e9", "sec_num": "2.2" }, { "text": "2. 4. Au sujet des propri\u00e9t\u00e9s 2 et 3, nous formulons la relation de comparabilit\u00e9 comme n'\u00e9tant pas n\u00e9cessairement une relation sym\u00e9trique. En effet, un corpus reconnu comparable \u00e0 un autre peut int\u00e9grer des ph\u00e9nom\u00e8nes relatifs \u00e0 une t\u00e2che non observ\u00e9s dans un corpus source. Le seul probl\u00e8me qu'il pourrait y avoir \u00e0 cela est le fait de ne pas retrouver ces ph\u00e9nom\u00e8nes dans le corpus de r\u00e9f\u00e9rence. Il en d\u00e9coule une difficult\u00e9 \u00e0 \u00e9valuer et \u00e0 interpr\u00e9ter leurs r\u00f4les dans les r\u00e9sultats du syst\u00e8me et dans les annotations produites.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mesure de la relation de comparabilit\u00e9", "sec_num": "2.2" }, { "text": "Le proc\u00e9d\u00e9 de s\u00e9lection des unit\u00e9s textuelles du corpus relais est tel qu'\u00e0 terme, il maximise la pr\u00e9sence des ph\u00e9nom\u00e8nes relatifs \u00e0 la t\u00e2che t dans les proportions telles que celles observ\u00e9es dans le corpus S. En d'autres termes, ce proc\u00e9d\u00e9 affecte un score \u00e0 chaque unit\u00e9 qui permet de les prioriser entre elles.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mesure de la relation de comparabilit\u00e9", "sec_num": "2.2" }, { "text": "Si le corpus relais n'est pas annot\u00e9, celui-ci peut l'\u00eatre en appliquant le syst\u00e8me construit \u00e0 partir du corpus source.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mesure de la relation de comparabilit\u00e9", "sec_num": "2.2" }, { "text": "Un mod\u00e8le de langue probabiliste constitue une repr\u00e9sentation d'un corpus pour laquelle la th\u00e9orie de l'information offre des moyens de comparaison peu co\u00fbteux. Entre autres, elle permet d'\u00e9valuer des mod\u00e8les entre eux ou bien d'\u00e9valuer un mod\u00e8le sur sa capacit\u00e9 \u00e0 \u00abreconna\u00eetre\u00bb un texte n'ayant pas particip\u00e9 \u00e0 sa construction. Un mod\u00e8le de langue est une fonction probabiliste p qui informe sur la probabilit\u00e9 d'occurrence d'une s\u00e9quence de mots (p(W ) = p(w 1 , w 2 , ..., w n )) ou sur la probabilit\u00e9 de sortie d'un mot pour un historique de mots donn\u00e9 5 ", "cite_spans": [ { "start": 557, "end": 558, "text": "5", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Construction d'un corpus comparable annot\u00e9 morpho-syntaxiquement", "sec_num": "3" }, { "text": "(p(w n |w 1 , w 2 , ..., w n\u22121 )).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Construction d'un corpus comparable annot\u00e9 morpho-syntaxiquement", "sec_num": "3" }, { "text": "Dans le contexte de l'\u00e9tiquetage morphosyntaxique, les probabilit\u00e9s de s\u00e9quences lexicales sont connues pour \u00eatre discriminantes (Toutanova et al., 2003) . Par cons\u00e9quent, nous posons l'hypoth\u00e8se que si des mod\u00e8les de langues estim\u00e9s sur des corpus diff\u00e9rents sont de qualit\u00e9 comparables alors les mod\u00e9lisations d'\u00e9tiquetage morpho-syntaxique construites de fa\u00e7on similaire sur ces diff\u00e9rents corpus sont de performances \u00e9quivalentes.", "cite_spans": [ { "start": 129, "end": 153, "text": "(Toutanova et al., 2003)", "ref_id": "BIBREF16" } ], "ref_spans": [], "eq_spans": [], "section": "Construction d'un corpus comparable annot\u00e9 morpho-syntaxiquement", "sec_num": "3" }, { "text": "Un moyen pour \u00e9valuer la qualit\u00e9 d'un mod\u00e8le de langue est de mesurer la capacit\u00e9 du mod\u00e8le \u00e0 pr\u00e9dire un texte inconnu. Pour ce faire on peut utiliser la mesure de l'entropie crois\u00e9e ou celle de la perplexit\u00e9 (mesure qui d\u00e9coule de la premi\u00e8re et qui est commun\u00e9ment employ\u00e9e en reconnaissance de la parole).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Construction d'un corpus comparable annot\u00e9 morpho-syntaxiquement", "sec_num": "3" }, { "text": "L'entropie crois\u00e9e correspond au nombre moyen de bits requis pour encoder chacun des mots du texte inconnu. La perplexit\u00e9 peut \u00eatre interpr\u00e9t\u00e9e comme la capacit\u00e9 d'un mod\u00e8le de langue \u00e0 pr\u00e9dire le prochain mot donn\u00e9 son historique (les mots qui pr\u00e9c\u00e9dent) dans un texte inconnu (n'ayant pas servi pour la construction du mod\u00e8le de langue \u00e9valu\u00e9). Quand la distribution est uniforme, elle peut \u00eatre interpr\u00e9t\u00e9e comme un degr\u00e9 de ramification et indiquer le nombre de choix possibles pour le prochain mot. On peut aussi voir ce nombre de choix comme un degr\u00e9 de surprise.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "La perplexit\u00e9 comme crit\u00e8re d'ordonnancement", "sec_num": "3.1" }, { "text": "Si l'on pose q comme \u00e9tant la distribution empirique observ\u00e9e sur un texte inconnu (i.e. q(w i ) = n i /N pour le i e mot qui appara\u00eet n i fois dans le texte inconnu de taille N ), alors on peut d\u00e9finir l'entropie crois\u00e9e H(q, p) par la formule (5).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "La perplexit\u00e9 comme crit\u00e8re d'ordonnancement", "sec_num": "3.1" }, { "text": "EQUATION", "cite_spans": [], "ref_spans": [], "eq_spans": [ { "start": 0, "end": 8, "text": "EQUATION", "ref_id": "EQREF", "raw_str": "H(q, p) = \u2212 j q(w j ) log 2 p(w j ) \u2248 \u2212 1 N log 2 p(w j )", "eq_num": "(5)" } ], "section": "La perplexit\u00e9 comme crit\u00e8re d'ordonnancement", "sec_num": "3.1" }, { "text": "avec j repr\u00e9sentant le j e mot dans les donn\u00e9es de test et avec N le nombre de mots dans les donn\u00e9es de test La perplexit\u00e9 est alors d\u00e9finie par la formule (6).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "La perplexit\u00e9 comme crit\u00e8re d'ordonnancement", "sec_num": "3.1" }, { "text": "EQUATION", "cite_spans": [], "ref_spans": [], "eq_spans": [ { "start": 0, "end": 8, "text": "EQUATION", "ref_id": "EQREF", "raw_str": "P P (W ) = 2 H(W )", "eq_num": "(6)" } ], "section": "La perplexit\u00e9 comme crit\u00e8re d'ordonnancement", "sec_num": "3.1" }, { "text": "Une faible valeur d'entropie crois\u00e9e pour des donn\u00e9es inconnues indique que la distribution observ\u00e9e sur les donn\u00e9es inconnues est proche de celle observ\u00e9e sur le mod\u00e8le de langue. De la m\u00eame mani\u00e8re, une valeur \u00e9lev\u00e9e de perplexit\u00e9 indique une mauvaise correspondance entre les donn\u00e9es ayant servi \u00e0 construire le mod\u00e8le de langue et celles test\u00e9es.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "La perplexit\u00e9 comme crit\u00e8re d'ordonnancement", "sec_num": "3.1" }, { "text": "Pour des facilit\u00e9s d'interpr\u00e9tation nous choisissons d'utiliser la perplexit\u00e9.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "La perplexit\u00e9 comme crit\u00e8re d'ordonnancement", "sec_num": "3.1" }, { "text": "Nous instancions la proc\u00e9dure d\u00e9crite \u00e0 la section 2.3 comme suit. Dans un premier temps, nous entra\u00eenons un \u00e9tiqueteur sur l'ensemble d'un corpus source dont l'annotation a \u00e9t\u00e9 valid\u00e9e manuellement.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Construction d'un corpus comparable pour la t\u00e2che d'\u00e9tiquetage morpho-syntaxique", "sec_num": "3.2" }, { "text": "Puis nous utilisons ce syst\u00e8me construit pour annoter automatiquement le corpus relais.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "les mots qui le pr\u00e9c\u00e8dent", "sec_num": "5." }, { "text": "A partir de l\u00e0, nous initions le processus de s\u00e9lection de \u00e9nonc\u00e9s du corpus relais que nous poursuivons jusqu'\u00e0 l'obtention du corpus comparable d\u00e9sir\u00e9 ou l'appauvrissement total du corpus relais. Pour ce faire, nous estimons un mod\u00e8le de langue sur le corpus source et nous calculons la perplexit\u00e9 du mod\u00e8le sur chaque phrase du corpus relais. Les scores obtenus nous permettent d'ordonner les phrases entre elles selon une perplexit\u00e9 croissante. La phase de construction effective des corpus comparables candidats revient \u00e0 s\u00e9lectionner et \u00e0 ajouter incr\u00e9mentalement les n premi\u00e8res phrases du corpus relais non encore s\u00e9lectionn\u00e9es.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "les mots qui le pr\u00e9c\u00e8dent", "sec_num": "5." }, { "text": "A partir de chaque paquet de phrases construit, nous entra\u00eenons un \u00e9tiqueteur que nous \u00e9valuons sur un corpus de r\u00e9f\u00e9rence dont nous comparons les r\u00e9sultats avec un syst\u00e8me construit directement \u00e0 partir du corpus source.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "les mots qui le pr\u00e9c\u00e8dent", "sec_num": "5." }, { "text": "Dans les exp\u00e9riences que nous rapportons ci-apr\u00e8s nous ne stoppons pas la s\u00e9lection de nouveaux \u00e9nonc\u00e9s quand nous estimons les syst\u00e8mes compar\u00e9s non diff\u00e9rents. Nous rapportons des observations \u00e0 diff\u00e9rents \u00e9tapes de la proc\u00e9dure it\u00e9rative afin d'observer plus finement les courbes de comparabilit\u00e9 entre les corpus.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "les mots qui le pr\u00e9c\u00e8dent", "sec_num": "5." }, { "text": "Nous utilisons les mesures classiques d'\u00e9valuation pour la t\u00e2che d'\u00e9tiquetage morpho-syntaxique \u00e0 savoir : la pr\u00e9cision sur les mots (nombre de mots correctement \u00e9tiquet\u00e9s sur le nombre de mots total), la pr\u00e9cision sur les phrases (nombre de phrases dans lesquelles tous les mots ont \u00e9t\u00e9 correctement \u00e9tiquet\u00e9s par rapport au nombre de phrases total) et la pr\u00e9cision sur les mots inconnus (nombre de mots inconnus correctement \u00e9tiquet\u00e9s sur le nombre de mots inconnus total 6 ). Dans cet article, nous ne rapportons que la pr\u00e9cision sur les mots. En pratique, ne poss\u00e9dant pas de corpus tiers de r\u00e9f\u00e9rence pour permettre l'\u00e9valuation des mod\u00e9lisations que nous construisons, nous utilisons le corpus source comme corpus de r\u00e9f\u00e9rence. Un syst\u00e8me est construit sur l'ensemble du corpus source pour annoter le corpus relais. Avec n = 10, n syst\u00e8mes sont construits \u00e0 partir de n \u2212 1 partitions du corpus source pour donner un score de pr\u00e9cision sur la n e partition (cf. la section 5.1). Tous les \u00e9tiqueteurs entra\u00een\u00e9s \u00e0 partir des extraits des diff\u00e9rents corpus relais donnent un score de pr\u00e9cision sur chacune de ces 10 partitions. Chaque syst\u00e8me est alors d\u00e9crit par cet ensemble de scores. Le test de Student compare alors les ensembles de scores d\u00e9crivant deux syst\u00e8mes pour d\u00e9terminer si ils sont diff\u00e9rents l'un de l'autre de mani\u00e8re significative.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "les mots qui le pr\u00e9c\u00e8dent", "sec_num": "5." }, { "text": "Dans cette section, nous pr\u00e9sentons bri\u00e8vement le corpus source et les corpus relais utilis\u00e9. Comme \u00e9nonc\u00e9 pr\u00e9c\u00e9demment, le corpus source nous sert \u00e0 la fois pour annoter les corpus relais et pour \u00e9valuer les syst\u00e8mes construits \u00e0 partir des corpus relais. Nous pr\u00e9cisons aussi les impl\u00e9mentations utilis\u00e9es pour segmenter les corpus en mots, les \u00e9tiqueter morphosyntaxiquement et manipuler les mod\u00e8les de langue. Enfin, nous donnons quelques caract\u00e9ristiques quantitatives en termes de taille du vocabulaire, nombre de mots et de phrases pour d\u00e9crire les corpus. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Cadre exp\u00e9rimental", "sec_num": "4" }, { "text": "Les mod\u00e8les de langue que nous estimons sont d'ordre 5 (historique de 4 mots) et sont construits en utilisant la technique de lissage commun\u00e9ment utilis\u00e9e de (Kneser & Ney, 1995) . En pratique, nous utilisons la biblioth\u00e8que berkeleylm 15 (Pauls & Klein, 2011). Pour calculer la perplexit\u00e9 nous utilisons la biblioth\u00e8que kylm 16 .", "cite_spans": [ { "start": 158, "end": 178, "text": "(Kneser & Ney, 1995)", "ref_id": "BIBREF8" } ], "ref_spans": [], "eq_spans": [], "section": "Estimation de mod\u00e8les de langue et calcul de la perplexit\u00e9", "sec_num": "4.4" }, { "text": "Dans les sections qui suivent nous rapportons les r\u00e9sultats de syst\u00e8mes d'\u00e9tiquetage entra\u00een\u00e9s \u00e0 partir de diff\u00e9rents corpus relais. Nous les \u00e9valuons sur les donn\u00e9es du P7T+.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences", "sec_num": "5" }, { "text": "A titre de comparaison, la Concernant le corpus relais Wikinews (figure 1), nous observons que le score de pr\u00e9cision est meilleur pour le corpus relais sans ordre a priori que sur le corpus relais ordonn\u00e9 sur le score de la perplexit\u00e9. La diff\u00e9rence entre ces scores s'amenuise \u00e0 mesure que l'on consid\u00e8re plus de phrases dans les corpus et finit par se confondre \u00e0 partir d'une certaine quantit\u00e9 de phrases. Au sujet de la significativit\u00e9 des r\u00e9sultats, sur la base de notre \u00e9chantillonnage, nous ne pouvons diff\u00e9rencier les deux corpus candidats au maximum du test de Student. La courbe traduit une l\u00e9g\u00e8re pr\u00e9f\u00e9rence pour le corpus ordonn\u00e9e selon la perplexit\u00e9 mais la diff\u00e9rence est minime.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Performance d'un \u00e9tiqueteur \u00e9tat-de-l'art", "sec_num": "5.1" }, { "text": "Concernant le corpus relais Est R\u00e9publicain (figure 2), les scores sont tout autre. Au sujet de la pr\u00e9cision des syst\u00e8mes, malgr\u00e9 une convergence qui se pr\u00e9cise avec le nombre de phrases consid\u00e9r\u00e9, on observe qu'un syst\u00e8me, construit en s\u00e9lectionnant ses instances d'entra\u00eenement selon un score de perplexit\u00e9 avec le corpus source, obtient une pr\u00e9cision plus haute qu'avec un syst\u00e8me entra\u00een\u00e9 avec des phrases sans ordre a priori. Au sujet de la significativit\u00e9, on constate qu'un syst\u00e8me qui se fonde sur un ordre des phrases d\u00e9coulant d'un score de perplexit\u00e9 croissant requiert moins de phrases qu'un syst\u00e8me qui ne se fonde pas sur un ordre a priori des phrases (1,85 fois la taille du corpus source pour le corpus tri\u00e9 contre 3,48 pour celui non tri\u00e9). L'une des diff\u00e9rences fondamentales avec le corpus relais Wikinews est que le corpus relais Est R\u00e9publicain est beaucoup plus grand.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Performance d'un \u00e9tiqueteur \u00e9tat-de-l'art", "sec_num": "5.1" }, { "text": "Cette exp\u00e9rience montre que le filtrage des phrases selon un score de perplexit\u00e9 qu'un corpus source peut avoir sur elles constitue un crit\u00e8re effectif de s\u00e9lection.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Performance d'un \u00e9tiqueteur \u00e9tat-de-l'art", "sec_num": "5.1" }, { "text": "Les scores observ\u00e9s \u00e0 la figure 3 (corpus relais Europarl) corroborent globalement ceux observ\u00e9s \u00e0 la figure 2. On note qu'il faut des quantit\u00e9s de donn\u00e9es beaucoup plus importantes pour observer des r\u00e9sultats. On attribue cette caract\u00e9ristique au fait que ce corpus relais n'est pas du m\u00eame genre que les corpus source et relais Wikinews et Est R\u00e9publicain. Dans cette exp\u00e9rience, on constate encore qu'avec des phrases s\u00e9lectionn\u00e9es selon un score de perplexit\u00e9 observ\u00e9 par un corpus source, une quantit\u00e9 moins importante est requise avec celles-ci pour obtenir plus rapidement des scores de pr\u00e9cision avec une diff\u00e9rence statistiquement non-significative. De m\u00eame la pr\u00e9cision sur mots est globalement toujours plus \u00e9lev\u00e9e. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Performance d'un \u00e9tiqueteur \u00e9tat-de-l'art", "sec_num": "5.1" }, { "text": "La figure 4 rapporte les scores de significativit\u00e9 et de pr\u00e9cision obtenus \u00e0 partir de syst\u00e8mes construits sur un corpus relais r\u00e9sultant de la fusion des corpus relais Wikinews, Est R\u00e9publicain et Europarl. Les courbes du corpus relais ordonn\u00e9 Est R\u00e9publicain sont rappel\u00e9es car les scores sont tr\u00e8s similaires \u00e0 ceux obtenus avec la fusion des corpus.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "FIGURE 1 -Corpus Wikinews : Scores de pr\u00e9cision et de ttest obtenus \u00e0 partir de mod\u00e9lisations fond\u00e9es sur un nombre croissant de phrases ordonn\u00e9es soit al\u00e9atoirement soit sur le score de perplexit\u00e9 vis-\u00e0-vis du corpus source.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "FIGURE 2 -Corpus Est R\u00e9publicain : Scores de pr\u00e9cision et de t-test obtenus \u00e0 partir de mod\u00e9lisations fond\u00e9es sur un nombre croissant de phrases ordonn\u00e9es soit al\u00e9atoirement soit sur le score de perplexit\u00e9 vis-\u00e0-vis du corpus source.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "FIGURE 3 -Corpus Europarl : Scores de pr\u00e9cision et de ttest obtenus \u00e0 partir de mod\u00e9lisations fond\u00e9es sur un nombre croissant de phrases ordonn\u00e9es soit al\u00e9atoirement soit sur le score de perplexit\u00e9 vis-\u00e0-vis du corpus source.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "FIGURE 4 -Corpus fusionn\u00e9s : Scores de pr\u00e9cision et de ttest obtenus \u00e0 partir de mod\u00e9lisations fond\u00e9es sur un nombre croissant de phrases ordonn\u00e9es sur le score de perplexit\u00e9 vis-\u00e0-vis du corpus source. Sont rappel\u00e9s les scores du corpus Est R\u00e9publicain.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "Nous notons que le syst\u00e8me construit sur le corpus fusionn\u00e9 requiert globalement le m\u00eame nombre de phrases que celui construit \u00e0 partir du meilleur corpus composant le corpus fusionn\u00e9. Nous notons n\u00e9anmoins que m\u00eame si les deux courbes sont proches (courbe rouge avec carr\u00e9s remplis et courbe rouge avec carr\u00e9s vides), le syst\u00e8me construit seulement \u00e0 partir de l'Est R\u00e9publicain obtient des scores de pr\u00e9cision et de Student plus importants pour un \u00e9chantillon donn\u00e9.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "Nous attribuons cela \u00e0 une limitation de notre approche pour la construction des corpus comparables. En effet en l'\u00e9tat, la s\u00e9lection des phrases \u00e0 consid\u00e9rer se fait seulement sur la base du corpus source et de la phrase analys\u00e9e. Elle ne prend pas en compte les phrases d\u00e9j\u00e0 s\u00e9lectionn\u00e9es et celles potentiellement s\u00e9lectionnables. Ainsi, pour une m\u00eame quantit\u00e9 de phrases, nous pensons que, dans le corpus r\u00e9sultant de la fusion, il y a plus de phrases similaires \u00e0 celles du corpus source mais, proportionnellement, probablement moins de phrases qui couvrent l'\u00e9tendue des ph\u00e9nom\u00e8nes du corpus source par rapport au corpus construit \u00e0 partir de l'Est R\u00e9publicain.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "Pour v\u00e9rifier cette hypoth\u00e8se nous calculons la perplexit\u00e9 de mod\u00e8les de langue construits \u00e0 partir de ces corpus sur ces diff\u00e9rents corpus tour \u00e0 tour. Dans le contexte de la t\u00e2che d'extraction terminologique bilingue, (D\u00e9jean & \u00c9ric Gaussier, 2002; Bo et al., 2011) d\u00e9finissent une mesure de comparabilit\u00e9 fond\u00e9e sur le lexique partag\u00e9 par les corpus compar\u00e9s. A nouveau, cette d\u00e9finition illustre une importance pr\u00e9pond\u00e9rante \u00e0 l'information lexicale comme base \u00e0 la comparabilit\u00e9. Elle est n\u00e9anmoins pertinente dans le cadre de cette t\u00e2che. Comme ces auteurs nous pensons qu'une d\u00e9finition de la notion de comparabilit\u00e9 est en lien avec une application. Par notre approche, nous souhaitons n\u00e9anmoins ne pas nous attacher \u00e0 l'observation privil\u00e9gi\u00e9e de certains traits linguistiques. Notre d\u00e9finition se veut plus g\u00e9n\u00e9rale et non sp\u00e9cifique \u00e0 une application particuli\u00e8re.", "cite_spans": [ { "start": 220, "end": 250, "text": "(D\u00e9jean & \u00c9ric Gaussier, 2002;", "ref_id": "BIBREF6" }, { "start": 251, "end": 267, "text": "Bo et al., 2011)", "ref_id": "BIBREF2" } ], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "Notre approche pour construire un corpus annot\u00e9 comparable est similaire \u00e0 l'approche par apprentissage semi-supervis\u00e9 de type auto-apprentissage (self-training). Ce type d'approche vise \u00e0 \u00e9tendre le taille d'un corpus annot\u00e9 en ajoutant aux donn\u00e9es d'entra\u00eenement des donn\u00e9es nouvelles annot\u00e9es par un syst\u00e8me entra\u00een\u00e9 sur les donn\u00e9es annot\u00e9es initialement disponibles. Cette approche montre des r\u00e9sultats int\u00e9ressants dans le contexte de l'adaptation de syst\u00e8mes existants \u00e0 de nouveaux domaines et lorsque les donn\u00e9es d'entra\u00eenement ne sont seulement disponibles qu'en petite quantit\u00e9 (Rehbein, 2011). Pour ce qui nous concerne, les donn\u00e9es du P7T sont estim\u00e9es en quantit\u00e9s suffisantes pour pouvoir soutenir l'entra\u00eenement de syst\u00e8mes statistiques type \u00e9tiqueteur et analyseur syntaxique (Crabb\u00e9 & Candito, 2008; Boudin & Hernandez, 2012) . Par ailleurs, nous n'ajoutons pas les nouvelles donn\u00e9es annot\u00e9es au corpus initial mais les consid\u00e9rons pleinement comme de nouvelles donn\u00e9es annot\u00e9es \u00e0 part enti\u00e8re.", "cite_spans": [ { "start": 792, "end": 816, "text": "(Crabb\u00e9 & Candito, 2008;", "ref_id": "BIBREF5" }, { "start": 817, "end": 842, "text": "Boudin & Hernandez, 2012)", "ref_id": "BIBREF3" } ], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "Dans le contexte d'auto-apprentissage, on retrouve l'id\u00e9e de favoriser les phrases les plus similaires aux donn\u00e9es d'entra\u00eenement pour enrichir le corpus. L'objectif est de minimiser l'ajout de bruit dans les donn\u00e9es. La mesure de perplexit\u00e9 (sur les \u00e9tiquettes) a ainsi \u00e9t\u00e9 utilis\u00e9e par (Rehbein, 2011) et (S\u00f8gaard, 2011) pour construire des analyseurs syntaxiques. Nos r\u00e9sultats corroborent les leurs lorsqu'ils notent que la perplexit\u00e9 joue un r\u00f4le actif positif dans la s\u00e9lection des phrases.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Significativit\u00e9 obtenue \u00e0 partir d'un corpus relais fusionn\u00e9 et ordonn\u00e9", "sec_num": "5.3" }, { "text": "Dans cet article nous avons propos\u00e9 une d\u00e9finition g\u00e9n\u00e9rale et op\u00e9rationnelle de la relation de la comparabilit\u00e9 entre des corpus monolingues annot\u00e9s. Nous avons entre autres fourni une mesure de la relation de comparabilit\u00e9 ancr\u00e9e dans un contexte applicatif mais ind\u00e9pendante d'un domaine en particulier, \u00e0 savoir la comparaison en termes de test statistique de significativit\u00e9. Nous avons aussi \u00e9nonc\u00e9 une proc\u00e9dure de construction d'un corpus comparable.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "7" }, { "text": "Nos exp\u00e9rimentations de ces propositions se sont r\u00e9alis\u00e9es autour de la construction d'un corpus comparable annot\u00e9 morpho-syntaxiquement. Nous avons montr\u00e9 notamment que la mesure de la perplexit\u00e9 d\u00e9finie dans la th\u00e9orie de l'information constitue un moyen de prioriser les phrases \u00e0 s\u00e9lectionner pour construire un corpus comparable. Pour une quantit\u00e9 \u00e9quivalente de phrases d'entra\u00eenement, la pr\u00e9cision est plus \u00e9lev\u00e9e avec un syst\u00e8me entra\u00een\u00e9 sur des phrases s\u00e9lectionn\u00e9es selon leur similarit\u00e9 avec un corpus source que pour un syst\u00e8me entra\u00een\u00e9 avec des phrases extraites \u00abal\u00e9atoirement\u00bb. La quantit\u00e9 de phrases requise est une question importante car elle a une incidence sur la taille des mod\u00e9lisations construites, et indirectement sur le choix des mod\u00e9lisations qui peuvent \u00eatre embarqu\u00e9es dans les syst\u00e8mes \u00e0 ressources limit\u00e9es. Nous montrons n\u00e9anmoins que la proc\u00e9dure pour exploiter la perplexit\u00e9 a son importance et qu'elle doit tenir compte du corpus source et du corpus relais dans sa globalit\u00e9. Plus g\u00e9n\u00e9ralement, nous montrons que la quantit\u00e9 de donn\u00e9es annot\u00e9e automatiquement pour entra\u00eener un syst\u00e8me n'est pas un crit\u00e8re suffisant. Il appara\u00eet important de le discuter en fonction de la taille du corpus source et du type d'analyse \u00e0 projeter.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "7" }, { "text": "Au sujet du processus de construction du corpus comparable, notre id\u00e9e fut de favoriser la s\u00e9lection de phrases d'un corpus relais qu'un mod\u00e8le de langue, construit sur un corpus source, pr\u00e9dit avec le moins de surprise. Notre approche de la s\u00e9lection des phrases est sans supervision macroscopique. Les r\u00e9sultats de l'exp\u00e9rience d\u00e9crite \u00e0 la section 5.3 tendent \u00e0 montrer cette faiblesse dans notre approche. En effet, rien ne garantit qu'un tel processus de s\u00e9lection ne conduise pas \u00e0 des probl\u00e8mes de redondance et de repr\u00e9sentativit\u00e9 fauss\u00e9e par rapport \u00e0 la r\u00e9alit\u00e9. L'utilisation du crit\u00e8re de pertinence marginale maximale (Maximal Marginal Relevance) est une piste possible au filtrage de la redondance tout en maintenant une repr\u00e9sentativit\u00e9 des ph\u00e9nom\u00e8nes (Carbonell & Goldstein, 1998) . Plus g\u00e9n\u00e9ralement, nous souhaitons comparer diff\u00e9rentes mesures d'ordonnancement des phrases \u00e0 s\u00e9lectionner notamment pour chercher \u00e0 mieux couvrir les propri\u00e9t\u00e9s des corpus comparables que nous avons d\u00e9finies.", "cite_spans": [ { "start": 767, "end": 796, "text": "(Carbonell & Goldstein, 1998)", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "7" }, { "text": "Enfin, pour poursuivre l'exp\u00e9rience de la section 5.3, nous aimerions \u00e9tudier la possibilit\u00e9 de construire une mesure de comparabilit\u00e9 fond\u00e9e sur le rapport de scores de perplexit\u00e9s calcul\u00e9s r\u00e9ciproquement \u00e0 partir de deux corpus distincts.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "7" } ], "back_matter": [ { "text": "Ce travail qui s'inscrit dans le cadre du projet CRISTAL www.projet-cristal.org a b\u00e9n\u00e9fici\u00e9 d'une aide de l'Agence National de la Recherche portant la r\u00e9f\u00e9rence ANR-12-CORD-0020. Nous remercions aussi les relecteurs pour leurs commentaires avis\u00e9s.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Remerciements", "sec_num": null } ], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "Enriching a french treebank", "authors": [ { "first": "Abeill\u00e9", "middle": [ "A" ], "last": "Barrier N", "suffix": "" } ], "year": 2004, "venue": "Actes de la conf\u00e9rence LREC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ABEILL\u00c9 A. & BARRIER N. (2004). Enriching a french treebank. In Actes de la conf\u00e9rence LREC, Lisbonne.", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "Building and using Parsed Corpora, chapter Building a treebank for French. Language and Speech series", "authors": [ { "first": "", "middle": [], "last": "Abeill\u00e9 A", "suffix": "" }, { "first": "", "middle": [], "last": "Cl\u00e9ment L. & Toussenel F", "suffix": "" } ], "year": 2003, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ABEILL\u00c9 A., CL\u00c9MENT L. & TOUSSENEL F. (2003). Building and using Parsed Corpora, chapter Building a treebank for French. Language and Speech series : Kluwer, Dordrecht.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "Clustering comparable corpora for bilingual lexicon extraction", "authors": [ { "first": "Bo", "middle": [ "L" ], "last": "Gaussier E. & Aizawa A", "suffix": "" } ], "year": 2011, "venue": "Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics", "volume": "", "issue": "", "pages": "473--478", "other_ids": {}, "num": null, "urls": [], "raw_text": "BO L., GAUSSIER E. & AIZAWA A. (2011). Clustering comparable corpora for bilingual lexicon extraction. Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics, p. 473-478.", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "D\u00e9tection et correction automatique d'erreurs d'annotation morpho-syntaxique du french treebank", "authors": [ { "first": "", "middle": [ "&" ], "last": "Boudin F", "suffix": "" }, { "first": "", "middle": [], "last": "Hernandez N", "suffix": "" } ], "year": 2012, "venue": "Proceedings of the Joint Conference JEP-TALN-RECITAL 2012", "volume": "2", "issue": "", "pages": "281--291", "other_ids": {}, "num": null, "urls": [], "raw_text": "BOUDIN F. & HERNANDEZ N. (2012). D\u00e9tection et correction automatique d'erreurs d'annotation morpho-syntaxique du french treebank. In Proceedings of the Joint Conference JEP-TALN-RECITAL 2012, volume 2 : TALN, p. 281-291, Grenoble, France : ATALA/AFCP.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "The use of mmr, diversity-based reranking for reordering documents and producing summaries", "authors": [ { "first": "Carbonell", "middle": [ "J &" ], "last": "Goldstein J", "suffix": "" } ], "year": 1998, "venue": "Proceedings of the 21st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '98", "volume": "", "issue": "", "pages": "335--336", "other_ids": {}, "num": null, "urls": [], "raw_text": "CARBONELL J. & GOLDSTEIN J. (1998). The use of mmr, diversity-based reranking for reordering documents and producing summaries. In Proceedings of the 21st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '98, p. 335-336, New York, NY, USA : ACM.", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "Exp\u00e9riences d'analyse syntaxique statistique du fran\u00e7ais", "authors": [ { "first": "Crabb\u00e9", "middle": [ "B &" ], "last": "Candito M", "suffix": "" } ], "year": 2008, "venue": "Actes de la 15\u00e8me conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CRABB\u00c9 B. & CANDITO M. (2008). Exp\u00e9riences d'analyse syntaxique statistique du fran\u00e7ais. In Actes de la 15\u00e8me conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN), Avignon, France.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "Une nouvelle approche \u00e0 l'extraction de lexiques bilingues \u00e0 partir de corpus comparables. Lexicometrica, Num\u00e9ro th\u00e9matique", "authors": [ { "first": "H", "middle": [ "&" ], "last": "D\u00e9jean", "suffix": "" }, { "first": "", "middle": [], "last": "\u00c9ric Gaussier", "suffix": "" } ], "year": 2002, "venue": "", "volume": "", "issue": "", "pages": "1--22", "other_ids": {}, "num": null, "urls": [], "raw_text": "D\u00c9JEAN H. & \u00c9RIC GAUSSIER (2002). Une nouvelle approche \u00e0 l'extraction de lexiques bilingues \u00e0 partir de corpus comparables. Lexicometrica, Num\u00e9ro th\u00e9matique \"Alignement lexical dans les corpus multilingues\", p. 1-22.", "links": null }, "BIBREF7": { "ref_id": "b7", "title": "Construction d'un large corpus \u00e9crit libre annot\u00e9 morpho-syntaxiquement en fran\u00e7ais", "authors": [ { "first": "", "middle": [ "&" ], "last": "Hernandez N", "suffix": "" }, { "first": "", "middle": [], "last": "Boudin F", "suffix": "" } ], "year": 2013, "venue": "Actes de la 20e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2013)", "volume": "", "issue": "", "pages": "160--173", "other_ids": {}, "num": null, "urls": [], "raw_text": "HERNANDEZ N. & BOUDIN F. (2013). Construction d'un large corpus \u00e9crit libre annot\u00e9 morpho-syntaxiquement en fran\u00e7ais. In Actes de la 20e conf\u00e9rence sur le Traitement Automatique des Langues Naturelles (TALN'2013), p. 160-173, Les Sables d'Olonne, France.", "links": null }, "BIBREF8": { "ref_id": "b8", "title": "Improved backing-off for m-gram language modeling", "authors": [ { "first": "", "middle": [], "last": "Kneser R. & Ney H", "suffix": "" } ], "year": 1995, "venue": "International Conference on Acoustics, Speech, and Signal Processing", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "KNESER R. & NEY H. (1995). Improved backing-off for m-gram language modeling. In International Conference on Acoustics, Speech, and Signal Processing.", "links": null }, "BIBREF9": { "ref_id": "b9", "title": "Europarl : A parallel corpus for statistical machine translation", "authors": [ { "first": "P", "middle": [], "last": "Koehn", "suffix": "" } ], "year": 2005, "venue": "MT Summit", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "KOEHN P. (2005). Europarl : A parallel corpus for statistical machine translation. In MT Summit.", "links": null }, "BIBREF10": { "ref_id": "b10", "title": "Parallel and comparable corpora : What are they up to ?", "authors": [ { "first": "", "middle": [ "M" ], "last": "Mcenery A", "suffix": "" }, { "first": "", "middle": [ "Z" ], "last": "Xiao R", "suffix": "" } ], "year": 2007, "venue": "In Incorporating Corpora : Translation and the Linguist. Translating Europe. Multilingual Matters", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "MCENERY A. M. & XIAO R. Z. (2007). Parallel and comparable corpora : What are they up to ?, In Incorporating Corpora : Translation and the Linguist. Translating Europe. Multilingual Matters.", "links": null }, "BIBREF11": { "ref_id": "b11", "title": "An introduction to nlp-based textual anonymisation", "authors": [ { "first": "", "middle": [], "last": "Medlock B", "suffix": "" } ], "year": 2006, "venue": "Proceedings of the Fifth International Conference on Language Resources and Evaluation (LREC-2006)", "volume": "", "issue": "", "pages": "6--1110", "other_ids": {}, "num": null, "urls": [], "raw_text": "MEDLOCK B. (2006). An introduction to nlp-based textual anonymisation. In Proceedings of the Fifth International Conference on Language Resources and Evaluation (LREC-2006), Genoa, Italy : European Language Resources Asso- ciation (ELRA). ACL Anthology Identifier : L06-1110.", "links": null }, "BIBREF12": { "ref_id": "b12", "title": "Reinventing Discovery : The New Era of Networked Science", "authors": [ { "first": "", "middle": [], "last": "Nielsen M", "suffix": "" } ], "year": 2011, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "NIELSEN M. (2011). Reinventing Discovery : The New Era of Networked Science. Princeton University Press.", "links": null }, "BIBREF13": { "ref_id": "b13", "title": "Faster and smaller n-gram language models", "authors": [ { "first": "Pauls", "middle": [ "A" ], "last": "Klein D", "suffix": "" } ], "year": 2011, "venue": "Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics : Human Language Technologies", "volume": "1", "issue": "", "pages": "258--267", "other_ids": {}, "num": null, "urls": [], "raw_text": "PAULS A. & KLEIN D. (2011). Faster and smaller n-gram language models. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics : Human Language Technologies -Volume 1, HLT '11, p. 258-267, Stroudsburg, PA, USA : Association for Computational Linguistics.", "links": null }, "BIBREF14": { "ref_id": "b14", "title": "Data point selection for self-training", "authors": [ { "first": "", "middle": [], "last": "Rehbein I", "suffix": "" } ], "year": 2011, "venue": "Proceedings of the Second Workshop on Statistical Parsing of Morphologically Rich Languages", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "REHBEIN I. (2011). Data point selection for self-training. In Proceedings of the Second Workshop on Statistical Parsing of Morphologically Rich Languages (SPMRL 2011), Dublin, Ireland.", "links": null }, "BIBREF15": { "ref_id": "b15", "title": "Data point selection for cross-language adaptation of dependency parsers", "authors": [ { "first": "", "middle": [], "last": "S\u00f8gaard A", "suffix": "" } ], "year": 2011, "venue": "The 49th Annual Meeting of the Association for Computational Linguistics : Human Language Technologies", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "S\u00d8GAARD A. (2011). Data point selection for cross-language adaptation of dependency parsers. In The 49th Annual Meeting of the Association for Computational Linguistics : Human Language Technologies, Portland, Oregon.", "links": null }, "BIBREF16": { "ref_id": "b16", "title": "Feature-rich part-of-speech tagging with a cyclic dependency network", "authors": [ { "first": "", "middle": [], "last": "Toutanova K", "suffix": "" }, { "first": "", "middle": [], "last": "Klein D", "suffix": "" }, { "first": "C", "middle": [ "&" ], "last": "Manning", "suffix": "" }, { "first": "", "middle": [], "last": "Singer Y", "suffix": "" } ], "year": 2003, "venue": "Proceedings of the 3rd Conference of the North American Chapter of the ACL (NAACL 2003)", "volume": "", "issue": "", "pages": "173--180", "other_ids": {}, "num": null, "urls": [], "raw_text": "TOUTANOVA K., KLEIN D., MANNING C. & SINGER Y. (2003). Feature-rich part-of-speech tagging with a cyclic dependency network. In Proceedings of the 3rd Conference of the North American Chapter of the ACL (NAACL 2003), p. 173-180 : Association for Computational Linguistics.", "links": null }, "BIBREF17": { "ref_id": "b17", "title": "Paraphrase fragment extraction from monolingual comparable corpora", "authors": [ { "first": "Wang", "middle": [ "R &" ], "last": "Callison-Burch C", "suffix": "" } ], "year": 2011, "venue": "Proceedings of the 4th Workshop on Building and Using Comparable Corpora : Comparable Corpora and the Web", "volume": "", "issue": "", "pages": "52--60", "other_ids": {}, "num": null, "urls": [], "raw_text": "WANG R. & CALLISON-BURCH C. (2011). Paraphrase fragment extraction from monolingual comparable corpora. In Proceedings of the 4th Workshop on Building and Using Comparable Corpora : Comparable Corpora and the Web, p. 52-60, Portland, Oregon : Association for Computational Linguistics.", "links": null } }, "ref_entries": { "TABREF0": { "content": "
d'eux. Les syst\u00e8mes
d\u00e9finissent, de fait, un type d'information en entr\u00e9e qui leur permettent d'observer les ph\u00e9nom\u00e8nes opportuns.
La comparaison de syst\u00e8mes est possible \u00e0 travers un test statistique de significativit\u00e9 qui va permettre de mesurer la
significativit\u00e9 statistique des diff\u00e9rences entre deux ensembles de scores. Ce type de test retourne une probabilit\u00e9 pvalue
que l'on discute par rapport \u00e0 des seuils pr\u00e9-\u00e9tablis. Suivant les contextes applicatifs et les communaut\u00e9s scientifiques, les
seuils \u03b1 consid\u00e9r\u00e9s sont 0,01, 0,05 et 0,1. Une valeur de probabilit\u00e9 s'interpr\u00e8te comme suit. Si elle est inf\u00e9rieure \u00e0 un
seuil de 0,05 par exemple, alors on peut affirmer avec moins de 5% de risques de se tromper (c'est-\u00e0-dire avec un niveau
de confiance de 95%) que les scores sont significativement diff\u00e9rents. De la m\u00eame mani\u00e8re, si elle est sup\u00e9rieure \u00e0 un
seuil de 0,05, alors on peut affirmer que les scores ne sont pas significativement diff\u00e9rents.
Pour obtenir les ensembles de scores, on d\u00e9coupe notre corpus de r\u00e9f\u00e9rence Q en n partitions et on \u00e9value les syst\u00e8mes
sur chacune de ces partitions pour obtenir un score par partition et par syst\u00e8me.
Ainsi, si les corpusR et S sont comparables du point de vue du traitement t alors les mod\u00e9lisations m(o(F t ,R)) et
m(o(F t , S)), pvalue
i\u2208[1,n]
", "type_str": "table", "num": null, "html": null, "text": "mises en oeuvre dans le traitement t pour analyser les n partitions Q i d'un corpus tiers, donneront des r\u00e9sultats res i ne pr\u00e9sentant pas de diff\u00e9rences statistiquement significatives." }, "TABREF2": { "content": "", "type_str": "table", "num": null, "html": null, "text": "Pour comparer les syst\u00e8mes entre eux (ceux construits \u00e0 partir d'extraits d'un corpus relais et celui construit sur le corpus source), nous utilisons un test de Student comme test de significativit\u00e9. Ce test mesure si il y a une diff\u00e9rence statistiquement significative entre les scores de pr\u00e9cision obtenus par les diff\u00e9rents syst\u00e8mes. Il suppose une ad\u00e9quation de la distribution des \u00e9chantillons \u00e0 la loi normale." }, "TABREF3": { "content": "
Europarl 4.2 Segmentation des mots
P7TWikinews Est R\u00e9publicain Europarl
Taille du vocabulaire 34 67775 175382 342129 093
Nombre de mots 629 788 2 535 39636 478 20961 396 216
Nombre de phrases 23 53987 4611 947 3601 967 951
Wikinews (75 175) Est R\u00e9publicain (382 342)Europarl (129 093)
P7T (34 677) .27 (23 093 / 86 749).08 (29 831 / 387 188).20 (27 329 / 136 433)
Wikinews.13 (52 068 / 405 439).30 (46 628 / 157 622)
Est R\u00e9publicain.17 (75 213 / 436 213)
TABLE 2 -Taux de vocabulaires en commun entre les corpus P7T, Wikinews, Est R\u00e9publicain et Europarl.
4.3 Jeu d'\u00e9tiquettes morpho-syntaxiques et \u00e9tiqueteur
", "type_str": "table", "num": null, "html": null, "text": "Wikinews figure parmi les projets de la Wikimedia Foundation 8 . Il s'agit d'un recueil de d\u00e9p\u00eaches et de reportages d'actualit\u00e9 \u00e9crit par ses utilisateurs. La version francophone de Janvier 2013 compte plus de 28 000 articles d'actualit\u00e9 et couvre une p\u00e9riode s'\u00e9talant de Janvier 2005 \u00e0 nos jours. Les textes sont exploitables sous licence 9 Creative Commons Attribution 2.5 (CC-BY 2.5) (les textes ant\u00e9rieures \u00e0 Septembre 2005 sont dans le domaine public) qui permet \u00e0 l'util-isateur d'utiliser, de modifier et de diffuser la ressource et ses modifications comme il le souhaite moyennant l'obligation d'en citer l'auteur.L'Est r\u00e9publicain est un corpus de type journalistique mis \u00e0 disposition par le CNRTL 10 , et compos\u00e9 d'articles du quotidien r\u00e9gional du m\u00eame nom. La version 0.3 met \u00e0 disposition les \u00e9ditions int\u00e9grales des ann\u00e9es 1999, 2002 et 2003 exploitable sous license Creative Commons (CC BY-NC-SA 2.0 FR). Ce corpus est constitu\u00e9 de textes multilingues align\u00e9s issus des actes du Parlement Europ\u00e9en 11 pr\u00e9par\u00e9s par(Koehn, 2005) pour l'entra\u00eenement de syst\u00e8mes statistiques de traduction. La section en fran\u00e7ais de la version 7 (mai 2012) couvre une p\u00e9riode s'\u00e9talant de 1996 \u00e0 2011. Ces textes sont libres de reproduction 12 . Le corpus P7T sert de corpus source. Les corpus Wikinews, Est R\u00e9publicain et Europarl servent de corpus relais. Les corpus Wikinews et Est R\u00e9publicain pr\u00e9sentent la particularit\u00e9 d'\u00eatre du genre journalistique \u00e0 l'instar du corpus source. Taille du vocabulaire, nombre de mots et de phrases des corpus P7T, Wikinews, Est R\u00e9publicain et Europarl.Le jeu de cat\u00e9gories morpho-syntaxiques que nous utilisons est celui mis ou point par(Crabb\u00e9 & Candito, 2008), contenant 28 cat\u00e9gories qui combinent diff\u00e9rentes valeurs de traits morpho-syntaxiques du P7T (d\u00e9sign\u00e9 si apr\u00e8s par P7T+). Outre le fait que ce jeu soit plus complet que les cat\u00e9gories du P7T, qui elles sont au nombre de 13, les auteurs montrent que les performances d'un \u00e9tiqueteur entra\u00een\u00e9 sur de telles annotations sont meilleures.En ce qui concerne l'\u00e9tiqueteur morpho-syntaxique que nous avons utilis\u00e9 pour nos exp\u00e9riences, il s'agit de la version 3.1.3 duStanford POS Tagger (Toutanova et al., 2003). Ce syst\u00e8me utilise un mod\u00e8le par maximum d'entropie, et peut 10. http://www.cnrtl.fr/corpus/estrepublicain 11. des performances au niveau de l'\u00e9tat-de-l'art en fran\u00e7ais(Boudin & Hernandez, 2012;Hernandez & Boudin, 2013). Nous utilisons un ensemble standard 14 de traits bidirectionnels sur les mots et les \u00e9tiquettes." }, "TABREF4": { "content": "
Pr\u00e9cision Min. -Max. \u00c9cart type
Tokens96,9396,55 -97,280,219
", "type_str": "table", "num": null, "html": null, "text": "" }, "TABREF5": { "content": "", "type_str": "table", "num": null, "html": null, "text": "Scores de pr\u00e9cision sur les tokens du Stanford POS tagger calcul\u00e9s \u00e0 partir du P7T+ en validation crois\u00e9e en 10 strates. Le minimum, le maximum et l'\u00e9cart type des scores calcul\u00e9s sur les 10 strates sont \u00e9galement report\u00e9s.5.2 Score de pr\u00e9cision et test de significativit\u00e9 selon les corpus relaisDans cette section nous rapportons pour diff\u00e9rents corpus les scores de pr\u00e9cision et de significativit\u00e9 (via le test de Student aussi appel\u00e9 t-test) obtenus \u00e0 partir de mod\u00e9lisations fond\u00e9es sur un nombre croissant de phrases ordonn\u00e9es soit al\u00e9atoirement 17 soit sur le score de perplexit\u00e9 vis-\u00e0-vis du corpus source.Pour v\u00e9rifier l'ad\u00e9quation \u00e0 la normalit\u00e9 de la distribution des \u00e9chantillons et utiliser le test de Student, nous avons utilis\u00e9 le test de Shapiro-Wilk. La taille de nos \u00e9chantillons correspond au nombre de partitions de test, \u00e0 savoir 10. Pour la grande majorit\u00e9 des \u00e9chantillons (suffisamment pour soutenir les observations ci-dessous), l'hypoth\u00e8se d'ad\u00e9quation n'a pas \u00e9t\u00e9 rejet\u00e9e avec un seuil de 50 %.Les figures 1, 2 et 3 rapportent les scores observ\u00e9s pour les corpus relais Wikinews, Est R\u00e9publicain et Europarl. En abscisse de chaque figure, on note le nombre de phrases consid\u00e9r\u00e9 pour la construction d'une mod\u00e9lisation. En ordonn\u00e9e sur la gauche se trouve une \u00e9chelle de scores du test de Student variants de 0 \u00e0 1 et en ordonn\u00e9e sur la droite se trouve une \u00e9chelle de scores de pr\u00e9cision centr\u00e9e sur les scores les plus \u00e9lev\u00e9s variants de 92% \u00e0 98% environ. Cette double \u00e9chelle en ordonn\u00e9e permet de confronter ces deux types de scores. Les courbes en pointill\u00e9es (bleues et avec points ronds) repr\u00e9sentent les scores de pr\u00e9cision tandis que les courbes en ligne pleine (rouges et avec points carr\u00e9s) correspondent aux scores du test de Student. Il y a pour ces trois figures deux courbes en pointill\u00e9e et deux pleines. Celles marqu\u00e9es d'un point vide concernent les scores du test de Student et de pr\u00e9cision obtenus \u00e0 partir de mod\u00e9lisations fond\u00e9es sur un nombre croissant de phrases ordonn\u00e9es al\u00e9atoirement (ordre original). Celles marqu\u00e9es d'un point plein concernent les du test de Student et de pr\u00e9cision obtenus \u00e0 partir de mod\u00e9lisations fond\u00e9es sur un nombre croissant de phrases ordonn\u00e9es sur le score de perplexit\u00e9 vis-\u00e0-vis du corpus source.Dans la table 4, nous rapportons divers facteurs de nombres de phrases calcul\u00e9s entre diff\u00e9rents corpus. Nous comparons les corpus obtenus \u00e0 la valeur maximale du test de Student (pour notre \u00e9chantillonnage) avec les corpus relais dont ils sont issus et le corpus source. Nous comparons aussi la diff\u00e9rence du nombre de phrases entre les corpus tri\u00e9s et non tri\u00e9s.Sur les trois figures 1, 2 et 3, on peut voir que la pr\u00e9cision de tous les syst\u00e8mes augmente avec la quantit\u00e9 de phrases. Les \u00e9l\u00e9vations observ\u00e9es sur les courbes du test de Student correspondent \u00e0 des scores o\u00f9 le test consid\u00e8re qu'il n'y a pas de diff\u00e9rences statistiquement significatives entre les syst\u00e8mes entra\u00een\u00e9s sur les corpus relais et celui sur un corpus source. Il est \u00e0 noter que les sommets de ces courbes sont sur la base de notre \u00e9chantillonnage. Ils ne correspondent pas aux maximums absolus (probablement voisins)." }, "TABREF6": { "content": "
Est R\u00e9publicainEuroparlFusion
", "type_str": "table", "num": null, "html": null, "text": "Facteurs multiplicateur et diviseur calcul\u00e9s sur le nombre de phrases respectivement par rapport au corpus source et aux corpus relais, pour la valeur maximale du test de Student. Sont compar\u00e9s les facteurs lorsque les phrases sont ordonn\u00e9es al\u00e9atoirement ou selon la perplexit\u00e9. Est donn\u00e9 le rapport entre le nombre de phrases non tri\u00e9es et tri\u00e9es pour le maximal du test de Student. Est aussi indiqu\u00e9 le nombre de phrases de l'\u00e9chantillon pour lequel le score maximal du test de Student a \u00e9t\u00e9 atteint." }, "TABREF7": { "content": "
Outre le corpus source, nous consid\u00e9rons le corpus r\u00e9sultant de la fusion et celui de l'Est
R\u00e9publicain, tous deux au plus haut du score du test de Student. La table 5 rapporte ces r\u00e9sultats. On peut lire que le
mod\u00e8le de langue construit sur le corpus source P7T \u00abreconna\u00eet\u00bb plus facilement le corpus extrait de la fusion que celui
issu de l'Est R\u00e9publicain (perplexit\u00e9 de 267 contre une perplexit\u00e9 de 899). On en d\u00e9duit que l'Est R\u00e9publicain contient
plus de cas inconnus du P7T que le corpus Fusion. On note aussi que le mod\u00e8le de langue construit \u00e0 partir du corpus issu
de la fusion reconna\u00eet moins bien le P7T que celui-ci ne le reconna\u00eet (perplexit\u00e9 de 417 contre une perplexit\u00e9 de 267).
Ces observations confirment notre hypoth\u00e8se de diff\u00e9rences de repr\u00e9sentativit\u00e9 entre ces corpus. Le corpus Fusion semble
contenir moins de diversit\u00e9 que le corpus P7T. A titre indicatif, nous donnons les perplexit\u00e9s des mod\u00e8les de langue test\u00e9s
sur les corpus ayant servis \u00e0 leur construction.
h h h h h h h h h h h h h h h Mod\u00e8le de langue Corpus test\u00e9 P7T Est R\u00e9publicain Fusion
P7T16899267
Est R\u00e9publicain 55318228
Fusion 41728415
6 \u00c9tat de l'art
", "type_str": "table", "num": null, "html": null, "text": "Scores de perplexit\u00e9 r\u00e9ciproque entre le corpus source P7T et les corpus comparables candidats extraits des corpus relais ordonn\u00e9 fusion et Est R\u00e9publicain au score du test de Student le plus haut. 'anonymisation est un moyen de transformation d'un corpus source qui d\u00e9nature principalement les entit\u00e9s nomm\u00e9es et qui malgr\u00e9 cette perte d'information peut permettre la diffusion du d\u00e9riv\u00e9 et son exploitation dans des t\u00e2ches autres que de la reconnaissance d'entit\u00e9s nomm\u00e9es(Medlock, 2006). Nous nous situons dans un contexte o\u00f9 nous ne pouvons r\u00e9utiliser tout ou partie d'un corpus source.(McEnery & Xiao, 2007) d\u00e9finit la notion de corpus comparable dans le cadre d'\u00e9tudes comparatives inter-lingues. Selon les auteurs, un corpus comparable se d\u00e9finit comme un corpus dont les composantes ont \u00e9t\u00e9 collect\u00e9es en utilisant la m\u00eame base d'\u00e9chantillonnage, le m\u00eame \u00e9quilibre et la m\u00eame repr\u00e9sentativit\u00e9 par exemple la m\u00eame proportion de textes de m\u00eame genres dans les m\u00eames domaines collect\u00e9s \u00e0 la m\u00eame p\u00e9riode dans diff\u00e9rentes langues. Nous avons test\u00e9 diff\u00e9rents corpus relais que nous avons s\u00e9lectionn\u00e9s en raison de leur taille et de leur licence d'exploitation. Nous sommes n\u00e9anmoins d'avis que la s\u00e9lection de textes de m\u00eame registre et de la m\u00eame p\u00e9riode temporelle favorise l'obtention de r\u00e9sultats \u00e9quivalents. Nous pensons n\u00e9anmoins que la contrainte sur les langues peut \u00eatre lev\u00e9e pour offrir une d\u00e9finition plus large. L'approche classique que l'on retrouve pour construire des corpus comparables monolingues consiste \u00e0 utiliser des moteurs de recherche et \u00e0 utiliser les documents du corpus source comme requ\u00eates(Wang & Callison-Burch, 2011;Bo et al., 2011). Le suppos\u00e9 th\u00e9orique sous-jacent est qu'un corpus comparable \u00e0 un autre partage un contenu informationnel (th\u00e9matique) en commun. Nous pensons qu'il s'agit d'une restriction limitative de la d\u00e9finition de corpus comparable." } } } }