{ "paper_id": "F13-1008", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T09:41:23.900575Z" }, "title": "Identification automatique des relations discursives \u00ab implicites \u00bb \u00e0 partir de donn\u00e9es annot\u00e9es et de corpus bruts", "authors": [ { "first": "Chlo\u00e9", "middle": [], "last": "Braud", "suffix": "", "affiliation": { "laboratory": "", "institution": "Universit\u00e9 Paris Diderot", "location": {} }, "email": "chloe.braud@inria.fr" }, { "first": "Pascal", "middle": [], "last": "Denis", "suffix": "", "affiliation": { "laboratory": "", "institution": "INRIA Lille Nord-Europe", "location": {} }, "email": "pascal.denis@inria.fr" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "Cet article pr\u00e9sente un syst\u00e8me d'identification des relations discursives dites \u00ab implicites \u00bb (\u00e0 savoir, non explicitement marqu\u00e9es par un connecteur) pour le fran\u00e7ais. Etant donn\u00e9 le faible volume de donn\u00e9es annot\u00e9es disponibles, notre syst\u00e8me s'appuie sur des donn\u00e9es \u00e9tiquet\u00e9es automatiquement en supprimant les connecteurs non ambigus pris comme annotation d'une relation, une m\u00e9thode introduite par (Marcu et Echihabi, 2002). Comme l'ont montr\u00e9 (Sporleder et Lascarides, 2008) pour l'anglais, cette approche ne g\u00e9n\u00e9ralise pas tr\u00e8s bien aux exemples de relations implicites tels qu'annot\u00e9s par des humains. Nous arrivons au m\u00eame constat pour le fran\u00e7ais et, partant du principe que le probl\u00e8me vient d'une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, nous proposons une s\u00e9rie de m\u00e9thodes assez simples, inspir\u00e9es par l'adaptation de domaine, qui visent \u00e0 combiner efficacement donn\u00e9es annot\u00e9es et donn\u00e9es artificielles. Nous \u00e9valuons empiriquement les diff\u00e9rentes approches sur le corpus ANNODIS : nos meilleurs r\u00e9sultats sont de l'ordre de 45.6% d'exactitude, avec un gain significatif de 5.9% par rapport \u00e0 un syst\u00e8me n'utilisant que les donn\u00e9es annot\u00e9es manuellement.", "pdf_parse": { "paper_id": "F13-1008", "_pdf_hash": "", "abstract": [ { "text": "Cet article pr\u00e9sente un syst\u00e8me d'identification des relations discursives dites \u00ab implicites \u00bb (\u00e0 savoir, non explicitement marqu\u00e9es par un connecteur) pour le fran\u00e7ais. Etant donn\u00e9 le faible volume de donn\u00e9es annot\u00e9es disponibles, notre syst\u00e8me s'appuie sur des donn\u00e9es \u00e9tiquet\u00e9es automatiquement en supprimant les connecteurs non ambigus pris comme annotation d'une relation, une m\u00e9thode introduite par (Marcu et Echihabi, 2002). Comme l'ont montr\u00e9 (Sporleder et Lascarides, 2008) pour l'anglais, cette approche ne g\u00e9n\u00e9ralise pas tr\u00e8s bien aux exemples de relations implicites tels qu'annot\u00e9s par des humains. Nous arrivons au m\u00eame constat pour le fran\u00e7ais et, partant du principe que le probl\u00e8me vient d'une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, nous proposons une s\u00e9rie de m\u00e9thodes assez simples, inspir\u00e9es par l'adaptation de domaine, qui visent \u00e0 combiner efficacement donn\u00e9es annot\u00e9es et donn\u00e9es artificielles. Nous \u00e9valuons empiriquement les diff\u00e9rentes approches sur le corpus ANNODIS : nos meilleurs r\u00e9sultats sont de l'ordre de 45.6% d'exactitude, avec un gain significatif de 5.9% par rapport \u00e0 un syst\u00e8me n'utilisant que les donn\u00e9es annot\u00e9es manuellement.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "L'analyse discursive rend compte de la coh\u00e9rence d'un texte en liant, par des relations discursives, les propositions qui le constituent. En d\u00e9pit de diff\u00e9rences, les principales th\u00e9ories du discours, telles que la Rhetorical Structure Theory (RST) (Mann et Thompson, 1988) et la Segmented Discourse Representation Theory (SDRT) (Asher et Lascarides, 2003) , s'accordent sur les \u00e9tapes d'analyse : segmentation en unit\u00e9s \u00e9l\u00e9mentaires de discours (EDU), attachement des EDU, identification des relations entre EDU, puis r\u00e9cursivement les paires attach\u00e9es sont li\u00e9es \u00e0 des segments simples ou complexes pour aboutir \u00e0 une structure couvrant le document. Ainsi on peut associer au discours 1.1 1 segment\u00e9 en trois EDU la structure entre accolades. Les deux premiers segments sont li\u00e9s par un contrast et le segment complexe ainsi constitu\u00e9 est argument d'une relation de continuation. Un syst\u00e8me d\u00e9rivant automatiquement cette structure permettrait d'am\u00e9liorer d'autres syst\u00e8mes de TAL ou de RI car la structure du discours contraint les r\u00e9f\u00e9rents des anaphores, r\u00e9v\u00e8le la structure th\u00e9matique d'un texte et l'ordonnancement temporel des \u00e9v\u00e9nements : dans 1.2, les phrases a et b sont li\u00e9es par une relation de type explanation, b explique a, qui implique (loi de cause \u00e0 effet) l'ordre des \u00e9v\u00e9nements, b avant a. Gr\u00e2ce aux corpus annot\u00e9s comme le PDTB 2 ou le RST DT 3 des syst\u00e8mes automatiques ont \u00e9t\u00e9 d\u00e9velopp\u00e9s pour l'anglais sur la t\u00e2che compl\u00e8te ou seulement les sous-t\u00e2ches (notamment la phase d'identification des relations). A partir du corpus RST DT, (Sagae, 2009) et (Hernault et al., 2010) ont d\u00e9velopp\u00e9 des syst\u00e8mes complets avec des scores de f-mesure respectifs de 44.5 et 47.3 donc des performances encore modestes. Sur le PDTB, (Lin et al., 2010) construit un syst\u00e8me complet obtenant 46.8 de f-mesure.", "cite_spans": [ { "start": 249, "end": 273, "text": "(Mann et Thompson, 1988)", "ref_id": "BIBREF8" }, { "start": 329, "end": 356, "text": "(Asher et Lascarides, 2003)", "ref_id": null }, { "start": 1558, "end": 1571, "text": "(Sagae, 2009)", "ref_id": "BIBREF16" }, { "start": 1575, "end": 1598, "text": "(Hernault et al., 2010)", "ref_id": "BIBREF6" }, { "start": 1742, "end": 1760, "text": "(Lin et al., 2010)", "ref_id": "BIBREF7" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Le PDTB permet de s\u00e9parer l'\u00e9tude des exemples avec ou sans connecteur discursif d\u00e9clenchant la relation. Lorsqu'un tel marqueur est pr\u00e9sent, la relation est dite explicite (ou marqu\u00e9e ou lexicalis\u00e9e) : ainsi, mais lexicalise la relation de contrast dans 1.1. Sinon, elle est implicite, comme la relation causale dans 1.2. Les diff\u00e9rentes \u00e9tudes men\u00e9es sur le PDTB montrent que l'identification des relations implicites est consid\u00e9rablement plus difficile que celle des relations explicites. Ainsi, (Lin et al., 2010) obtiennent une f-mesure qui d\u00e9passe les 80 pour les explicites, mais de seulement 39.63 pour les implicites. Sur un jeu de relations plus petit, ) rapportent une exactitude de 94% sur les explicites alors que de 60 sur les implicites. Sur des donn\u00e9es tir\u00e9es du RST DT, avec 5 relations, (Sporleder et Lascarides, 2008 ) obtiennent des scores de l'ordre de 40% d'exactitude. Pour le fran\u00e7ais, il n'existe pas de corpus annot\u00e9 en connecteur, donc aucune \u00e9tude s\u00e9parant le cas des implicites du cas g\u00e9n\u00e9ral : (Muller et al., 2012) ont d\u00e9velopp\u00e9 un syst\u00e8me complet qui obtient une exactitude de 44.8 pour 17 relations et de 65.5 pour ces relations regroup\u00e9es en 4 classes (ANNODIS, 3143 exemples). On peut supposer que, comme pour l'anglais, ce sont les relations implicites qui d\u00e9gradent les performances du syst\u00e8me.", "cite_spans": [ { "start": 499, "end": 517, "text": "(Lin et al., 2010)", "ref_id": "BIBREF7" }, { "start": 805, "end": 835, "text": "(Sporleder et Lascarides, 2008", "ref_id": "BIBREF19" }, { "start": 1024, "end": 1045, "text": "(Muller et al., 2012)", "ref_id": "BIBREF10" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "1. Tir\u00e9 du corpus fran\u00e7ais ANNODIS, (P\u00e9ry-Woodley et al., 2009) document WK_-_hulotte. 2. Penn Discourse Treebank, (Prasad et al., 2008) 3. RST Discourse Treebank, (Carlson et al., 2001) Malheureusement, les corpus discursifs disponibles sont encore tr\u00e8s petits (surtout pour le fran\u00e7ais). En vue de pallier le manque d'annotations humaines, (Marcu et Echihabi, 2002) proposent d'utiliser des exemples annot\u00e9s automatiquement gr\u00e2ce aux connecteurs comme donn\u00e9es implicites suppl\u00e9mentaires. Cette \u00e9tude et celles qui l'ont suivie, notamment (Sporleder et Lascarides, 2008) , utilisaient ces nouvelles donn\u00e9es artificielles comme seules donn\u00e9es d'entra\u00eenement et obtenaient de basses performances. Le probl\u00e8me repose sur une diff\u00e9rence de distribution entre les deux types de donn\u00e9es, qu'il est possible de prendre en compte afin d'am\u00e9liorer l'identification des relations implicites. A cette fin, nous proposons et \u00e9valuons diff\u00e9rentes m\u00e9thodes visant \u00e0 cr\u00e9er un nouveau mod\u00e8le enrichi par les nouvelles donn\u00e9es mais guid\u00e9 vers la distribution des donn\u00e9es manuelles. Nous nous inspirons des m\u00e9thodes utilis\u00e9es en adaptation de domaine d\u00e9crites dans (Daum\u00e9 III, 2007) . Notre contribution se situe au niveau du d\u00e9veloppement d'un syst\u00e8me d'identification des relations discursives implicites pour le fran\u00e7ais et de l'\u00e9tude de strat\u00e9gies d'utilisation de donn\u00e9es de distributions diff\u00e9rentes en TAL.", "cite_spans": [ { "start": 115, "end": 136, "text": "(Prasad et al., 2008)", "ref_id": "BIBREF13" }, { "start": 164, "end": 186, "text": "(Carlson et al., 2001)", "ref_id": "BIBREF2" }, { "start": 342, "end": 367, "text": "(Marcu et Echihabi, 2002)", "ref_id": "BIBREF9" }, { "start": 540, "end": 571, "text": "(Sporleder et Lascarides, 2008)", "ref_id": "BIBREF19" }, { "start": 1148, "end": 1165, "text": "(Daum\u00e9 III, 2007)", "ref_id": "BIBREF3" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Nous pr\u00e9sentons dans la partie suivante un rapide \u00e9tat de l'art sur les exp\u00e9riences d\u00e9j\u00e0 men\u00e9es sur l'identification des relations de discours avec donn\u00e9es artificielles, afin d'en montrer les limites et de proposer une nouvelle strat\u00e9gie. La section 3 est consacr\u00e9e aux donn\u00e9es et la section 4 au mod\u00e8le utilis\u00e9. La section 5 regroupe les exp\u00e9riences men\u00e9es et l'analyse des r\u00e9sultats. Enfin, nous finirons par les perspectives ouvertes par ces exp\u00e9riences dans la section 6.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Les obstacles associ\u00e9s \u00e0 l'identification des relations implicites r\u00e9sident, d'une part, dans l'absence d'indicateur fiable (comme le connecteur pour les relations explicites) et, d'autre part, dans le manque de donn\u00e9es pour entra\u00eener des classifieurs performants. N\u00e9anmoins, on dispose de donn\u00e9es quasiment annot\u00e9es en grande quantit\u00e9 : celles contenant un connecteur discursif non ambigu, c'est-\u00e0-dire ne d\u00e9clenchant qu'une seule relation (p.ex., parce que d\u00e9clenche n\u00e9cessairement une relation de type explanation). Ce constat a amen\u00e9 (Marcu et Echihabi, 2002) \u00e0 proposer d'utiliser ces exemples pour l'identification des implicites. Plus pr\u00e9cis\u00e9ment, on g\u00e9n\u00e8re de nouvelles donn\u00e9es annot\u00e9es \u00e0 partir d'un corpus brut : des exemples sont extraits sur la pr\u00e9sence d'une forme de connecteur discursif non ambigu, filtr\u00e9s pour \u00e9liminer les cas d'emploi non discursif de la forme, puis le connecteur est supprim\u00e9 pour emp\u00eacher le mod\u00e8le de se baser sur cet indice non ambigu. On cr\u00e9e ainsi des donn\u00e9es implicites annot\u00e9es en relation de discours mais des donn\u00e9es qui n'ont jamais \u00e9t\u00e9 produites, non naturelles d'o\u00f9 le terme de donn\u00e9es artificielles. A titre d'illustration, consid\u00e9rons la paire de phrases suivante tir\u00e9e du corpus Est R\u00e9publicain (2.1) : dans ce cas, le connecteur cela dit est supprim\u00e9 et on g\u00e9n\u00e8re un exemple de relation de contrast entre les deux syntagmes arguments a et b. L'id\u00e9e est finalement de s'appuyer sur ces donn\u00e9es artificielles pour construire un mod\u00e8le d'identification des relations pour des donn\u00e9es naturelles implicites, on a donc des donn\u00e9es de type diff\u00e9rent : implicites versus explicites et naturelles versus artificielles.", "cite_spans": [ { "start": 538, "end": 563, "text": "(Marcu et Echihabi, 2002)", "ref_id": "BIBREF9" } ], "ref_spans": [], "eq_spans": [], "section": "Utilisation des donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement", "sec_num": "2" }, { "text": "Dans les \u00e9tudes pr\u00e9c\u00e9dentes bas\u00e9es sur ce principe les donn\u00e9es artificielles sont utilis\u00e9es comme seules donn\u00e9es d'entra\u00eenement ce qui conduit \u00e0 des performances basses, juste au-dessus de la chance pour (Sporleder et Lascarides, 2008) avec 25.8% d'exactitude contre 40.3 en utilisant les seules donn\u00e9es manuelles (1051 exemples manuels, 72000 artificiels, 5 relations). (Blair-Goldensohn et al., 2007) cherchent \u00e0 tester l'impact de la qualit\u00e9 du corpus artificiel en am\u00e9liorant l'extraction des donn\u00e9es gr\u00e2ce \u00e0 une segmentation en topics ou des informations syntaxiques. Ils semblent am\u00e9liorer l\u00e9g\u00e8rement les performances mais une comparaison est difficile puisqu'ils ne testent que des classifieurs binaires et 2 relations. L'id\u00e9e de base de (Marcu et Echihabi, 2002) r\u00e9sidait dans l'extraction de paires de mots de type antonymes ou hyp\u00e9ronymes pouvant r\u00e9v\u00e9ler une relation mais dont le lien n'est pas forc\u00e9ment recens\u00e9 dans des ressources comme WordNet. montrent que l'utilisation des paires de mots extraites d'un corpus artificiel comme trait suppl\u00e9mentaire n'am\u00e9liore pas les performances d'un syst\u00e8me d'identification des relations implicites. Mais l'\u00e9tude de (Sporleder et Lascarides, 2008 ) utilisant d'autres types de traits indique que le probl\u00e8me ne r\u00e9side pas ou pas uniquement dans le choix des traits.", "cite_spans": [ { "start": 204, "end": 235, "text": "(Sporleder et Lascarides, 2008)", "ref_id": "BIBREF19" }, { "start": 371, "end": 402, "text": "(Blair-Goldensohn et al., 2007)", "ref_id": "BIBREF0" }, { "start": 745, "end": 770, "text": "(Marcu et Echihabi, 2002)", "ref_id": "BIBREF9" }, { "start": 1169, "end": 1199, "text": "(Sporleder et Lascarides, 2008", "ref_id": "BIBREF19" } ], "ref_spans": [], "eq_spans": [], "section": "Utilisation des donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement", "sec_num": "2" }, { "text": "Ces r\u00e9sultats montrent qu'un mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es artificielles ne g\u00e9n\u00e9ralise pas bien aux donn\u00e9es manuelles. Pourtant en regardant des exemples de type artificiel, il semble que dans certains cas on aurait pu produire les arguments sans le connecteur. De plus, les r\u00e9sultats de (Sporleder et Lascarides, 2008) demeurent sup\u00e9rieurs \u00e0 la chance (en consid\u00e8rant la chance \u00e0 20%), donc ces donn\u00e9es ne sont pas compl\u00e8tement diff\u00e9rentes des donn\u00e9es de test. Nous cherchons ici \u00e0 prendre en compte cette diff\u00e9rence de distribution qui rapproche le probl\u00e8me de ceux trait\u00e9s en adaptation de domaine.", "cite_spans": [ { "start": 290, "end": 321, "text": "(Sporleder et Lascarides, 2008)", "ref_id": "BIBREF19" } ], "ref_spans": [], "eq_spans": [], "section": "Utilisation des donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement", "sec_num": "2" }, { "text": "Pour que cette strat\u00e9gie fonctionne, il faut n\u00e9cessairement faire l'hypoth\u00e8se d'une certaine redondance du connecteur par rapport \u00e0 son contexte : il doit rester suffisamment d'information apr\u00e8s sa suppression pour que la relation reste identifiable. Une \u00e9tude psycho-linguistique men\u00e9e sur l'italien (Soria et Ferrari, 1998) et les conclusions de (Sporleder et Lascarides, 2008 ) semblent montrer que c'est le cas dans une partie des donn\u00e9es. Cette \u00e9tude reste \u00e0 faire pour le fran\u00e7ais, et l'approfondir pourrait permettre d'am\u00e9liorer la qualit\u00e9 du corpus artificiel en d\u00e9terminant par exemple si cette redondance est diff\u00e9rente selon les relations et les connecteurs.", "cite_spans": [ { "start": 301, "end": 325, "text": "(Soria et Ferrari, 1998)", "ref_id": "BIBREF17" }, { "start": 348, "end": 378, "text": "(Sporleder et Lascarides, 2008", "ref_id": "BIBREF19" } ], "ref_spans": [], "eq_spans": [], "section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es", "sec_num": "2.1" }, { "text": "Plus g\u00e9n\u00e9ralement, en apprentissage on fait l'hypoth\u00e8se que donn\u00e9es d'entra\u00eenement et de test sont identiquement et ind\u00e9pendamment distribu\u00e9es (donn\u00e9es i.i.d.) . Or il nous semble que justement la strat\u00e9gie propos\u00e9e par (Marcu et Echihabi, 2002) pose le probl\u00e8me d'un apprentissage avec des donn\u00e9es non identiquement distribu\u00e9es. On a deux ensembles de donn\u00e9es qui se ressemblent (m\u00eame ensemble d'\u00e9tiquettes, les exemples sont des segments de texte) mais qui sont n\u00e9anmoins distribu\u00e9s diff\u00e9remment, et ce, pour deux raisons au moins. D'une part, les donn\u00e9es artificielles sont par d\u00e9finition obtenues \u00e0 partir d'exemples de relations explicites : il n'y a aucune garantie que ces donn\u00e9es soient distribu\u00e9es comme les \"vrais\" exemples implicites. La diff\u00e9rence porte tant sur la distribution des labels (des relations) que sur l'assocation entre labels (relations) et inputs (paires des segments) \u00e0 classer. En outre, la suppression du connecteur ajoute probablement une forme de bruit en cas d'erreur d'\u00e9tiquetage contrairement aux donn\u00e9es manuelles correctement \u00e9tiquet\u00e9es. D'autre part, les donn\u00e9es artificielles se distinguent aussi des donn\u00e9es manuelles en termes des segments. Ainsi, la segmentation des premi\u00e8res est bas\u00e9e sur des heuristiques (p.ex., les arguments ne peuvent \u00eatre que deux phrases adjacentes ou deux propositions couvrant une phrase). Dans les donn\u00e9es manuelles, en revanche, on a des arguments contigus ou non, propositionnels, phrastiques ou multi-phrastiques dont les fronti\u00e8res ont \u00e9t\u00e9 d\u00e9termin\u00e9es par des annotateurs humains. Ceci induit une diff\u00e9rence de distribution au niveau des objets \u00e0 classer et une forme de bruit en cas d'erreur de segmentation due \u00e0 ces hypoth\u00e8ses simplificatrices ou \u00e0 une erreur d'heuristique.", "cite_spans": [ { "start": 143, "end": 159, "text": "(donn\u00e9es i.i.d.)", "ref_id": null }, { "start": 220, "end": 245, "text": "(Marcu et Echihabi, 2002)", "ref_id": "BIBREF9" } ], "ref_spans": [], "eq_spans": [], "section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es", "sec_num": "2.1" }, { "text": "On peut se rendre compte de cette diff\u00e9rence de distribution sur l'association entre labels et inputs en consid\u00e9rant certaines caract\u00e9ristiques des donn\u00e9es. La r\u00e9partition entre exemples inter-phrastiques et intra-phrastiques (la relation s'\u00e9tablit entre deux phrases ou deux segments \u00e0 l'int\u00e9rieur d'une phrase) est ainsi similaire pour contrast (57.1% d'inter-phrastiques dans les deux types de donn\u00e9es), proche pour result (45.7% d'inter-phrastiques dans les donn\u00e9es manuelles, 39.8% dans les artificielles) mais tr\u00e8s diff\u00e9rente pour continuation (70.0% d'inter-phrastiques dans les manuelles, 96.5% dans les artificielles), et pour explanation (21.4% dans les manuelles, 53.0% dans les artificielles).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es", "sec_num": "2.1" }, { "text": "Ne pas prendre en compte ces diff\u00e9rences de distribution conduit \u00e0 de basses performances, nous avons donc cherch\u00e9 \u00e0 les g\u00e9rer en testant diff\u00e9rentes strat\u00e9gies avec un point commun : chercher \u00e0 guider le mod\u00e8le vers la distribution des donn\u00e9es manuelles.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Probl\u00e8me : diff\u00e9rence de distribution entre les donn\u00e9es", "sec_num": "2.1" }, { "text": "Dans des \u00e9tudes pr\u00e9c\u00e9dentes, l'entra\u00eenement sur les seules donn\u00e9es artificielles aboutit \u00e0 des r\u00e9sultats inf\u00e9rieurs \u00e0 un entra\u00eenement sur des donn\u00e9es manuelles (pourtant bien moins nombreuses). Ceci s'explique par les diff\u00e9rences de distribution entre les deux ensembles de donn\u00e9es. Dans cette section, nous d\u00e9crivons diff\u00e9rentes m\u00e9thodes visant \u00e0 exploiter les nouvelles donn\u00e9es artificielles, non plus seules, mais en combinaison avec les donn\u00e9es manuelles existantes.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les test\u00e9s", "sec_num": "2.2" }, { "text": "De nombreux travaux s'attachant au probl\u00e8me de donn\u00e9es non identiquement distribu\u00e9es concernent l'adaptation de domaine. Nous nous sommes donc inspir\u00e9s des m\u00e9thodes utilis\u00e9es dans ce cadre, m\u00eame si notre probl\u00e8me diff\u00e8re au sens o\u00f9 nous n'avons qu'un seul domaine et des donn\u00e9es bruit\u00e9es. Ainsi, nous avons test\u00e9 une s\u00e9rie de syst\u00e8mes utilis\u00e9s pour l'adapation de domaine par (Daum\u00e9 III, 2007) , qui sont tr\u00e8s simples \u00e0 mettre en oeuvre et obtiennent n\u00e9anmoins de bonnes performances sur diff\u00e9rentes t\u00e2ches, ainsi que quelques solutions d\u00e9riv\u00e9es. Dans un second temps, nous avons ajout\u00e9 une \u00e9tape de s\u00e9lection d'exemples, afin de choisir parmi les exemples artificiels ceux qui seraient susceptibles d'am\u00e9liorer les performances.", "cite_spans": [ { "start": 376, "end": 393, "text": "(Daum\u00e9 III, 2007)", "ref_id": "BIBREF3" } ], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les test\u00e9s", "sec_num": "2.2" }, { "text": "Les diff\u00e9rentes m\u00e9thodes de combinaison que nous proposons diff\u00e8rent selon que la combinaison s'op\u00e8re directement au niveau des jeux de donn\u00e9es ou au niveau des mod\u00e8les entra\u00een\u00e9s sur ceux-ci. La premi\u00e8re strat\u00e9gie de combinaison de donn\u00e9es que nous \u00e9tudions (UNION) rel\u00e8ve du premier type : elle consiste \u00e0 cr\u00e9er un corpus d'entra\u00eenement qui contient la r\u00e9union des deux ensembles de donn\u00e9es. Une strat\u00e9gie d\u00e9riv\u00e9e (AUTOSUB) consiste \u00e0 prendre, non pas l'int\u00e9gralit\u00e9 des donn\u00e9es artificielles, mais des sous-ensembles al\u00e9atoires de ces donn\u00e9es, en addition des donn\u00e9es manuelles. Cette m\u00e9thode est un peu plus subtile dans la mesure o\u00f9 on peut faire varier la proportion des exemples artificiels par rapport aux exemples manuels. Enfin, la troisi\u00e8me m\u00e9thode du premier type (MANW) garde cette fois la totalit\u00e9 des donn\u00e9es artificielles mais pond\u00e8re (ou duplique) les exemples manuels de mani\u00e8re \u00e0 \u00e9viter un d\u00e9s\u00e9quilibre trop grand au profit des donn\u00e9es artificielles.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les test\u00e9s", "sec_num": "2.2" }, { "text": "Dans le second type de m\u00e9thodes, on trouve tout d'abord une m\u00e9thode (ADDPRED) qui consiste \u00e0 utiliser les pr\u00e9dictions d'un mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es artificielles (\u00e0 savoir les donn\u00e9es \"source\") comme descripteur dans le mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es manuelles (\u00e0 savoir les donn\u00e9es \"cibles\"). Le param\u00e8tre associ\u00e9 \u00e0 ce descripteur mesure donc l'importance \u00e0 accorder aux pr\u00e9dictions du mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es artificielles. Cette m\u00e9thode est la meilleure baseline et le troisi\u00e8me meilleur mod\u00e8le dans (Daum\u00e9 III et Marcu, 2006) . Une variation de cette m\u00e9thode (ADDPROB) utilise en plus le score de confiance (p.ex., la probabilit\u00e9) du mod\u00e8le artificiel comme descripteur suppl\u00e9mentaire dans le mod\u00e8le manuel. Une troisi\u00e8me m\u00e9thode (AUTOINIT) vise \u00e0 initialiser les param\u00e8tres du mod\u00e8le entra\u00een\u00e9 sur les donn\u00e9es manuelles avec ceux du mod\u00e8le utilisant les donn\u00e9es artificielles. Enfin, la derni\u00e8re m\u00e9thode (LININT) se base sur une interpolation lin\u00e9aire de deux mod\u00e8les pr\u00e9alablement entra\u00een\u00e9s sur chacun des ensembles de donn\u00e9es.", "cite_spans": [ { "start": 533, "end": 545, "text": "Marcu, 2006)", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les test\u00e9s", "sec_num": "2.2" }, { "text": "Nous avons aussi test\u00e9 toutes ces strat\u00e9gies en ajoutant une \u00e9tape de s\u00e9lection automatique d'exemples artificiels. La m\u00e9thode utilis\u00e9e est na\u00efve puisqu'elle se base simplement sur la probabilit\u00e9 du label pr\u00e9dit : on teste diff\u00e9rents seuils sur ces probabilit\u00e9s en ajoutant \u00e0 chaque fois les seuls exemples pr\u00e9dits avec une probabilit\u00e9 sup\u00e9rieure au seuil. Cette s\u00e9lection vise \u00e0 \u00e9carter des donn\u00e9es bruit\u00e9es, en explorant finalement l'une des voies propos\u00e9es par (Marcu et Echihabi, 2002) et d\u00e9velopp\u00e9e d'une autre mani\u00e8re par (Blair-Goldensohn et al., 2007) , \u00e0 savoir am\u00e9liorer la qualit\u00e9 du corpus artificiel.", "cite_spans": [ { "start": 464, "end": 489, "text": "(Marcu et Echihabi, 2002)", "ref_id": "BIBREF9" }, { "start": 528, "end": 559, "text": "(Blair-Goldensohn et al., 2007)", "ref_id": "BIBREF0" } ], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les test\u00e9s", "sec_num": "2.2" }, { "text": "Les performances de tous ces syst\u00e8mes seront compar\u00e9es \u00e0 celles des syst\u00e8mes entra\u00een\u00e9s s\u00e9par\u00e9ment sur les deux ensembles de donn\u00e9es dans la section 5.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les test\u00e9s", "sec_num": "2.2" }, { "text": "Nous avons choisi de nous restreindre \u00e0 4 relations : contrast, result, continuation et explanation. Ces relations sont annot\u00e9es dans le corpus fran\u00e7ais utilis\u00e9 et correspondent \u00e0 des exemples implicites et explicites. De plus ce sont 4 des 5 relations (summary n'est pas annot\u00e9e dans ANNODIS) utilis\u00e9es dans (Sporleder et Lascarides, 2008) , ce qui nous permet une comparaison mais non directe puisque la langue et le corpus sont diff\u00e9rents. Dans nos donn\u00e9es manuelles, nous avons fusionn\u00e9 les m\u00e9ta-relations avec les relations correspondantes avec l'hypoth\u00e8se qu'elles mettaient en jeu le m\u00eame genre d'indices et de constructions. Les donn\u00e9es manuelles permettent d'obtenir des exemples de relations implicites manuellement annot\u00e9s. Les donn\u00e9es g\u00e9n\u00e9r\u00e9es automatiquement sont des exemples explicites extraits par heuristique de donn\u00e9es brutes dans lesquels on supprime le connecteur : des donn\u00e9es implicites artificielles.", "cite_spans": [ { "start": 309, "end": 340, "text": "(Sporleder et Lascarides, 2008)", "ref_id": "BIBREF19" } ], "ref_spans": [], "eq_spans": [], "section": "Donn\u00e9es", "sec_num": "3" }, { "text": "Le projet ANNODIS (P\u00e9ry-Woodley et al., 2009) Le corpus a subi une s\u00e9rie de pr\u00e9-traitements. Le MElt tagger (Denis et Sagot, 2009) fournit un \u00e9tiquetage en cat\u00e9gorie morpho-syntaxique, une lemmatisation, des indications morphologiques (temps, personne, genre, nombre). Le MSTParser (Candito et al., 2010) fournit une analyse en d\u00e9pendances. Afin de restreindre notre \u00e9tude aux relations implicites, nous utilisons le LexConn, lexique des connecteurs discursifs du fran\u00e7ais d\u00e9velopp\u00e9 par (Roze, 2009) et \u00e9tendu en 2012 aux connecteurs introduisant des syntagmes nominaux. Nous utilisons une m\u00e9thode simple : nous projetons le lexique (sauf la forme \u00e0 jug\u00e9e trop ambigue) sur les donn\u00e9es, ce qui nous permet d'identifier tout token correspondant \u00e0 un connecteur. Nous ne contraignons pas cette identification sur des crit\u00e8res de position. Cette m\u00e9thode nous assure d'identifier tout connecteur donc de ne r\u00e9cup\u00e9rer que des exemples implicites mais comporte le risque d'en perdre certains. Sur les 1108 exemples disponibles pour les 4 relations nous disposons de 494 exemples implicites ; la distribution des exemples par relation est r\u00e9sum\u00e9e dans le tableau 1. (voir (Berger et al., 1996) ). Un attrait important de ces mod\u00e8les, par rapport \u00e0 des mod\u00e8les g\u00e9n\u00e9ratifs, est de permettre l'ajout de nombreux descripteurs potentiellement redondants sans faire d'hypoth\u00e8ses d'ind\u00e9pendance.", "cite_spans": [ { "start": 18, "end": 45, "text": "(P\u00e9ry-Woodley et al., 2009)", "ref_id": "BIBREF14" }, { "start": 108, "end": 130, "text": "(Denis et Sagot, 2009)", "ref_id": "BIBREF5" }, { "start": 282, "end": 304, "text": "(Candito et al., 2010)", "ref_id": "BIBREF1" }, { "start": 487, "end": 499, "text": "(Roze, 2009)", "ref_id": "BIBREF15" }, { "start": 1159, "end": 1186, "text": "(voir (Berger et al., 1996)", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Le corpus ANNODIS", "sec_num": "3.1" }, { "text": "Notre jeu de traits se base sur les travaux existants avec quelques adaptations notables pour le fran\u00e7ais. Ces traits exploitent des informations de surface, ainsi que d'autres issues d'un traitement linguistique plus profond. Par comparaison, (Marcu et Echihabi, 2002) ne se base que sur la co-occurrence de lemmes dans les segments. (Sporleder et Lascarides, 2007) montrent que la prise en compte de diff\u00e9rents types de traits linguistiquement motiv\u00e9s am\u00e9liore les performances. (Sporleder et Lascarides, 2008) utilisent des traits vari\u00e9s dont des bi-grammes de lemmes mais sans traits syntaxiques. Nous avons test\u00e9 des traits lexico-syntaxiques utilis\u00e9s dans les pr\u00e9c\u00e9dentes \u00e9tudes sur cette t\u00e2che. Nous n'avons pas pu reprendre les traits s\u00e9mantiques comme les classes s\u00e9mantiques des t\u00eates des arguments car les ressources n\u00e9cessaires n'existent pas pour le fran\u00e7ais. On utilise une version binaire des traits \u00e0 valeur nominale.", "cite_spans": [ { "start": 244, "end": 269, "text": "(Marcu et Echihabi, 2002)", "ref_id": "BIBREF9" }, { "start": 335, "end": 366, "text": "(Sporleder et Lascarides, 2007)", "ref_id": "BIBREF18" }, { "start": 481, "end": 512, "text": "(Sporleder et Lascarides, 2008)", "ref_id": "BIBREF19" } ], "ref_spans": [], "eq_spans": [], "section": "Relation", "sec_num": null }, { "text": "Certains traits sont calcul\u00e9s pour chaque argument :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Relation", "sec_num": null }, { "text": "1. Indice de complexit\u00e9 syntaxique : nombre de syntagmes nominaux, verbaux, pr\u00e9positionnels, adjectivaux, adverbiaux (valeur continue)", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Relation", "sec_num": null }, { "text": "2. Information sur la t\u00eate d'un argument : -Lemme d'\u00e9l\u00e9ments n\u00e9gatifs sur la t\u00eate comme \"pas\" (nominale) -Information temporelle/aspectuelle : nombre de fois o\u00f9 un lemme de fonction auxiliaire d\u00e9pendant de la t\u00eate appara\u00eet (continue), temps, personne, nombre de l'auxiliaire (nominale) -Informations sur les d\u00e9pendants de la t\u00eate : pr\u00e9sence d'un objet, par-objet (syntagme pr\u00e9positionnel introduit par \"par\"), modifieur ou d\u00e9pendant pr\u00e9positionnel de la t\u00eate, du sujet ou de l'objet (bool\u00e9en) ; cat\u00e9gorie morpho-syntaxique des modifieurs et des d\u00e9pendants pr\u00e9positionnels de la t\u00eate, du sujet ou de l'objet (nominale) -Informations morphologiques : temps et personne de la t\u00eate verbale, genre de la t\u00eate non verbale, nombre de la t\u00eate, cat\u00e9gorie morpho-syntaxique pr\u00e9cise (par exemple \"VPP\") et simplifi\u00e9e (respectivement \"V\") (nominale) D'autres traits portent sur la paire d'arguments :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Relation", "sec_num": null }, { "text": "1. Trait de position : si l'exemple est inter ou intra-phrastique (bool\u00e9en) 2. Indice de continuit\u00e9 th\u00e9matique : chevauchement en lemmes et en lemmes de cat\u00e9gorie ouverte, comme nom, verbe etc... (continue) 3. Information sur les t\u00eates des arguments :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Relation", "sec_num": null }, { "text": "-Paire des temps des t\u00eates verbales (bool\u00e9en) -Paire des nombres des t\u00eates (bool\u00e9en)", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Relation", "sec_num": null }, { "text": "On notera finalement que notre but portant avant tout sur la combinaison de donn\u00e9es, nous n'avons pas cherch\u00e9 \u00e0 optimiser ce jeu de traits, ce qui aurait introduit un param\u00e8tre suppl\u00e9mentaire dans notre mod\u00e8le.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Relation", "sec_num": null }, { "text": "Pour rappel, l'objectif central de ces exp\u00e9riences est de d\u00e9terminer dans quelle mesure l'ajout de donn\u00e9es artificielles, via les diff\u00e9rentes m\u00e9thodes pr\u00e9sent\u00e9es en Section 2, peut nous permettre de d\u00e9passer les performances obtenues en s'entra\u00eenant sur des donn\u00e9es manuelles pr\u00e9sentes seulement en faible quantit\u00e9.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences", "sec_num": "5" }, { "text": "Les exp\u00e9riences sont r\u00e9alis\u00e9es avec l'impl\u00e9mentation de l'algorithme par maximum d'entropie fourni dans la librairie MegaM 4 en version multi-classe avec au maximum 100 it\u00e9rations. On effectue une validation crois\u00e9e en 10 sous-ensembles sur un corpus des donn\u00e9es manuelles \u00e9quilibr\u00e9 \u00e0 70 exemples maximum par relation. Il faudra envisager des exp\u00e9riences conservant la distribution naturelle des donn\u00e9es, tr\u00e8s d\u00e9s\u00e9quilibr\u00e9e, mais pour l'instant nous nous focalisons sur l'aspect combinaison des donn\u00e9es. Comme dans les \u00e9tudes pr\u00e9c\u00e9dentes, les performances sont donn\u00e9es en termes d'exactitude globale sur l'ensemble des relations, des scores ventil\u00e9s de F1 par relation sont \u00e9galement fournis. La significativit\u00e9 statistique des \u00e9carts de performance est \u00e9valu\u00e9e avec un Wilcoxon signed-rank test (avec une p-valeur < 0.05).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Exp\u00e9riences", "sec_num": "5" }, { "text": "Dans un premier temps, nous construisons deux mod\u00e8les distincts, l'un \u00e0 partir des seules donn\u00e9es manuelles (MANONLY, 252 exemples), l'autre des seules donn\u00e9es artificielles (AUTOONLY, 93636 exemples d'entra\u00eenement). Notre mod\u00e8le MANONLY obtient une exactitude de 39.7, avec des scores de f-mesure par relation compris entre 13.3 pour contrast et 49.0 pour result (voir table 3). La relation contrast est donc tr\u00e8s mal identifi\u00e9e peut-\u00eatre parce que sous-repr\u00e9sent\u00e9e, seulement 42 exemples contre 70 pour les autres relations, le manque de donn\u00e9es joue probablement ici un r\u00f4le important.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les de base", "sec_num": "5.1" }, { "text": "Le mod\u00e8le AUTOONLY obtient une exactitude de 47.8 lorsqu'\u00e9valu\u00e9 sur le m\u00eame type de donn\u00e9es (11704 exemples de test), mais de 23.0 lorsqu'\u00e9valu\u00e9 sur les donn\u00e9es manuelles (voir table 3). Cette baisse importante est comparable \u00e0 celle observ\u00e9e dans les \u00e9tudes pr\u00e9c\u00e9dentes sur l'anglais. Elle s'explique par les diff\u00e9rences de distribution \u00e9tudi\u00e9es en Section 2. De mani\u00e8re g\u00e9n\u00e9rale, on observe des d\u00e9gradations par rapport \u00e0 MANONLY pour l'identification de result, explanation et continuation (voir table 3). Par contre l'identification de contrast pr\u00e9sente une am\u00e9lioration, obtenant 23.2 de f-mesure avec 11 exemples correctement identifi\u00e9s contre 5 pr\u00e9c\u00e9demment. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les de base", "sec_num": "5.1" }, { "text": "Dans cette section, nous pr\u00e9sentons les r\u00e9sultats des syst\u00e8mes qui exploitent \u00e0 la fois les donn\u00e9es manuelles et les donn\u00e9es artificielles. Ces ensembles de donn\u00e9es sont ou bien combin\u00e9s directement ou bien donnent lieu \u00e0 des mod\u00e8les s\u00e9par\u00e9s qui sont combin\u00e9s plus tard.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec combinaisons de donn\u00e9es", "sec_num": "5.2" }, { "text": "Certains de ces mod\u00e8les utilisent des hyper-param\u00e8tres. Ainsi, pour la pond\u00e9ration des exemples manuels nous testons diff\u00e9rents coefficients de pond\u00e9ration c avec c \u2208 [0.5; 2000] avec un incr\u00e9ment de 10 jusqu'\u00e0 100, de 50 jusqu'\u00e0 1000 et de 500 jusqu'\u00e0 2000. Pour l'ajout de sousensembles des donn\u00e9es artificielles, on ajoute \u00e0 chaque fois k exemples parmi ces donn\u00e9es avec k \u2208 [0.1; 600] avec un incr\u00e9ment de 10 jusqu'\u00e0 100 et de 50 jusqu'\u00e0 600. Enfin, pour l'interpolation lin\u00e9aire des mod\u00e8les, on construit un nouveau mod\u00e8le en pond\u00e9rant le mod\u00e8le artificiel avec \u03b1 \u2208 [0.1; 0.9] avec des incr\u00e9ments de 0.1. Avec MANW, l'exactitude augmente avec la croissance du coefficient et d\u00e9passe 39.7 \u00e0 partir du coefficient 400 \u00e9quivalent \u00e0 un corpus manuel d'environ 24000 exemples par relation soit du m\u00eame ordre que le nombre d'exemples artificiels.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec combinaisons de donn\u00e9es", "sec_num": "5.2" }, { "text": "Les exp\u00e9riences o\u00f9 la prise en compte des donn\u00e9es artificielles passe par l'ajout de traits donnent les meilleurs r\u00e9sultats avec une exactitude de 42.9 pour le mod\u00e8le qui int\u00e8gre les pr\u00e9dictions du mod\u00e8le artificiel comme descripteur (ADDPRED). Le second mod\u00e8le, qui exploite en plus les probabilit\u00e9s (ADDPROB) m\u00e8ne quant \u00e0 lui \u00e0 une l\u00e9g\u00e8re diminution ce qui sugg\u00e8re que les traits de probabilit\u00e9 d\u00e9gradent les performances.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec combinaisons de donn\u00e9es", "sec_num": "5.2" }, { "text": "Quant aux exp\u00e9riences de combinaison des mod\u00e8les, l'initialisation du mod\u00e8le manuel par l'artificiel (AUTOINIT) conduit \u00e0 un syst\u00e8me d'exactitude 39.3, et l'interpolation lin\u00e9aire (LININT) correspond \u00e0 une d\u00e9croissance de l'exactitude suivant l'augmentation du coefficient \u03b1 sur le mod\u00e8le artificiel (voir table 4), avec cependant un saut important entre \u03b1 = 0.8 et \u03b1 = 0.9 (exactitude de 28.2) en lien avec une forte d\u00e9gradation de l'identification de explanation.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec combinaisons de donn\u00e9es", "sec_num": "5.2" }, { "text": "Au niveau des scores par relation, ces syst\u00e8mes ont des effets diff\u00e9rents. Une influence forte du mod\u00e8le artificiel permet une am\u00e9lioration importante pour contrast et une d\u00e9gradation forte pour result et explanation par rapport \u00e0 MANONLY. Ces ph\u00e9nom\u00e8nes sont visibles avec AUTOONLY mais aussi avec LININT : la f-mesure de contrast augmente avec \u03b1 tandis que celle de result et de explanation diminue (voir table 4). Avec une influence similaire des deux types de donn\u00e9es (LININT \u03b1 = 0.5 ou MANW coefficient 400), la chute pour result est moins importante et on am\u00e9liore l'identification de explanation (voir table 4). Pour continuation, il faut une influence des donn\u00e9es manuelles inf\u00e9rieure \u00e0 celle des donn\u00e9es artificielles pour observer une am\u00e9lioration (voir table 4, LININT \u03b1 = 0.8). Le syst\u00e8me ADDPRED permet notamment une am\u00e9lioration forte de la f-mesure de explanation. On n'obtient pas d'am\u00e9lioration pour result.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec combinaisons de donn\u00e9es", "sec_num": "5.2" }, { "text": "Les m\u00e9thodes de combinaison aboutissent \u00e0 des syst\u00e8mes d'exactitude similaire voire sup\u00e9rieure \u00e0 MANONLY et \u00e0 des am\u00e9liorations pour l'identification des relations sauf result. La relation contrast profite peut-\u00eatre de donn\u00e9es artificielles moins bruit\u00e9es : la majorit\u00e9 des exemples (plus de 75%) sont extraits \u00e0 partir de mais, forme toujours en emploi discursif dont les arguments sont dans l'ordre canonique, argument1+connecteur+argument2. Pour explanation, la majorit\u00e9 des donn\u00e9es (77.5%) est extraite \u00e0 partir de formes d\u00e9clenchant la m\u00e9ta-relation explanation* qui ne correspond \u00e0 aucun exemple dans ANNODIS expliquant peut-\u00eatre le manque de g\u00e9n\u00e9ralisation entre les deux types de donn\u00e9es. Les pr\u00e9dictions du mod\u00e8le artificiel construit surtout sur cette m\u00e9ta-relation pourraient \u00eatre coh\u00e9rentes expliquant l'am\u00e9lioration observ\u00e9e. Les diff\u00e9rences de performance au niveau des labels peuvent venir de distribution plus ou moins proche entre les deux types de donn\u00e9e. Si on regarde la distribution en terme de traits (850 traits en tout), on constate un \u00e9cart de plus de 30% pour 2 et 5 traits pour result et explanation mais aucun pour contrast et continuation pour lesquelles l'apport direct des donn\u00e9es artificielles est positif.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec combinaisons de donn\u00e9es", "sec_num": "5.2" }, { "text": "Les exp\u00e9riences pr\u00e9c\u00e9dentes ont montr\u00e9 que l'ajout de donn\u00e9es artificielles donnaient le plus souvent lieu \u00e0 des gains de performance, mais ces gains restent relativement modestes, voire non significatifs. Notre hypoth\u00e8se est que de nombreux exemples artificiels am\u00e8nent du bruit dans le mod\u00e8le. Id\u00e9alement, nous souhaiterions \u00eatre capables de s\u00e9lectionner les exemples artificiels les plus informatifs et qui compl\u00e9mentent le mieux les donn\u00e9es manuelles.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples", "sec_num": "5.3" }, { "text": "La m\u00e9thode de s\u00e9lection d'exemples que nous proposons a pour objectif d'\u00e9liminer les exemples potentiellement plus bruit\u00e9s. Pour cela, le mod\u00e8le artificiel est utilis\u00e9 sur les donn\u00e9es d'entra\u00eenement et on conserve les exemples pr\u00e9dits avec une probabilit\u00e9 sup\u00e9rieure \u00e0 un seuil s \u2208 [30, 40, 50, 55, 60, 65, 70, 75] . Si ce mod\u00e8le est assez s\u00fbr de sa pr\u00e9diction, on peut esp\u00e9rer que l'exemple ne correspond pas \u00e0 du bruit, \u00e0 une forme en emploi non discursif et/ou une erreur de segmentation. On v\u00e9rifie en quelque sorte aussi l'hypoth\u00e8se de redondance du connecteur. Pour chaque seuil, on r\u00e9\u00e9quilibre les donn\u00e9es en se basant sur la relation la moins repr\u00e9sent\u00e9e (syst\u00e8me+SELEC). A partir du seuil 80, ces exp\u00e9riences ne sont plus pertinentes, on conserve moins de 10 exemples par relation. Au niveau des scores par relation, de nouveau une influence forte des donn\u00e9es artificielles am\u00e9liore l'identification de contrast avec en plus une influence positive d'un seuil haut mais inf\u00e9rieur \u00e0 70, au-del\u00e0 le nombre d'exemples artificiels \u00e9tant probablement trop bas pour influer sur l'identification (voir table 5). Parall\u00e8lement, \u00e0 part avec AUTOONLY +SELEC, l'identification des autres relations s'am\u00e9liore avec la croissance du seuil donc une baisse de l'influence du mod\u00e8le artificiel. Pour continuation on observe toujours une am\u00e9lioration pour une influence similaire des deux types de donn\u00e9es et pour explanation, c'est toujours l'ajout de traits de pr\u00e9dictions qui permet les meilleures performances. Il semble qu'en plus on am\u00e9liore ici l'identification de result (MANW +SELEC et ADDPROB +SELEC, table 5).", "cite_spans": [ { "start": 282, "end": 286, "text": "[30,", "ref_id": null }, { "start": 287, "end": 290, "text": "40,", "ref_id": null }, { "start": 291, "end": 294, "text": "50,", "ref_id": null }, { "start": 295, "end": 298, "text": "55,", "ref_id": null }, { "start": 299, "end": 302, "text": "60,", "ref_id": null }, { "start": 303, "end": 306, "text": "65,", "ref_id": null }, { "start": 307, "end": 310, "text": "70,", "ref_id": null }, { "start": 311, "end": 314, "text": "75]", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples", "sec_num": "5.3" }, { "text": "La s\u00e9lection des exemples am\u00e9liore l'identification des relations et conduit \u00e0 deux syst\u00e8mes am\u00e9liorant significativement l'exactitude de MANONLY montrant que les donn\u00e9es artificielles lorsqu'int\u00e9gr\u00e9es de fa\u00e7on ad\u00e9quate peuvent am\u00e9liorer l'identification des relations implicites, notamment lorsque leur influence est faible, le mod\u00e8le \u00e9tant guid\u00e9 vers la bonne distribution.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples", "sec_num": "5.3" }, { "text": "A la constitution des corpus avec s\u00e9lection on observe qu'avec la croissance du seuil on conserve toujours plus d'exemples pour result, d\u00e8s le seuil 40 environ 3900 de plus, alors que contrast devient sous-repr\u00e9sent\u00e9. Cette observation montre que le bruit n'est probablement pas la seule fa\u00e7on d'expliquer les r\u00e9sultats puisque la relation am\u00e9lior\u00e9e par les donn\u00e9es artificielles est celle pour laquelle le mod\u00e8le artificiel est le moins confiant alors que celle dont les r\u00e9sultats sont les plus d\u00e9grad\u00e9s est celle pour laquelle il est le plus confiant.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Mod\u00e8les avec s\u00e9lection automatique d'exemples", "sec_num": "5.3" }, { "text": "Nous avons d\u00e9velopp\u00e9 la premi\u00e8re s\u00e9rie de syst\u00e8mes d'identification des relations discursives implicites pour le fran\u00e7ais. Ces relations sont difficiles \u00e0 identifier en raison du manque d'indices forts. Dans les \u00e9tudes sur l'anglais, les performances sont basses malgr\u00e9 les indices complexes utilis\u00e9s, probablement par manque de donn\u00e9es. Pour pallier ce probl\u00e8me, plus crucial encore en fran\u00e7ais, nous avons utilis\u00e9 des donn\u00e9es annot\u00e9es automatiquement en relation \u00e0 partir d'exemples explicites. Mais ces nouvelles donn\u00e9es ne g\u00e9n\u00e9ralisent pas bien aux donn\u00e9es implicites car elles sont de distribution diff\u00e9rente. Nous avons donc test\u00e9 des m\u00e9thodes inspir\u00e9es de l'adaptation de domaine pour combiner ces donn\u00e9es en ajoutant une \u00e9tape de s\u00e9lection automatique des exemples artificiels pour g\u00e9rer le bruit induit par leur cr\u00e9ation. Elles nous permettent des am\u00e9liorations significatives par rapport au mod\u00e8le n'utilisant que les donn\u00e9es manuelles. Les meilleurs syst\u00e8mes utilisent la s\u00e9lection d'exemples et la pond\u00e9ration des donn\u00e9es manuelles ou l'ajout de traits de pr\u00e9dictions du mod\u00e8le artificiel.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion", "sec_num": "6" }, { "text": "Si les m\u00e9thodes de combinaison et de s\u00e9lection simples utilis\u00e9es ici parviennent \u00e0 des r\u00e9sultats encourageants, on peut esp\u00e9rer que des m\u00e9thodes plus sophistiqu\u00e9es pourraient conduire \u00e0 des am\u00e9liorations plus importantes. De plus, une \u00e9tude des donn\u00e9es explicites pourrait permettre d'augmenter la taille du corpus artificiel et d'am\u00e9liorer sa qualit\u00e9 en s\u00e9lectionnant des connecteurs et en identifiant des relations pour lesquelles cette m\u00e9thode est plus ou moins efficace et des traits plus informatifs dans une optique de combinaison des donn\u00e9es. Il faudra enfin porter ces m\u00e9thodes sur les donn\u00e9es anglaises pour une comparaison avec d'autres \u00e9tudes. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion", "sec_num": "6" }, { "text": "c ATALA", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "", "sec_num": null } ], "back_matter": [], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "Building and refining rhetorical-semantic relation models", "authors": [ { "first": "S", "middle": [], "last": "Blair-Goldensohn", "suffix": "" }, { "first": "K", "middle": [ "R" ], "last": "Mckeown", "suffix": "" }, { "first": "O", "middle": [ "C" ], "last": "Rambow", "suffix": "" } ], "year": 2007, "venue": "Proceedings of NAACL HLT", "volume": "", "issue": "", "pages": "428--435", "other_ids": {}, "num": null, "urls": [], "raw_text": "BLAIR-GOLDENSOHN, S., MCKEOWN, K. R. et RAMBOW, O. C. (2007). Building and refining rhetorical-semantic relation models. In Proceedings of NAACL HLT, page 428-435.", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "Benchmarking of statistical dependency parsers for french", "authors": [ { "first": "M", "middle": [], "last": "Candito", "suffix": "" }, { "first": "J", "middle": [], "last": "Nivre", "suffix": "" }, { "first": "P", "middle": [], "last": "Denis", "suffix": "" }, { "first": "E", "middle": [ "H" ], "last": "Anguiano", "suffix": "" } ], "year": 2010, "venue": "Proceedings of the 23rd ICCL posters", "volume": "", "issue": "", "pages": "108--116", "other_ids": {}, "num": null, "urls": [], "raw_text": "CANDITO, M., NIVRE, J., DENIS, P. et ANGUIANO, E. H. (2010). Benchmarking of statistical dependency parsers for french. In Proceedings of the 23rd ICCL posters, page 108-116.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "Building a discourse-tagged corpus in the framework of rhetorical structure theory", "authors": [ { "first": "L", "middle": [], "last": "Carlson", "suffix": "" }, { "first": "D", "middle": [], "last": "Marcu", "suffix": "" }, { "first": "M", "middle": [ "E" ], "last": "Okurowski", "suffix": "" } ], "year": 2001, "venue": "Proceedings of the Second SIGdial Workshop on Discourse", "volume": "16", "issue": "", "pages": "1--10", "other_ids": {}, "num": null, "urls": [], "raw_text": "CARLSON, L., MARCU, D. et OKUROWSKI, M. E. (2001). Building a discourse-tagged corpus in the framework of rhetorical structure theory. In Proceedings of the Second SIGdial Workshop on Discourse and Dialogue-Volume 16, page 1-10.", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "Frustratingly easy domain adaptation", "authors": [ { "first": "H", "middle": [], "last": "Daum\u00e9 Iii", "suffix": "" } ], "year": 2007, "venue": "Proceedings of ACL", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "DAUM\u00c9 III, H. (2007). Frustratingly easy domain adaptation. In Proceedings of ACL, page 256.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "Domain adaptation for statistical classifiers", "authors": [ { "first": "H", "middle": [], "last": "Daum\u00e9 Iii", "suffix": "" }, { "first": "D", "middle": [], "last": "Marcu", "suffix": "" } ], "year": 2006, "venue": "Journal of Artificial Intelligence Research", "volume": "26", "issue": "1", "pages": "101--126", "other_ids": {}, "num": null, "urls": [], "raw_text": "DAUM\u00c9 III, H. et MARCU, D. (2006). Domain adaptation for statistical classifiers. Journal of Artificial Intelligence Research, 26(1):101-126.", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "Coupling an annotated corpus and a morphosyntactic lexicon for state-of-the-art POS tagging with less human effort", "authors": [ { "first": "P", "middle": [], "last": "Denis", "suffix": "" }, { "first": "B", "middle": [], "last": "Sagot", "suffix": "" } ], "year": 2009, "venue": "Proceedings of PACLIC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "DENIS, P. et SAGOT, B. (2009). Coupling an annotated corpus and a morphosyntactic lexicon for state-of-the-art POS tagging with less human effort. In Proceedings of PACLIC.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "HILDA : a discourse parser using support vector machine classification", "authors": [ { "first": "H", "middle": [], "last": "Hernault", "suffix": "" }, { "first": "H", "middle": [], "last": "Prendinger", "suffix": "" }, { "first": "M", "middle": [], "last": "Ishizuka", "suffix": "" } ], "year": 2010, "venue": "Dialogue & Discourse", "volume": "", "issue": "3", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "HERNAULT, H., PRENDINGER, H. et ISHIZUKA, M. (2010). HILDA : a discourse parser using support vector machine classification. Dialogue & Discourse, 1(3).", "links": null }, "BIBREF7": { "ref_id": "b7", "title": "A PDTB-styled end-to-end discourse parser", "authors": [ { "first": "Z", "middle": [], "last": "Lin", "suffix": "" }, { "first": "H", "middle": [ "T" ], "last": "Ng", "suffix": "" }, { "first": "M", "middle": [ "Y" ], "last": "Kan", "suffix": "" } ], "year": 2010, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LIN, Z., NG, H. T. et KAN, M. Y. (2010). A PDTB-styled end-to-end discourse parser. Rapport technique, National University of Singapore.", "links": null }, "BIBREF8": { "ref_id": "b8", "title": "Rhetorical structure theory : Toward a functional theory of text organization", "authors": [ { "first": "W", "middle": [ "C" ], "last": "Mann", "suffix": "" }, { "first": "S", "middle": [ "A" ], "last": "Thompson", "suffix": "" } ], "year": 1988, "venue": "Text", "volume": "8", "issue": "3", "pages": "243--281", "other_ids": {}, "num": null, "urls": [], "raw_text": "MANN, W. C. et THOMPSON, S. A. (1988). Rhetorical structure theory : Toward a functional theory of text organization. Text, 8(3):243-281.", "links": null }, "BIBREF9": { "ref_id": "b9", "title": "An unsupervised approach to recognizing discourse relations", "authors": [ { "first": "D", "middle": [], "last": "Marcu", "suffix": "" }, { "first": "A", "middle": [], "last": "Echihabi", "suffix": "" } ], "year": 2002, "venue": "Proceedings of ACL", "volume": "", "issue": "", "pages": "368--375", "other_ids": {}, "num": null, "urls": [], "raw_text": "MARCU, D. et ECHIHABI, A. (2002). An unsupervised approach to recognizing discourse relations. In Proceedings of ACL, page 368-375.", "links": null }, "BIBREF10": { "ref_id": "b10", "title": "Constrained decoding for text-level discourse parsing", "authors": [ { "first": "P", "middle": [], "last": "Muller", "suffix": "" }, { "first": "S", "middle": [], "last": "Afantenos", "suffix": "" }, { "first": "P", "middle": [], "last": "Denis", "suffix": "" }, { "first": "N", "middle": [], "last": "Asher", "suffix": "" } ], "year": 2012, "venue": "Proceedings of COLING", "volume": "", "issue": "", "pages": "1883--1900", "other_ids": {}, "num": null, "urls": [], "raw_text": "MULLER, P., AFANTENOS, S., DENIS, P. et ASHER, N. (2012). Constrained decoding for text-level discourse parsing. In Proceedings of COLING, pages 1883-1900.", "links": null }, "BIBREF11": { "ref_id": "b11", "title": "Automatic sense prediction for implicit discourse relations in text", "authors": [ { "first": "E", "middle": [], "last": "Pitler", "suffix": "" }, { "first": "A", "middle": [], "last": "Louis", "suffix": "" }, { "first": "A", "middle": [], "last": "Nenkova", "suffix": "" } ], "year": 2009, "venue": "Proceedings of ACL-IJCNLP", "volume": "", "issue": "", "pages": "683--691", "other_ids": {}, "num": null, "urls": [], "raw_text": "PITLER, E., LOUIS, A. et NENKOVA, A. (2009). Automatic sense prediction for implicit discourse relations in text. In Proceedings of ACL-IJCNLP, page 683-691.", "links": null }, "BIBREF12": { "ref_id": "b12", "title": "Using syntax to disambiguate explicit discourse connectives in text", "authors": [ { "first": "E", "middle": [], "last": "Pitler", "suffix": "" }, { "first": "A", "middle": [], "last": "Nenkova", "suffix": "" } ], "year": 2009, "venue": "Proceedings of ACL-IJCNLP short papers", "volume": "", "issue": "", "pages": "13--16", "other_ids": {}, "num": null, "urls": [], "raw_text": "PITLER, E. et NENKOVA, A. (2009). Using syntax to disambiguate explicit discourse connectives in text. In Proceedings of ACL-IJCNLP short papers, page 13-16.", "links": null }, "BIBREF13": { "ref_id": "b13", "title": "The penn discourse treebank 2.0", "authors": [ { "first": "R", "middle": [], "last": "Prasad", "suffix": "" }, { "first": "N", "middle": [], "last": "Dinesh", "suffix": "" }, { "first": "A", "middle": [], "last": "Lee", "suffix": "" }, { "first": "E", "middle": [], "last": "Miltsakaki", "suffix": "" }, { "first": "L", "middle": [], "last": "Robaldo", "suffix": "" }, { "first": "A", "middle": [], "last": "Joshi", "suffix": "" }, { "first": "B", "middle": [], "last": "Webber", "suffix": "" } ], "year": 2008, "venue": "Proceedings of LREC", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "PRASAD, R., DINESH, N., LEE, A., MILTSAKAKI, E., ROBALDO, L., JOSHI, A. et WEBBER, B. (2008). The penn discourse treebank 2.0. In Proceedings of LREC, page 2961.", "links": null }, "BIBREF14": { "ref_id": "b14", "title": "ANNODIS : une approche outill\u00e9e de l'annotation de structures discursives", "authors": [ { "first": "M", "middle": [ "P" ], "last": "P\u00e9ry-Woodley", "suffix": "" }, { "first": "N", "middle": [], "last": "Asher", "suffix": "" }, { "first": "P", "middle": [], "last": "Enjalbert", "suffix": "" }, { "first": "F", "middle": [], "last": "Benamara", "suffix": "" }, { "first": "M", "middle": [], "last": "Bras", "suffix": "" }, { "first": "C", "middle": [], "last": "Fabre", "suffix": "" }, { "first": "S", "middle": [], "last": "Ferrari", "suffix": "" }, { "first": "L", "middle": [ "M" ], "last": "Ho-Dac", "suffix": "" }, { "first": "A", "middle": [], "last": "Le Draoulec", "suffix": "" }, { "first": "Y", "middle": [], "last": "Mathet", "suffix": "" } ], "year": 2009, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "P\u00c9RY-WOODLEY, M. P., ASHER, N., ENJALBERT, P., BENAMARA, F., BRAS, M., FABRE, C., FERRARI, S., HO-DAC, L. M., LE DRAOULEC, A. et MATHET, Y. (2009). ANNODIS : une approche outill\u00e9e de l'annotation de structures discursives. Actes de TALN 2009.", "links": null }, "BIBREF15": { "ref_id": "b15", "title": "Base lexicale des connecteurs discursifs du fran\u00e7ais", "authors": [ { "first": "C", "middle": [], "last": "Roze", "suffix": "" } ], "year": 2009, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ROZE, C. (2009). Base lexicale des connecteurs discursifs du fran\u00e7ais. M\u00e9moire de D.E.A., Universit\u00e9 Paris Diderot.", "links": null }, "BIBREF16": { "ref_id": "b16", "title": "Analysis of discourse structure with syntactic dependencies and data-driven shift-reduce parsing", "authors": [ { "first": "K", "middle": [], "last": "Sagae", "suffix": "" } ], "year": 2009, "venue": "Proceedings of IWPT", "volume": "", "issue": "", "pages": "81--84", "other_ids": {}, "num": null, "urls": [], "raw_text": "SAGAE, K. (2009). Analysis of discourse structure with syntactic dependencies and data-driven shift-reduce parsing. In Proceedings of IWPT, page 81-84.", "links": null }, "BIBREF17": { "ref_id": "b17", "title": "Lexical marking of discourse relations-some experimental findings", "authors": [ { "first": "C", "middle": [], "last": "Soria", "suffix": "" }, { "first": "G", "middle": [], "last": "Ferrari", "suffix": "" } ], "year": 1998, "venue": "Proceedings of the ACL-98 Workshop on Discourse Relations and Discourse Markers", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SORIA, C. et FERRARI, G. (1998). Lexical marking of discourse relations-some experimental findings. In Proceedings of the ACL-98 Workshop on Discourse Relations and Discourse Markers.", "links": null }, "BIBREF18": { "ref_id": "b18", "title": "Exploiting linguistic cues to classify rhetorical relations", "authors": [ { "first": "C", "middle": [], "last": "Sporleder", "suffix": "" }, { "first": "A", "middle": [], "last": "Lascarides", "suffix": "" } ], "year": 2007, "venue": "Amsterdam Studies In The Theory And History Of Linguistic Science Series", "volume": "4", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SPORLEDER, C. et LASCARIDES, A. (2007). Exploiting linguistic cues to classify rhetorical relations. Amsterdam Studies In The Theory And History Of Linguistic Science Series 4, 292:157.", "links": null }, "BIBREF19": { "ref_id": "b19", "title": "Using automatically labelled examples to classify rhetorical relations : An assessment", "authors": [ { "first": "C", "middle": [], "last": "Sporleder", "suffix": "" }, { "first": "A", "middle": [], "last": "Lascarides", "suffix": "" } ], "year": 2008, "venue": "Natural Language Engineering", "volume": "14", "issue": "3", "pages": "369--416", "other_ids": {}, "num": null, "urls": [], "raw_text": "SPORLEDER, C. et LASCARIDES, A. (2008). Using automatically labelled examples to classify rhetorical relations : An assessment. Natural Language Engineering, 14(3):369-416.", "links": null } }, "ref_entries": { "FIGREF0": { "text": "Elle \u00e9tait tr\u00e8s comique, tr\u00e8s dr\u00f4le.] a Cela_dit [,le drame n' \u00e9tait jamais loin.] b", "uris": null, "num": null, "type_str": "figure" }, "FIGREF1": { "text": "ASHER, N. et LASCARIDES, A. (2003).Logics of conversation. Cambridge University Press. BERGER, A. L., PIETRA, V. J. D. et PIETRA, S. A. D. (1996). A maximum entropy approach to natural language processing. Computational linguistics, 22(1):39-71.", "uris": null, "num": null, "type_str": "figure" }, "TABREF0": { "html": null, "text": "Exemple 1.1 {{[La hulotte est un rapace nocturne] [mais elle peut vivre le jour.]} cont rast [La hulotte mesure une quarantaine de centim\u00e8tres.]} cont inuat ion Exemple 1.2 {[Juliette est tomb\u00e9e.] a [Marion l'a pouss\u00e9e.] b } ex planation", "content": "", "type_str": "table", "num": null }, "TABREF1": { "html": null, "text": "vise la construction d'un corpus annot\u00e9 en discours pour le fran\u00e7ais suivant le cadre SDRT. La version du corpus utilis\u00e9e (en date du 15/11/2012) comporte 86 documents provenant de l'Est R\u00e9publicain et de Wikipedia. 3339 exemples sont annot\u00e9s avec 17 relations rh\u00e9toriques. Les documents sont segment\u00e9s en EDU : propositions, syntagmes pr\u00e9positionnels, adverbiaux d\u00e9tach\u00e9s \u00e0 gauche et incises, si le segment contient la description d'une \u00e9ventualit\u00e9. Les relations sont annot\u00e9es entre EDU ou segments complexes, contigu\u00ebs ou non. Les connecteurs discursifs ne sont pas annot\u00e9s.", "content": "
", "type_str": "table", "num": null }, "TABREF3": { "html": null, "text": "Dans ce cas, nous risquons de r\u00e9cup\u00e9rer les m\u00eames arguments pour deux formes d\u00e9clenchant des relations diff\u00e9rentes ce qui est probl\u00e9matique pour un syst\u00e8me de classification. Nous ne g\u00e9n\u00e9rons donc deux exemples quand deux connecteurs sont pr\u00e9sents qu'\u00e0 condition que les arguments", "content": "
soient diff\u00e9rents, l'un inter-phrastique, l'autre intra-phrastique. Nous avons \u00e9quilibr\u00e9 le corpus en
relation en conservant le maximum d'exemples disponibles en un corpus d'entra\u00eenement (80%
des donn\u00e9es), un de d\u00e9veloppement (10%) et un de test (10%).
", "type_str": "table", "num": null }, "TABREF4": { "html": null, "text": "", "content": "
-Corpus artificiel : nombre d'exemples par relation
4 Mod\u00e8le et jeu de traits
Pour cette \u00e9tude, nous avons employ\u00e9 un mod\u00e8le de classification discriminant par r\u00e9gression
logistique (ou maximum d'entropie). Ce choix est bas\u00e9 sur le fait que ce type de mod\u00e8les donne de
bonnes performances pour diff\u00e9rents probl\u00e8mes de TAL et a \u00e9t\u00e9 implant\u00e9 dans diff\u00e9rentes librairies
", "type_str": "table", "num": null }, "TABREF5": { "html": null, "text": "4. http://www.umiacs.umd.edu/~hal/megam/version0_3/", "content": "
MANONLYAUTOONLY
Donn\u00e9es de test Manuelles Manuelles Artificielles
Exactitude39.723.047.8
contrast13.323.238.3
result49.015.757.4
continuation39.732.154.3
explanation43.822.437.5
TABLE 3 -Mod\u00e8les de base, exactitude du syst\u00e8me et f-mesure par relation
", "type_str": "table", "num": null }, "TABREF6": { "html": null, "text": "De mani\u00e8re g\u00e9n\u00e9rale, l'ensemble de ces syst\u00e8mes avec les bons hyper-param\u00e8tres conduit \u00e0 des r\u00e9sultats au moins \u00e9quivalents et parfois sup\u00e9rieurs en exactitude par rapport \u00e0 MANONLY. Si la tendance g\u00e9n\u00e9rale est donc plut\u00f4t d'une hausse des performances, aucune des diff\u00e9rences observ\u00e9es \u00e0 ce stade ne semble cependant \u00eatre statistiquement significative. Les scores des syst\u00e8mes pr\u00e9sentant les r\u00e9sultats les plus pertinents sont repris dans la table 4. Ces r\u00e9sultats ne sont pas surprenants, les donn\u00e9es manuelles environ 372 fois moins nombreuses que les artificielles se retrouvent noy\u00e9es dans les donn\u00e9es artificielles.", "content": "
MANONLYAUTOONLY UNIONMANWAUTOSUB ADDPRED ADDPROB AUTOINITLININT
Param\u00e8tre---1004000.2---0.20.50.8
Exactitude39.723.024.234.9 41.739.742.939.339.339.7 38.5 35.3
contrast13.323.221.132.4 19.716.722.924.011.913.2 16.2 29.6
result49.015.716.428.0 39.244.947.445.846.347.0 39.5 24.8
continuation39.732.138.545.8 48.739.437.335.438.940.6 39.2 44.2
explanation43.822.421.731.7 47.746.152.843.845.445.4 48.6 40.3
TABLE 4 -Mod\u00e8les sans s\u00e9lection d'exemples, exactitude du syst\u00e8me et f-mesure par relation
La seule configuration qui m\u00e8ne \u00e0 des r\u00e9sultats n\u00e9gatifs est l'union simple des corpus d'entra\u00eene-
ment (UNION). Ce syst\u00e8me obtient 24.2 d'exactitude donc de l'ordre d'un entra\u00eenement sur les
seules donn\u00e9es artificielles.
", "type_str": "table", "num": null }, "TABREF7": { "html": null, "text": "Les seuils les plus int\u00e9ressants sont les seuils 60, 65, 70 et 75 qui repr\u00e9sentent respectivement un ajout de 553, 205, 72 et 16 exemples par relation. Les scores des syst\u00e8mes pr\u00e9sentant les r\u00e9sultats les plus pertinents sont repris dans la table 5. Mod\u00e8les avec s\u00e9lection d'exemples, exactitude du syst\u00e8me et f-mesure par relation La s\u00e9lection automatique d'exemples permet d'am\u00e9liorer les r\u00e9sultats pr\u00e9c\u00e9dents, qu'il s'agisse du mod\u00e8le AUTOONLY ou des mod\u00e8les avec combinaison des donn\u00e9es. De 23.0 d'exactitude avec AUTOONLY, on passe \u00e0 27.0 avec AUTOONLY +SELEC au seuil 60. De m\u00eame on passe de 24.2 avec UNION \u00e0 41.7 avec UNION +SELEC au seuil 75, l'exactitude augmentant avec la croissance du seuil.Il semble que les meilleurs syst\u00e8mes soient obtenus entre les seuils 60 et 70. Au seuil 65, les syst\u00e8mes AUTOINIT +SELEC, ADDPRED +SELEC et ADDPROB +SELEC atteignent leur meilleur score (voir table 5), ce dernier am\u00e9liorant significativement MANONLY (p-valeur= 0.046). L'exactitude de ces syst\u00e8mes ne suit pas une \u00e9volution claire suivant le seuil. De m\u00eame, si on retrouve avec LININT +SELEC une baisse de l'exactitude suivant \u03b1 \u00e0 chaque seuil, on n'a pas d'influence des seuils sur l'exactitude aux valeurs extr\u00eames de \u03b1.Avec AUTOSUB +SELEC et MANW +SELEC on a la m\u00eame tendance qu'avant, l'exactitude respectivement d\u00e9cro\u00eet et cro\u00eet avec la croissance du coefficient pour chaque seuil, mais pour AUTOSUB +SELEC on n'a rapidement plus assez d'exemples artificiels pour extraire des sous-ensembles. Pour MANW +SELEC, l'exactitude avec le coefficient le plus bas augmente avec le seuil, de 22.6 (seuil 30) \u00e0 37.7 (seuil 75). C'est avec ce syst\u00e8me et une influence tr\u00e8s faible des donn\u00e9es artificielles qu'on obtient le meilleur score d'exactitude, 45.6 am\u00e9liorant significativement les performances de MANONLY (p-valeur= 0.021).", "content": "
+SELECMANONLYAUTOONLYUNIONMANWADDPREDADDPROB AUTOINITLININT
Seuil-607060753065406565656075
Param\u00e8tre-----2500.5900----0.70.7
Exactitude39.727.0 23.8 26.2 41.7 35.3 30.6 45.6 42.5 44.444.043.336.5 34.9
contrast13.332.0 29.5 26.7 11.6 16.4 37.2 32.0 14.5 31.624.724.034.1 24.6
result49.020.08.225.4 50.0 29.5 27.8 53.2 47.4 52.653.247.833.6 29.7
continuation39.78.616.5 19.4 43.3 49.1 20.6 38.5 36.8 40.643.443.428.8 27.0
explanation43.831.8 32.1 30.9 45.6 35.3 34.3 51.1 55.9 45.944.448.946.1 52.9
", "type_str": "table", "num": null } } } }