{ "paper_id": "F14-1013", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T10:22:48.759405Z" }, "title": "Normalisation de textes par analogie: le cas des mots inconnus", "authors": [ { "first": "Marion", "middle": [], "last": "Baranes", "suffix": "", "affiliation": {}, "email": "" }, { "first": "Beno\u00eet", "middle": [], "last": "Sagot", "suffix": "", "affiliation": {}, "email": "" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "Dans cet article, nous proposons et \u00e9valuons un syst\u00e8me permettant d'am\u00e9liorer la qualit\u00e9 d'un texte bruit\u00e9 notamment par des erreurs orthographiques. Ce syst\u00e8me a vocation \u00e0 \u00eatre int\u00e9gr\u00e9 \u00e0 une architecture compl\u00e8te d'extraction d'information, et a pour objectif d'am\u00e9liorer les r\u00e9sultats d'une telle t\u00e2che. Pour chaque mot qui est inconnu d'un lexique de r\u00e9f\u00e9rence et qui n'est ni une entit\u00e9 nomm\u00e9e ni une cr\u00e9ation lexicale, notre syst\u00e8me cherche \u00e0 proposer une ou plusieurs normalisations possibles (une normalisation valide \u00e9tant un mot connu dont le lemme est le m\u00eame que celui de la forme orthographiquement correcte). Pour ce faire, ce syst\u00e8me utilise des techniques de correction automatique lexicale par r\u00e8gle qui reposent sur un syst\u00e8me d'induction de r\u00e8gles par analogie.", "pdf_parse": { "paper_id": "F14-1013", "_pdf_hash": "", "abstract": [ { "text": "Dans cet article, nous proposons et \u00e9valuons un syst\u00e8me permettant d'am\u00e9liorer la qualit\u00e9 d'un texte bruit\u00e9 notamment par des erreurs orthographiques. Ce syst\u00e8me a vocation \u00e0 \u00eatre int\u00e9gr\u00e9 \u00e0 une architecture compl\u00e8te d'extraction d'information, et a pour objectif d'am\u00e9liorer les r\u00e9sultats d'une telle t\u00e2che. Pour chaque mot qui est inconnu d'un lexique de r\u00e9f\u00e9rence et qui n'est ni une entit\u00e9 nomm\u00e9e ni une cr\u00e9ation lexicale, notre syst\u00e8me cherche \u00e0 proposer une ou plusieurs normalisations possibles (une normalisation valide \u00e9tant un mot connu dont le lemme est le m\u00eame que celui de la forme orthographiquement correcte). Pour ce faire, ce syst\u00e8me utilise des techniques de correction automatique lexicale par r\u00e8gle qui reposent sur un syst\u00e8me d'induction de r\u00e8gles par analogie.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "La qualit\u00e9 orthographique d'un texte peut avoir de nombreux impacts sur les analyses faites en traitement automatique de la langue. Les outils pour le fran\u00e7ais par exemple sont tr\u00e8s souvent con\u00e7us pour traiter du fran\u00e7ais standard. La qualit\u00e9 de leurs analyses et leurs r\u00e9sultats se retrouvent par cons\u00e9quent assez d\u00e9grad\u00e9s d\u00e8s qu'il s'agit de traiter des textes plus bruit\u00e9s. Le syst\u00e8me pr\u00e9sent\u00e9 ici tend \u00e0 am\u00e9liorer la qualit\u00e9 d'un texte donn\u00e9 pour une t\u00e2che d'extraction d'informations. L'outil effectuant cette t\u00e2che r\u00e9alise ses analyses en s'appuyant sur des s\u00e9quences de mots repr\u00e9sent\u00e9s par leurs lemmes. Notre objectif est d'am\u00e9liorer la qualit\u00e9 des textes qu'il traite avant leur passage dans l'outil en les normalisant.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "La normalisation est une t\u00e2che qui a pour but de proposer, pour chaque mot consid\u00e9r\u00e9 comme \u00ab fautif \u00bb, sa forme normativement correcte ou une forme qui lui est flexionnellement li\u00e9e. Nous consid\u00e9rons qu'une forme est \u00ab fautive \u00bb si son orthographe peut g\u00eaner une analyse ult\u00e9rieure. Notre travail se concentre sur la normalisation des fautes lexicales, qui correspondent \u00e0 des mots inconnus de notre lexique de r\u00e9f\u00e9rence, ici, le Lefff (Sagot, 2010) , en laissant de c\u00f4t\u00e9 pour l'instant les fautes grammaticales non flexionnelles, o\u00f9 un mot est remplac\u00e9 par un autre mot connu du lexique et de lemme diff\u00e9rent (ex : sont/font ou et/est). Enfin, nous voulons normaliser un texte et non le corriger, traiter les fautes grammaticales flexionnelles (fautes d'accord ou de flexion) n'est donc pas pertinent. Bien que la majorit\u00e9 des formes que nous consid\u00e9rons ici comme fautives correspondent \u00e0 des fautes lexicales, il peut aussi s'agir d'une forme r\u00e9duite volontairement (cf. changemt pour changement). De mani\u00e8re g\u00e9n\u00e9rale, si nous voulons normaliser une forme \u00ab fautive \u00bb, deux possibilit\u00e9s s'offrent \u00e0 nous. Nous pouvons soit tenter de la normaliser comme le ferait un outil de correction automatique, en proposant sa forme normativement correcte (ex : t\u00e9l\u00e9phonnez \u2192 t\u00e9l\u00e9phonez), soit la remplacer par une forme qui partage le m\u00eame lemme que sa forme attendue (ex : t\u00e9l\u00e9phonnez \u2192 t\u00e9l\u00e9phoner ou t\u00e9l\u00e9phoniez). Ce dernier rattachement ne provoquera aucun bruit puisque nous cherchons ici \u00e0 am\u00e9liorer un texte pour qu'il puisse \u00eatre analys\u00e9 par une t\u00e2che ult\u00e9rieure qui, comme indiqu\u00e9 plus haut, s'appuie non pas sur les tokens mais sur les lemmes.", "cite_spans": [ { "start": 436, "end": 449, "text": "(Sagot, 2010)", "ref_id": "BIBREF28" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Notre objectif est donc de transformer un texte bruit\u00e9 en rempla\u00e7ant les mots \u00ab fautifs \u00bb qu'il contient par leur correction id\u00e9ale ou par une forme fl\u00e9chie du lemme qui \u00e9tait attendu. Pour ce faire, nous faisons le postulat qu'en utilisant MARION BARANES, BENO\u00ceT SAGOT des techniques de correction automatique nous obtiendrons un bon syst\u00e8me de normalisation. Notre syst\u00e8me, inspir\u00e9 des syst\u00e8mes par analogie, fonctionne ainsi \u00e0 l'aide de r\u00e8gles de correction apprises et pond\u00e9r\u00e9es automatiquement. Naturellement, une tokenisation pr\u00e9alable est n\u00e9cessaire. De plus, certains mots \u00ab fautifs \u00bb ne pourront pas \u00eatre corrig\u00e9s par analogie, et ne sont parfois pas v\u00e9ritablement fautifs (les abr\u00e9viations, par exemple). Nous appliquons donc un certain nombre de traitements pr\u00e9alables avant de mettre en oeuvre notre syst\u00e8me de normalisation par analogie proprement dit.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Comme ce syst\u00e8me est inspir\u00e9 des syst\u00e8mes de correction automatique lexicale et des syst\u00e8mes utilisant l'analogie, nous commencerons par dresser un \u00e9tat de l'art de ces notions \u00e0 la section 2. Puis, nous d\u00e9taillerons le syst\u00e8me pr\u00e9sent\u00e9 et les diff\u00e9rents modules qui le composent \u00e0 la section 3, y compris les traitements pr\u00e9alables \u00e0 son application. Enfin, nous \u00e9valuons notre syst\u00e8me \u00e0 la section 4.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Le syst\u00e8me de normalisation pr\u00e9sent\u00e9 ici s'inspire de techniques de correction automatique et plus particuli\u00e8rement de la correction des fautes lexicales. Les travaux sur la correction lexicale ont d\u00e9but\u00e9s dans les ann\u00e9es 1960 (Blair, 1960; Damerau, 1964) . Au fil du temps et des avanc\u00e9es technologiques, ces travaux ont beaucoup \u00e9volu\u00e9 (Kukich, 1992; Mitton, 1996 Mitton, , 2010 . L'\u00e9tat de l'art propos\u00e9 ci-dessous, n'a donc pas pour objectif d'\u00eatre exaustif mais plut\u00f4t de donner un aper\u00e7u des techniques utilis\u00e9es. Les premiers syst\u00e8mes propos\u00e9s se limitaient au mot \u00e0 corriger sans prendre en compte leurs mots avoisinants. Ils fonctionnaient principalement \u00e0 base de r\u00e8gles typographiques et de distance d'\u00e9dition (Damerau, 1964; Kernighan et al., 1990) ou avec un syst\u00e8me de v\u00e9rification dans le lexique plus tol\u00e9rant (Oflazer, 1996) . Puis, le contexte a commenc\u00e9 \u00e0 \u00eatre pris en compte. Pour ce faire, certains travaux se sont appuy\u00e9s sur des mod\u00e8les de langue n-grammes de mots (Brill et Moore, 2000; Carlson et Fette, 2007; Park et Levy, 2011) , phon\u00e9tiques (Toutanova et Moore, 2002) , ou encore sur des mod\u00e8les de langue n-grammes qui combinaient ses deux caract\u00e9ristiques (Boyd, 2009) . Ces n-grammes \u00e9tant, par la suite, souvent associ\u00e9s \u00e0 d'autres param\u00e8tres tels que la cat\u00e9gorie grammaticale, la transcription phon\u00e9tique ou encore la longueur du mot \u00e0 corriger. Des \u00e9tudes diff\u00e9rentes ont pr\u00e9f\u00e9r\u00e9 s'appuyer sur des mesures distributionnelles. C'est par exemple le cas de Suignard et Kerroua (2013) , qui se sont appuy\u00e9s sur les travaux de Li et al. (2006) . Enfin d'autres approches, comme celle propos\u00e9e par Yvon (2011) s'appuient plut\u00f4t sur des mod\u00e8les probabilistes.", "cite_spans": [ { "start": 227, "end": 240, "text": "(Blair, 1960;", "ref_id": null }, { "start": 241, "end": 255, "text": "Damerau, 1964)", "ref_id": "BIBREF7" }, { "start": 338, "end": 352, "text": "(Kukich, 1992;", "ref_id": "BIBREF14" }, { "start": 353, "end": 365, "text": "Mitton, 1996", "ref_id": "BIBREF23" }, { "start": 366, "end": 380, "text": "Mitton, , 2010", "ref_id": "BIBREF24" }, { "start": 721, "end": 736, "text": "(Damerau, 1964;", "ref_id": "BIBREF7" }, { "start": 737, "end": 760, "text": "Kernighan et al., 1990)", "ref_id": "BIBREF12" }, { "start": 826, "end": 841, "text": "(Oflazer, 1996)", "ref_id": "BIBREF26" }, { "start": 988, "end": 1010, "text": "(Brill et Moore, 2000;", "ref_id": "BIBREF5" }, { "start": 1011, "end": 1034, "text": "Carlson et Fette, 2007;", "ref_id": "BIBREF6" }, { "start": 1035, "end": 1054, "text": "Park et Levy, 2011)", "ref_id": "BIBREF27" }, { "start": 1069, "end": 1095, "text": "(Toutanova et Moore, 2002)", "ref_id": "BIBREF35" }, { "start": 1186, "end": 1198, "text": "(Boyd, 2009)", "ref_id": "BIBREF5" }, { "start": 1486, "end": 1515, "text": "de Suignard et Kerroua (2013)", "ref_id": null }, { "start": 1554, "end": 1573, "text": "de Li et al. (2006)", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Le choix des techniques utilis\u00e9es est souvent guid\u00e9 par l'objectif vis\u00e9 par le correcteur. Un correcteur qui cherche \u00e0 corriger des fautes grammaticales en plus des fautes lexicales (comme ceux propos\u00e9s par Carlson et Fette (2007) et Yvon (2011)) devra automatiquement \u00eatre plus robuste, la d\u00e9tection d'erreurs \u00e9tant plus complexe \u00e0 r\u00e9aliser et la g\u00e9n\u00e9ration de candidats de correction plus risqu\u00e9e. Par ailleurs, si le correcteur en question doit traiter des textes plus d\u00e9grad\u00e9s (SMS, forum, blogs, etc.), les approches varieront aussi. On pourra, dans ce cas, ajouter des lexiques plus sp\u00e9cifiques au type de fautes \u00e0 traiter (Guimier de Neef et al., 2007; Seddah et al., 2012) , prendre en compte la phon\u00e9tique des mots en phon\u00e9tisant le texte \u00e0 traiter (Kobus et al., 2008) , utiliser un syst\u00e8me de classification (Han et Baldwin, 2011) ou encore proc\u00e9der \u00e0 un apprentissage par alignement (Beaufort et al., 2010) .", "cite_spans": [ { "start": 207, "end": 230, "text": "Carlson et Fette (2007)", "ref_id": "BIBREF6" }, { "start": 629, "end": 659, "text": "(Guimier de Neef et al., 2007;", "ref_id": "BIBREF8" }, { "start": 660, "end": 680, "text": "Seddah et al., 2012)", "ref_id": "BIBREF31" }, { "start": 758, "end": 778, "text": "(Kobus et al., 2008)", "ref_id": "BIBREF13" }, { "start": 819, "end": 841, "text": "(Han et Baldwin, 2011)", "ref_id": "BIBREF9" }, { "start": 895, "end": 918, "text": "(Beaufort et al., 2010)", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Dans ce travail, nous voulons corriger des mots sans prendre en compte le contexte dans lequel ils apparaissent. C'est pour cette raison que nous nous sommes int\u00e9ress\u00e9s aux syst\u00e8mes par r\u00e8gles. Ces syst\u00e8mes reposent souvent sur la notion de distance d'\u00e9dition introduite par Damerau (1964) puis Levenshtein (1966) . Cette notion met en oeuvre quatre types de r\u00e8gles (l'insertion et la suppression d'une lettre, la substitution d'une lettre par une autre, l'inversion de deux lettres cons\u00e9cutives). L'id\u00e9e est de s'appuyer sur ces op\u00e9rations, que l'on peut donc consid\u00e9rer comme des r\u00e8gles de correction, pour passer d'un mot mal orthographi\u00e9 \u00e0 sa forme attendue. Cette m\u00e9thode a \u00e9t\u00e9 reprise et am\u00e9lior\u00e9e par de nombreux travaux. Des r\u00e8gles sp\u00e9cifiques aux fautes de proximit\u00e9 clavier sont propos\u00e9es (Sagot et Boullier, 2008) . Des connaissances linguistiques ont \u00e9galement \u00e9t\u00e9 int\u00e9gr\u00e9es. Par exemple, V\u00e9ronis (1988) et Sagot et Boullier (2008) traitent les fautes dites phon\u00e9tiques (ex : remplacement de o par eau). Le contexte dans lequel s'applique la r\u00e8gle peut \u00eatre pris en compte (Kernighan et al., 1990) . Par ailleurs, la pond\u00e9ration de ces r\u00e8gles ne se fait plus syst\u00e9matiquement en fonction du nombre d'op\u00e9rations effectu\u00e9es sur le mot. Le choix du poids d'une correction se fait, manuellement ou non, en fonction de l'op\u00e9ration effectu\u00e9e et des lettres concern\u00e9es par cette op\u00e9ration (V\u00e9ronis, 1988; Mitton, 1996; Sagot et Boullier, 2008) .", "cite_spans": [ { "start": 275, "end": 289, "text": "Damerau (1964)", "ref_id": "BIBREF7" }, { "start": 295, "end": 313, "text": "Levenshtein (1966)", "ref_id": "BIBREF20" }, { "start": 799, "end": 824, "text": "(Sagot et Boullier, 2008)", "ref_id": "BIBREF29" }, { "start": 901, "end": 915, "text": "V\u00e9ronis (1988)", "ref_id": "BIBREF36" }, { "start": 919, "end": 943, "text": "Sagot et Boullier (2008)", "ref_id": "BIBREF29" }, { "start": 1085, "end": 1109, "text": "(Kernighan et al., 1990)", "ref_id": "BIBREF12" }, { "start": 1394, "end": 1409, "text": "(V\u00e9ronis, 1988;", "ref_id": "BIBREF36" }, { "start": 1410, "end": 1423, "text": "Mitton, 1996;", "ref_id": "BIBREF23" }, { "start": 1424, "end": 1448, "text": "Sagot et Boullier, 2008)", "ref_id": "BIBREF29" } ], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Ces r\u00e8gles s'appuient majoritairement soit sur des r\u00e8gles simples que l'on tente d'appliquer sur toutes les lettres d'un mot inconnu, soit sur des r\u00e8gles plus sp\u00e9cifiques (proximit\u00e9 clavier, phon\u00e9tique) souvent list\u00e9es manuellement. Notre objectif est d'acqu\u00e9rir automatiquement ces r\u00e8gles et de les pond\u00e9rer en fonction de la fr\u00e9quence de la faute correspondante. Pour cela, nous nous inspirons de techniques d'apprentissage par analogie pour induire des r\u00e8gles de correction. L'analogie a d\u00e9j\u00e0 \u00e9t\u00e9 employ\u00e9e pour plusieurs t\u00e2ches relevant du traitement automatique des langues. Elle peut ainsi \u00eatre utilis\u00e9e pour des t\u00e2ches de traduction automatique (Lepage et Denoual, 2005) ou de recherche d'informations (Moreau et al., 2007) , pour regrouper les mots d'un lexique en famille morphologique (Hathout, 2010) ou encore pour l'analyse morphologique (Stroppa et Yvon, 2005; Lavall\u00e9e et Langlais, 2011) . Cette notion permet d'\u00e9tablir un rapport de proportionnalit\u00e9 entre des unit\u00e9s linguistiques. Formellement, elle peut \u00eatre repr\u00e9sent\u00e9e ainsi : \u00ab a : b :: c : d \u00bb, ce qui signifie \u00ab a est \u00e0 b ce que c est \u00e0 d \u00bb. Le couple a, b entretient ainsi une relation d'analogie avec c, d. En morphologie, par exemple, on pourra construire des analogies comme \u00ab tutoiement : tutoyer :: vouvoiement : vouvoyer \u00bb. Nous ne d\u00e9finirons pas ici dans le d\u00e9tail la notion d'analogie. Le lecteur int\u00e9ress\u00e9 pourra se r\u00e9f\u00e9rer aux travaux de (Lepage, 1998 (Lepage, , 2000 , de (Stroppa et Yvon, 2006) ou encore de (Lavall\u00e9e et Langlais, 2009) . Dans ce travail, l'analogie nous permettra d'analyser et de rattacher un mot inconnu dont l'orthographe est consid\u00e9r\u00e9e comme \u00ab fautive \u00bb \u00e0 son orthographe attendue par analogie avec des couples (forme fautive, forme corrig\u00e9e) connues.", "cite_spans": [ { "start": 651, "end": 676, "text": "(Lepage et Denoual, 2005)", "ref_id": "BIBREF19" }, { "start": 708, "end": 729, "text": "(Moreau et al., 2007)", "ref_id": "BIBREF25" }, { "start": 794, "end": 809, "text": "(Hathout, 2010)", "ref_id": "BIBREF11" }, { "start": 849, "end": 872, "text": "(Stroppa et Yvon, 2005;", "ref_id": "BIBREF32" }, { "start": 873, "end": 900, "text": "Lavall\u00e9e et Langlais, 2011)", "ref_id": "BIBREF15" }, { "start": 1420, "end": 1433, "text": "(Lepage, 1998", "ref_id": "BIBREF17" }, { "start": 1434, "end": 1449, "text": "(Lepage, , 2000", "ref_id": "BIBREF18" }, { "start": 1455, "end": 1478, "text": "(Stroppa et Yvon, 2006)", "ref_id": "BIBREF33" }, { "start": 1492, "end": 1520, "text": "(Lavall\u00e9e et Langlais, 2009)", "ref_id": "BIBREF16" } ], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Les formes que nous pourrions consid\u00e9rer comme \u00ab fautives \u00bb sont nombreuses et de types tr\u00e8s distincts. Toutefois, les pr\u00e9traitements effectu\u00e9s au pr\u00e9alable de ce module nous permettront d'\u00e9carter \u00e0 terme les fautes sp\u00e9cifiques aux corpus de type SMS ou les formes trop \u00e9loign\u00e9es de leurs orthographes normativement correctes (ex : tjs ou pk). Ainsi la majorit\u00e9 des fautes restantes seront souvent dues \u00e0 des fautes de proximit\u00e9 clavier (ex : znalise), de duplication de lettres (ex : anallyse), phon\u00e9tiques (ex : analize) ou encore provenant d'un m\u00e9canisme de r\u00e9duction volontaire de mot (ex : pvoir). Ces fautes semblent donc pouvoir \u00eatre rapproch\u00e9es d'autres fautes possibles r\u00e9sultant de m\u00e9canismes similaires. Nous faisons l'hypoth\u00e8se, dans cet article, que la majorit\u00e9 de ces fautes r\u00e9sultent au plus d'une erreur lourde, comme montr\u00e9 par Damerau (1964) , \u00e9ventuellement associ\u00e9e \u00e0 des fautes \u00ab l\u00e9g\u00e8res d'accentuation, et que ces diff\u00e9rents types de fautes peuvent \u00eatre corrig\u00e9es par des r\u00e8gles apprises automatiquement par analogie formelle. Par exemple, si nous avons d\u00e9j\u00e0 vu au pr\u00e9alable et extrait par g\u00e9n\u00e9ralisation appropri\u00e9e la r\u00e8gle de correction permettant de passer de \u00ab engagemt \u00bb \u00e0 \u00ab engagement \u00bb nous devrions \u00eatre capable de pr\u00e9dire l'orthographe correcte de \u00ab changemt \u00bb (cf Figure 1) . Le syst\u00e8me propos\u00e9 dans cet article utilise donc des techniques de correction par r\u00e8gles afin de normaliser les textes que nous souhaitons traiter. Avant de nous int\u00e9resser plus particuli\u00e8rement au fonctionnement de ce dernier, nous d\u00e9crirons rapidement, \u00e0 la section 3.1, les traitements mis en oeuvre au pr\u00e9alable de notre module. Puis nous d\u00e9taillerons, dans les sections 3.2, 3.3 et 3.4, l'apprentissage de nos diff\u00e9rentes r\u00e8gles de correction pond\u00e9r\u00e9es, leur combinaison les unes avec les autres et l'application de ces derni\u00e8res sur les mots consid\u00e9r\u00e9s comme \u00ab fautifs \u00bb par notre syst\u00e8me. L'objectif \u00e9tant de proposer des candidats de correction pond\u00e9r\u00e9s aux formes inconnues du Lefff que nous consid\u00e9rons comme potentiellement \u00ab fautives \u00bb.", "cite_spans": [ { "start": 845, "end": 859, "text": "Damerau (1964)", "ref_id": "BIBREF7" } ], "ref_spans": [ { "start": 1296, "end": 1305, "text": "Figure 1)", "ref_id": "FIGREF0" } ], "eq_spans": [], "section": "Syst\u00e8me propos\u00e9", "sec_num": "3" }, { "text": "Avant d'appliquer notre module de normalisation, nous effectuons plusieurs traitements tels que la tokenisation de notre texte, la d\u00e9tection de motifs particuliers ou encore la correction de formes sp\u00e9cifiques \u00e0 certains types de corpus (\u00ab tkt \u00bb qui signifie \u00ab ne t'inqui\u00e8te pas \u00bb par exemple). Nous r\u00e9alisons ces traitements \u00e0 l'aide de la cha\u00eene SXPipe (Sagot et Boullier, 2008) . Plus pr\u00e9cis\u00e9ment, nous sommes partis de sa version utilis\u00e9e dans le cadre du projet EDyLex (Sagot et al., 2013) , qui cherche \u00e0 pallier certains probl\u00e8mes que pose l'incompl\u00e9tude lexicale et qui a notamment pour but de d\u00e9tecter les n\u00e9ologismes. Nous y avons ajout\u00e9 des modules de d\u00e9tection de certains ph\u00e9nom\u00e8nes non encore trait\u00e9s, afin de ne pas modifier des formes qui n'auraient pas de raisons de l'\u00eatre. C'est par exemple le cas des autocensures (ex : m*#%@, p***n), des onomatop\u00e9es (ex : hahaha), des interjections (ex : hum), des \u00e9tirements (ex : nooooon) ou des d\u00e9compositions (ex : d\u00e9-plo-rable). Enfin, nous avons ajout\u00e9 des modules de correction/normalisation d\u00e9terministe pour traiter certaines fautes fr\u00e9quentes qu'une approche reposant sur des r\u00e8gles induites par analogie ne pourra pas traiter. Nous utilisons pour cela un lexique de corrections 1 et une courte liste d'autres formes non standard 2 , notamment des abr\u00e9viations (ex : ds ou 1. Ce lexique peut-\u00eatre mis en place et compl\u00e9t\u00e9 manuellement mais nous n'utilisons actuellement que les 924 fautes courantes figurant dans la liste de correction automatique de la wikip\u00e9dia (cf : http://fr.wikipedia.org/wiki/Wikip\\%C3\\%A9dia:Liste_de_fautes_d\\ %27orthographe_courantes)", "cite_spans": [ { "start": 355, "end": 380, "text": "(Sagot et Boullier, 2008)", "ref_id": "BIBREF29" }, { "start": 474, "end": 494, "text": "(Sagot et al., 2013)", "ref_id": "BIBREF30" } ], "ref_spans": [], "eq_spans": [], "section": "Traitements pr\u00e9alables", "sec_num": "3.1" }, { "text": "2. L'orthographe de ces mots \u00e9tant souvent voulue, nous pr\u00e9f\u00e9rons parler de formes non standard plut\u00f4t que de fautes.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Traitements pr\u00e9alables", "sec_num": "3.1" }, { "text": "MARION BARANES, BENO\u00ceT SAGOT cad) ou des r\u00e9ductions propres au langage SMS (ex : slt ou tkt). Suite \u00e0 ces traitements pr\u00e9alables, tous les mots encore inconnus de nos lexiques sont consid\u00e9r\u00e9s comme des mots \u00e0 normaliser.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Traitements pr\u00e9alables", "sec_num": "3.1" }, { "text": "Dans un premier temps, nous montrerons comment nous avons extrait automatiquement nos r\u00e8gles de correction, puis nous expliquerons comment nous combinons ces r\u00e8gles entre elles. Enfin, nous verrons comment pond\u00e9rer les candidats de correction/normalisation propos\u00e9s par notre syst\u00e8me afin de ne conserver que le ou les candidats les plus probables.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Traitements pr\u00e9alables", "sec_num": "3.1" }, { "text": "L'apprentissage de nos r\u00e8gles de correction s'appuie sur un corpus de fautes lexicales annot\u00e9es, le corpus WiCoPaCo (Max et Wisniewski, 2010) Nous apprendrons ainsi les informations suivantes. : -la zone fautive et sa contrepartie corrig\u00e9e, c'est-\u00e0-dire les deux cha\u00eenes de caract\u00e8res \u00e0 substituer pour passer d'une forme \u00e0 une autre : \u00ab ev \u2192 ve \u00bb ; -le contexte dans lequel s'applique cette substitution : \u00ab sou_nt \u00bb. Si nous conservons ces informations en l'\u00e9tat nous obtiendrons des r\u00e8gles trop sp\u00e9cifiques (de type : {sou}{ev\u2192ve}{nt}) qui s'appliqueraient \u00e0 trop peu de fautes. Afin d'\u00e9viter les cas de sous-correction et de sur-correction, nous avons construit deux jeux de r\u00e8gles en g\u00e9n\u00e9ralisant de deux fa\u00e7ons diff\u00e9rentes les r\u00e8gles individuelles directement extraites des fautes, ou r\u00e8gles de base. Pour d\u00e9finir ces deux jeux de r\u00e8gles, nous avons besoin de d\u00e9finir quelques termes. \u00c9tant donn\u00e9e une zone fautive, nous appellerons dans la suite contexte de niveau 1 le contexte form\u00e9 des deux lettres encadrant imm\u00e9diatement cette zone (la lettre \u00e0 sa gauche et celle \u00e0 sa droite). Nous appellerons contexte de niveau 2 les deux lettres situ\u00e9es \u00e0 une distance de 2 de la faute, c'est-\u00e0-dire les deux lettres encadrant imm\u00e9diatement le contexte de niveau 1. D\u00e8s lors qu'un contexte va au-del\u00e0 des limites du mot, nous utilisons la pseudo-lettre #. R\u00e8gles sp\u00e9cifiques Le premier jeu de r\u00e8gles est produit par g\u00e9n\u00e9ralisation limit\u00e9e \u00e0 partir des r\u00e8gles de base. Elles ne conservent que le type (consonne (C), voyelle (V) ou #) des lettres de contexte de niveau 2 mais laisse inchang\u00e9 le contexte de niveau 1. Ainsi, si l'on rencontre la paire souevnt::souvent lors de l'apprentissage, la r\u00e8gle sp\u00e9cifique qui sera extraite est : {Vu}{ev\u2192ve}{nC}. ", "cite_spans": [ { "start": 116, "end": 141, "text": "(Max et Wisniewski, 2010)", "ref_id": "BIBREF22" } ], "ref_spans": [], "eq_spans": [], "section": "Apprentissage des r\u00e8gles de correction", "sec_num": "3.2" }, { "text": "Afin de pallier l'absence possible de r\u00e8gles de correction propre aux fautes typographiques nous avons g\u00e9n\u00e9r\u00e9 un nouveau jeu de r\u00e8gle de correction. Par fautes typographiques nous entendons ici les fautes telles que l'ajout et la suppression d'une lettre (ex : boneur, bonheure), la substitution d'une lettre par une autre (ex : bomheur) et l'inversion de deux lettres ensemble (ex : bohneur). Ces quatre op\u00e9rations sont \u00e0 la base de la notion de distance d'\u00e9dition (Damerau, 1964) . Nous avons donc ajouter une seconde passe de correction, qui cherche tous les mots du Lefff qui sont \u00e0 une distance d'\u00e9dition de 1 du mot \u00ab fautif \u00bb. Nous d\u00e9noterons ce module par le terme de correction g\u00e9n\u00e9rique.", "cite_spans": [ { "start": 466, "end": 481, "text": "(Damerau, 1964)", "ref_id": "BIBREF7" } ], "ref_spans": [], "eq_spans": [], "section": "G\u00e9n\u00e9ration de r\u00e8gles de correction g\u00e9n\u00e9riques", "sec_num": "3.3" }, { "text": "Cette m\u00e9thode, plus risqu\u00e9e que la pr\u00e9c\u00e9dente, est suceptible de provoquer du bruit dans nos r\u00e9sultats. C'est pourquoi la correction g\u00e9n\u00e9rique ne corrigera que les mots \u00ab fautifs \u00bb que notre syst\u00e8me par r\u00e8gles n'aura pas trait\u00e9. Chaque candidat propos\u00e9 par le module de correction g\u00e9n\u00e9rique est pond\u00e9r\u00e9 par le logarithme de sa fr\u00e9quence dans la Wikipedia fran\u00e7aise. Il est ensuite normalis\u00e9 de fa\u00e7on affine de telle sorte qu'un mot inconnu de la Wikip\u00e9dia, qui sera consid\u00e9r\u00e9 comme y \u00e9tant attest\u00e9 0,1 fois, obtienne un poids de 0 et que le mot le plus fr\u00e9quent de la Wikipedia ait un poids de 1. Ainsi les mots les plus fr\u00e9quents de la langue auront plus de chance d'\u00eatre choisis comme candidat de correction lors de l'\u00e9valuation, d\u00e8s lors que l'on prendra la fr\u00e9quence en compte.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "G\u00e9n\u00e9ration de r\u00e8gles de correction g\u00e9n\u00e9riques", "sec_num": "3.3" }, { "text": "Notre syst\u00e8me vise \u00e0 proposer les candidats de correction les plus probables pour une faute donn\u00e9e, en esp\u00e9rant obtenir une ou plusieurs normalisations valides. Pour ce faire nous nous appuyons sur nos deux premiers ensembles de r\u00e8gles (sp\u00e9cifiques et larges). Chaque r\u00e8gle qui peut s'appliquer sur le mot \u00ab fautif \u00bb permet de g\u00e9n\u00e9rer un candidat de correction/normalisation, qui n'est retenu que s'il est pr\u00e9sent dans notre lexique de r\u00e9f\u00e9rence, le Lefff . En l'absence de candidat, nous autorisions chaque r\u00e8gle \u00e0 \u00eatre compl\u00e9t\u00e9e par des changements d'accentuation. Pour cela, nous v\u00e9rifions pour chaque candidat obtenu par l'application d'une r\u00e8gle si sa contrepartie non accentu\u00e9e est pr\u00e9sente dans une version pr\u00e9alamblement d\u00e9saccentu\u00e9e du Lefff . Si c'est le cas, nous consid\u00e9rons toutes les versions accentu\u00e9es correspondantes comme des corrections possibles. Pour le mot elevve par exemple, nous proposerons \u00e9lev\u00e9 ou \u00e9l\u00e8ve 3 . Dans le cas o\u00f9 nous n'avons toujours pas de candidat, nous tentons d'en produire \u00e0 l'aide de nos r\u00e8gles de correction g\u00e9n\u00e9riques.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "G\u00e9n\u00e9ration et s\u00e9lection des candidats de correction", "sec_num": "3.4" }, { "text": "3. Le nombre de fautes d'accentuation autoris\u00e9 est le nombre minimum qu'il faut effectuer pour obtenir un candidat. Par exemple, pour le mot elevv\u00e9, seul \u00e9lev\u00e9 sera propos\u00e9 car \u00e9l\u00e8ve supposerait 3 modifications d'accentuation, alors qu'\u00e9lev\u00e9 n'en implique qu'une seule.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "G\u00e9n\u00e9ration et s\u00e9lection des candidats de correction", "sec_num": "3.4" }, { "text": "Nos deux premiers jeux de r\u00e8gles proposent chacuns des candidats de correction accompagn\u00e9s de leurs scores de correction (cf. table 2) 4 pour un mot \u00ab fautif \u00bb. Les r\u00e8gles sp\u00e9cifiques proposeront automatiquement moins de candidats que les r\u00e8gles larges 5 . Par ailleurs, les scores propos\u00e9s par ces deux jeux pour une m\u00eame correction ne seront jamais identiques. Il faut donc pouvoir prendre en compte leur deux analyses afin d'attribuer \u00e0 chaque candidat de correction un score global. Nous avons par ailleurs constat\u00e9 que certaines propositions de correction correspondent \u00e0 des mots assez rares dans la langue et sont, malgr\u00e9 tout, trop bien pond\u00e9r\u00e9s. Pour pallier cela, nous prenons en compte la fr\u00e9quence de chaque candidat de correction dans la langue. Pour ce faire nous avons extrait un score de fr\u00e9quence compris entre 0 et 1 de la m\u00eame fa\u00e7on que pour la correction g\u00e9n\u00e9rique (cf. plus haut). Ainsi, pour \u00e9valuer, scorer et trier chaque candidat de correction c du mot d'origine w, nous prenons en compte trois param\u00e8tres :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "MARION BARANES, BENO\u00ceT SAGOT", "sec_num": null }, { "text": "1. le score S s (c, w) \u00e9gal au poids de la r\u00e8gle sp\u00e9cifique qui permet de passer de w \u00e0 c, s'il y en a une, 2. le score S l (c, w) \u00e9gal au poids de la r\u00e8gle large qui permet de passer de w \u00e0 c, 3. la score de fr\u00e9quence F (c) de la correction/normalisation propos\u00e9e c.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "MARION BARANES, BENO\u00ceT SAGOT", "sec_num": null }, { "text": "Le score global d'un candidat sera ensuite calcul\u00e9 par combinaison lin\u00e9aire de ces trois scores. Soit \u03bb s le coefficient assign\u00e9 au score de la correction sp\u00e9cifique et \u03bb l celui assign\u00e9 au score de la correction large. Nous d\u00e9finissons le score global d'une correction par Comme indiqu\u00e9 plus haut, notre syst\u00e8me s'ins\u00e8re dans une cha\u00eene compl\u00e8te de normalisation textuelle. Cette cha\u00eene a notamment pour t\u00e2che, pr\u00e9alablement \u00e0 l'application de notre syst\u00e8me de correction par analogie, de d\u00e9tecter et de pr\u00e9server de toute correction ult\u00e9rieure diff\u00e9rents types de mots inconnus, tels que les cr\u00e9ations lexicales ou les mots \u00e9trangers. Toutefois, dans la mesure o\u00f9 nous cherchons ici \u00e0 \u00e9valuer notre syst\u00e8me de normalisation, ind\u00e9pendamment du reste d'une telle cha\u00eene, nous avons d'une part d\u00e9sactiv\u00e9 les modules de d\u00e9tection des emprunts et des n\u00e9ologismes et d'autre part v\u00e9rifi\u00e9 qu'il n'y avait pas de cr\u00e9ations lexicales ou de mots \u00e9trangers dans nos donn\u00e9es d'\u00e9valuation, suppos\u00e9es ne contenir que des fautes lexicales et leur correction. En r\u00e9alit\u00e9, nous en avons trouv\u00e9 quelques cas ne relevant pas de fautes lexicales, mais plut\u00f4t de substitutions d'un mot par un autre. Nous avons ainsi identifi\u00e9 et retir\u00e9 manuellement de nos donn\u00e9es d'\u00e9valuation 38 occurrences de cr\u00e9ations lexicales (ex : herbologiste, windobe, zitanoisme) ou \u00e0 des mots \u00e9trangers (ex : poes\u00eda, musgos), qui ont \u00e9t\u00e9 remplac\u00e9es dans la Wikipedia par d'autres mots. Ces cas constituaient environ 1,4% des donn\u00e9es d'\u00e9valuation, ce retrait n'a donc pas eu d'impact significatif sur nos r\u00e9sultats. Par ailleurs, 137 \u00ab fautes \u00bb ont \u00e9t\u00e9 \u00e9cart\u00e9es parce qu'elles appartenaient d\u00e9j\u00e0 \u00e0 notre lexique de r\u00e9f\u00e9rence, le Lefff , et ne constituaient pas \u00e0 ce titre des candidats \u00e0 la correction pour notre syst\u00e8me (ex : t\u00e9l\u00e9scope, soeur). Suite \u00e0 ces retraits, nos donn\u00e9es de test contiennent 2 556 fautes lexicales pour lesquelles nous disposons d'une correction sp\u00e9cifi\u00e9e par les contributeurs de la Wikip\u00e9dia.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "MARION BARANES, BENO\u00ceT SAGOT", "sec_num": null }, { "text": "S \u03bbs,\u03bb l (c, w) = \u03bb s S s (c, w) + \u03bb l S l (c, w) + (1 \u2212 \u03bb s \u2212 \u03bb l )F (c), o\u00f9 \u03bb s et \u03bb l sont", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "MARION BARANES, BENO\u00ceT SAGOT", "sec_num": null }, { "text": "Bien que nous ayons d\u00e9velopp\u00e9 des techniques de correction automatique dans notre syst\u00e8me, rappelons que notre objectif reste la normalisation textuelle. Nous avons donc \u00e9valu\u00e9 notre syst\u00e8me aussi bien sur ses r\u00e9sultats en correction automatique qu'en normalisation. Ces deux \u00e9valuations se distinguent par leur mani\u00e8re de valider un candidat pour un mot \u00ab fautif \u00bb donn\u00e9. En normalisation, on attendra de notre syst\u00e8me qu'il nous propose n'importe quelle forme fl\u00e9chie du lemme \u00ab correct \u00bb. En correction automatique, on n'acceptera que la forme normativement correcte du mot mal orthographi\u00e9. Il se peut que, parmi les normalisations propos\u00e9es pour une faute donn\u00e9e, plusieurs soient valides alors qu'aucune ne corresponde pour autant \u00e0 la bonne correction 7 .", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9sultats obtenus", "sec_num": "4.2" }, { "text": "Nous avons \u00e9valu\u00e9 nos r\u00e9sultats en deux temps : (i) Nous nous sommes tout d'abord int\u00e9ress\u00e9s \u00e0 la qualit\u00e9 des candidats propos\u00e9s par notre syst\u00e8me ; (ii) Puis nous nous sommes concentr\u00e9s sur la pertinence de notre syst\u00e8me de scorage. Pour la suite de cette \u00e9valuation, nous avons utilis\u00e9 les notions habituelles de pr\u00e9cision, rappel et f-mesure. Si l'on ne prend en compte qu'un seul candidat par faute, la pr\u00e9cision P correspond au rapport entre le nombre de mots bien corrig\u00e9s (resp. normalis\u00e9s) et le nombre de mots pour lesquels nous avons propos\u00e9 au moins un candidat de correction. Le rappel R sera calcul\u00e9 comme le rapport entre le nombre de mots bien corrig\u00e9s (resp. normalis\u00e9s) et le nombre de mots donn\u00e9s en entr\u00e9e. Si l'on cherche \u00e0 prendre en compte plusieurs candidats, on consid\u00e9rera qu'un mot est bien corrig\u00e9/normalis\u00e9 d\u00e8s lors qu'une bonne correction/normalisation se trouve parmi lesdits candidats. La f-mesure F , quant \u00e0 elle, sera calcul\u00e9e comme habituellement : F = 2P R/(P + R).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9sultats obtenus", "sec_num": "4.2" }, { "text": "Cette premi\u00e8re \u00e9valuation, effectu\u00e9e gr\u00e2ce aux donn\u00e9es d'\u00e9valuation d\u00e9crites ci-dessus, ne s'appuie sur aucun des scores propos\u00e9s par notre syst\u00e8me. Son but est principalement d'\u00e9valuer la qualit\u00e9 des candidats de correction/normalisation propos\u00e9es par ce dernier. Elle permet de v\u00e9rifier dans quelle mesure ces candidats ne contiennent pas trop de bruit, tout en proposant une correction/normalisation valide parmi les candidats propos\u00e9s pour un mot \u00ab fautif \u00bb donn\u00e9.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "G\u00e9n\u00e9ration des candidats", "sec_num": "4.2.1" }, { "text": "Nous avons commenc\u00e9 par v\u00e9rifier que notre syst\u00e8me ne proposait pas trop de candidats, notamment au niveau du module de correction g\u00e9n\u00e9rique. Nous avons donc compt\u00e9 les candidats obtenus avec et sans ce dernier. Le nombre de candidats propos\u00e9s par notre syst\u00e8me reste raisonnable, m\u00eame avec le module de correction g\u00e9n\u00e9rique. En effet, comme le montre la figure 2, seule une faute sur quatre se voit attribuer plus de 4 candidats. Le nombre de ces derniers d\u00e9cro\u00eet par ailleurs assez rapidement puisque m\u00eame avec le module de correction g\u00e9n\u00e9rique, pr\u00e8s de 45% des mots \u00ab fautifs \u00bb de notre corpus de test ne se voient attribuer qu'une seule proposition de correction.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Nombre de candidats", "sec_num": null }, { "text": "Couverture Cette figure nous montre aussi l'utilit\u00e9 de la correction g\u00e9n\u00e9rique. En se limitant aux seuls jeux de r\u00e8gles, seuls 5,3% des mots ne re\u00e7oivent aucun candidat. La correction g\u00e9n\u00e9rique permet de r\u00e9duire ce taux \u00e0 3,6%. Les 93 mots 7. Pour la faute dormion par exemple, si notre syst\u00e8me nous propose les candidats dormir ou dormons, nous consid\u00e9rerons que faute a \u00e9t\u00e9 normalis\u00e9e correctement bien que la correction attendue ne figure pas parmi les candidats. Par ailleurs, nous avons cherch\u00e9 \u00e0 estimer la qualit\u00e9 des candidats propos\u00e9s. Pour ce faire, \u00e9tant donn\u00e9 un inventaire de candidats pour chaque faute, nous pouvons calculer une borne inf\u00e9rieure et une borne sup\u00e9rieure pour le syst\u00e8me dans son ensemble. Ces bornes encadrent les performances que nous pourrons obtenir lorsque nous attribuerons des valeurs aux coefficients \u03bb r et \u03bb l , c'est-\u00e0-dire lorsque nous \u00e9valuerons la qualit\u00e9 de notre syst\u00e8me de scorage \u00e0 la section 4.2.2. Ces bornes ne prennent pas en compte les scores de correction de chaque candidat, et sont d\u00e9finies comme suit.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Nombre de candidats", "sec_num": null }, { "text": "Borne sup\u00e9rieure pour le syst\u00e8me complet Afin de d\u00e9terminer le score maximum que notre syst\u00e8me pourrait obtenir \u00e9tant donn\u00e9 les candidats propos\u00e9s, nous utilisons un oracle. Pour chaque faute, d\u00e8s lors qu'une bonne correction est propos\u00e9e, l'oracle le choisit. \u00c0 d\u00e9faut, si au moins une bonne normalisation est propos\u00e9e, l'une d'entre elles est choisie au hasard par l'oracle. Si aucune normalisation valable ne se trouve parmi les candidats propos\u00e9es par notre syst\u00e8me, le choix de l'oracle importera peu. Les r\u00e9sultats obtenus avec un tel oracle, pr\u00e9sent\u00e9s dans le tableau 3, sont n\u00e9cessairement meilleurs que ceux que nous obtiendrons avec notre syst\u00e8me de scorage. Nous avons calcul\u00e9 la pr\u00e9cision, le rappel et la f-mesure que notre syst\u00e8me obtient avec et sans la correction g\u00e9n\u00e9rique afin de voir l'impact de cette derni\u00e8re. Cette \u00e9valuation a \u00e9t\u00e9 faite de mani\u00e8re syst\u00e9matique pour la t\u00e2che de correction automatique (en v\u00e9rifiant que le mot attendu fait partie les candidats propos\u00e9s) et pour la t\u00e2che de normalisation (en v\u00e9rifiant qu'au moins un des candidats appartienne au m\u00eame lemme que le token attendu). Bien que l'\u00e9cart entre nos scores avec et sans la correction g\u00e9n\u00e9rique ne soit pas tr\u00e8s \u00e9lev\u00e9, cette derni\u00e8re nous permet de traiter plus de mots (cf. ci-dessus), sans trop faire diminuer notre pr\u00e9cision. Dans les deux derni\u00e8res colonnes du tableau 3, nous pouvons par ailleurs faire l'observation suivante : bien que le rappel de la correction g\u00e9n\u00e9rique soit tr\u00e8s faible (pour les raisons cit\u00e9es en section 4.2.1), sa pr\u00e9cision reste acceptable (70% environ). Nous l'avons donc conserv\u00e9e dans la suite de nos exp\u00e9riences.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "MARION BARANES, BENO\u00ceT SAGOT", "sec_num": null }, { "text": "Par ailleurs, nous constatons que les scores obtenus pour les t\u00e2ches de correction et de normalisation diff\u00e8rent peu. Cela montre que notre syst\u00e8me de correction se trompe rarement dans la flexion du mot qu'il tente de corriger, d\u00e8s lors qu'il a correctement identifi\u00e9 le bon lemme. On note que les scores du module de correction g\u00e9n\u00e9rique sont identiques en correction et en normalisation. Cela s'explique par le fait que la correction g\u00e9n\u00e9rique, n'effectuant que des op\u00e9rations non pond\u00e9r\u00e9es sur un caract\u00e8re, a peu de chances de proposer une correction fautive qui soit une forme fl\u00e9chie du bon lemme 8 .", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "MARION BARANES, BENO\u00ceT SAGOT", "sec_num": null }, { "text": "8. Supposons ainsi que l'on demande au module de correction g\u00e9n\u00e9rique de proposer un candidat pour le mot fautif pr\u00e8t. Il pourra proposer par exemple, gr\u00e2ce \u00e0 une unique substitution, pr\u00eat, prit, pr\u00e8s. Cet exemple illustre le fait que, de fa\u00e7on g\u00e9n\u00e9rale, les mots les plus \u00ab proches \u00bb (au sens de la distance de Levenshtein) d'une m\u00eame faute ne sont pas tous, loin de l\u00e0, des formes fl\u00e9chies d'un m\u00eame lemme. C'est d'autant plus vrai que le module de correction g\u00e9n\u00e9rique n'est appliqu\u00e9 qu'aux fautes suffisamment \u00ab complexes \u00bb ou \u00ab inattendues \u00bb pour que nos r\u00e8gles de correction, qui s'appliquent \u00e0 plus de 96% des fautes, ne puissent pas s'appliquer.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "MARION BARANES, BENO\u00ceT SAGOT", "sec_num": null }, { "text": "Baseline pour le syst\u00e8me complet Notre syst\u00e8me de scorage doit \u00eatre plus performant qu'un syst\u00e8me de s\u00e9lection al\u00e9atoire parmi les candidats propos\u00e9s. C'est pour cette raison que nous avons choisi d'\u00e9valuer notre syst\u00e8me en le laissant s\u00e9lectionner al\u00e9atoirement l'un des candidats de correction associ\u00e9 \u00e0 chaque faute. Les scores obtenus (cf. table 4) sont assez \u00e9lev\u00e9s pour un syst\u00e8me effectuant un choix al\u00e9atoire. Cela montre que les propositions de correction/normalisation faites par notre syst\u00e8me sont dans l'ensemble assez pertinentes. Dans un premier temps, nous avons compar\u00e9 la qualit\u00e9 de syst\u00e8me sur les t\u00e2ches de correction et de normalisation lorsque l'on ne conserve pour chaque faute que le candidat de score maximal 9 . Nous avons ensuite \u00e9valu\u00e9 notre syst\u00e8me lorsque l'on conserve les deux puis les trois meilleurs candidats, configuration qui est pertinente si l'on d\u00e9cide par exemple d'en ressortir \u00e0 un mod\u00e8le de langage ou \u00e0 tout autre module ult\u00e9rieur pour effectuer le choix final, ou bien si l'\u00e9tape de normalisation est un pr\u00e9alable \u00e0 un traitement capable de prendre en entr\u00e9e un graphe de mots 10 . Pour l'ensemble de ces configurations, nous avons proc\u00e9d\u00e9 \u00e0 de multiples \u00e9valuations en faisant varier les poids assign\u00e9s aux jeux de r\u00e8gles et \u00e0 la fr\u00e9quence, c'est \u00e0 dire en faisant varier la valeur de \u03bb r et de \u03bb l (la fr\u00e9quence \u00e9tant pond\u00e9r\u00e9e par 1 \u2212 \u03bb r \u2212 \u03bb l ) 11 .", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "NORMALISATION DE TEXTES PAR ANALOGIE: LE CAS DES MOTS INCONNUS", "sec_num": null }, { "text": "La somme des valeurs de \u03bb r et de \u03bb l doit \u00eatre \u00e9gale ou inf\u00e9rieure \u00e0 1. Nous avons donc commenc\u00e9 par tester toutes les combinaisons possibles de ces deux coefficients en les faisant varier entre 0 et 1 avec un pas de 0,1. Toutefois, il est apparu que ces coefficients \u00e9taient trop \u00e9lev\u00e9s et emp\u00eachaient la prise en compte de la fr\u00e9quence. En effet, m\u00eame si les scores de fr\u00e9quence sont normalis\u00e9s entre 0 et 1 (tout comme ceux de nos jeux de r\u00e8gles), ces derniers restent tr\u00e8s faibles sur la grande majorit\u00e9 des candidats. Nous avons donc r\u00e9\u00e9valu\u00e9 notre syst\u00e8me en faisant cette fois-ci varier \u03bb r et \u03bb l entre 0 et 0,001 avec un pas de 0,0001. Nous illustrons ces derniers r\u00e9sultats aux figures 3 \u00e0 8 sur la pr\u00e9cision et la f-mesure. En th\u00e9orie, les r\u00e9sultats de notre syst\u00e8me peuvent varier entre les bornes inf\u00e9rieures et sup\u00e9rieures calcul\u00e9es \u00e0 la section 4.2.1, \u00e0 savoir respectivement 69,2% et 95,1% pour la pr\u00e9cision et respectivement 67,9% et 93,3% pour la f-mesure.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "NORMALISATION DE TEXTES PAR ANALOGIE: LE CAS DES MOTS INCONNUS", "sec_num": null }, { "text": "Les figures 3 et 4 illustrent la pr\u00e9cision et la f-mesure obtenues par notre syst\u00e8me lorsque l'on ne conserve que le candidat de score maximum pour chaque faute. Plus la zone d'une figure est claire, plus la pr\u00e9cision ou la f-mesure repr\u00e9sent\u00e9e dans cette figure sera \u00e9lev\u00e9e. Par ailleurs, nous avons ins\u00e9r\u00e9 des courbes de niveau (iso-pr\u00e9cision ou iso-f-mesure) : on peut voir par exemple sur ces deux figures que les meilleurs scores pour la pr\u00e9cision s'\u00e9l\u00e8vent \u00e0 plus de 87,2 (la pr\u00e9cision maximum atteinte est en r\u00e9alit\u00e9 de 87,7%) et ceux concernant la f-mesure \u00e0 plus de 85,7 (la f-mesure maximale atteinte est en r\u00e9alit\u00e9 de 86,1%). Ces scores sont donc bien sup\u00e9rieurs aux bornes inf\u00e9rieures calcul\u00e9es pr\u00e9c\u00e9demment. La similarit\u00e9 entre les figures 3 et 4 s'explique par le fait que les scores de rappel obtenus, bien que plus faibles que ceux de la pr\u00e9cision, se r\u00e9partissent de la m\u00eame mani\u00e8re en fonction des coefficients \u03bb r et \u03bb l . \u00c0 titre indicatif, lorsque \u03bb r et \u03bb l varient entre 0 et 0,001, le rappel est presque partout entre 83% et 84%, avec un minimum \u00e0 81,4% (lorsque \u03bb r = \u03bb l = 0) et un maximum 9. Lorsque plusieurs candidats ont le m\u00eame score et qu'il est maximal, l'un d'entre eux est choisi al\u00e9atoirement. 10. Des exp\u00e9riences conservant les cinq candidats les mieux class\u00e9s ont donn\u00e9 des r\u00e9sultats tr\u00e8s proches de ceux obtenus avec les trois meilleurs. 11. Plut\u00f4t que chercher la valeur optimale de nos trois variables de cette fa\u00e7on, nous aurions pu nous appuyer sur un syst\u00e8me reposant sur la maximisation de l'entropie ou sur un perceptron et ainsi les apprendre automatiquement. N\u00e9anmoins une telle approche ne r\u00e9pondrait pas parfaitement \u00e0 l'objectif que nous nous sommes pos\u00e9 ici. Nous ne voulons en effet pas classifier les corrections propos\u00e9es en deux cat\u00e9gories mais les ordonner selon la confiance que l'on a en le fait qu'ils soient des corrections/normalisations valides de la faute \u00e0 traiter. Nous avons toutefois tent\u00e9 d'\u00e9valuer notre syst\u00e8me avec des scores obtenus avec un syst\u00e8me par maximum d'entropie. Les r\u00e9sultats obtenus furent n\u00e9anmoins beaucoup moins bons que ceux pr\u00e9sent\u00e9s pr\u00e9c\u00e9demment (par exemple, sur la meilleure normalisation, nous perdons pr\u00e8s de 5.5% de pr\u00e9cision et de F-mesure si le syst\u00e8me prend en compte le biais, 7% sinon). FIGURE 3 -Pr\u00e9cision pour la meilleure normalisation FIGURE 4 -F-mesure pour la meilleure normalisation FIGURE 5 -Pr\u00e9cision pour les 2 meilleures normalisations FIGURE 6 -F-mesure pour les 2 meilleures normalisations FIGURE 7 -Pr\u00e9cision pour les 3 meilleures normalisations FIGURE 8 -F-mesure pour les 3 meilleures normalisations \u00e0 84,3%. Ces deux figures d\u00e9montrent clairement l'utilit\u00e9 des scores propos\u00e9s par nos r\u00e8gles lorsque l'on ne garde que le meilleur candidat : si nous ne prenons que la fr\u00e9quence en compte (\u03bb r = \u03bb l = 0), notre f-mesure est de 82,9%, soit 3,2% de moins que la f-mesure maximale). Bien que de fa\u00e7on moins nette, ce constat reste vrai lorsque l'on conserve les deux ou trois meilleurs candidats les mieux scor\u00e9s. La f-mesure gagne ainsi 1,5% si on prend en compte les r\u00e8gles pour deux candidats de correction et 0,7% pour trois candidats.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "NORMALISATION DE TEXTES PAR ANALOGIE: LE CAS DES MOTS INCONNUS", "sec_num": null }, { "text": "Bien que le passage d'un candidat \u00e0 deux nous permette d'am\u00e9liorer nos scores de pr\u00e8s de 5% absolus, le passage de deux candidats \u00e0 trois est l\u00e9g\u00e8rement moins significatif. Cela s'explique notamment par le faible nombre de corrections", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "NORMALISATION DE TEXTES PAR ANALOGIE: LE CAS DES MOTS INCONNUS", "sec_num": null } ], "back_matter": [], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "Notre syst\u00e8me n'attribue trois candidats ou plus qu'\u00e0 environ 40% de notre corpus de test (cf. figure 2). Le nombre de mots \u00ab fautifs \u00bb pour lesquels nous devons s\u00e9lectionner les meilleurs candidats est par cons\u00e9quent automatiquement r\u00e9duit. Autre cons\u00e9quence de ce fait : nos scores de pr\u00e9cision et de f-mesure se rapprochent de la borne sup\u00e9rieure th\u00e9orique d\u00e8s la prise en compte de seulement deux candidats. En effet, notre pr\u00e9cision s'\u00e9l\u00e8ve \u00e0 plus de 93,3% (cf. figure 5) et la f-mesure \u00e0", "authors": [ { "first": "Normalisation De Textes Par Analogie: Le Cas Des Mots", "middle": [], "last": "Inconnus", "suffix": "" } ], "year": null, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "NORMALISATION DE TEXTES PAR ANALOGIE: LE CAS DES MOTS INCONNUS propos\u00e9es pour chaque mot \u00ab fautif \u00bb. Notre syst\u00e8me n'attribue trois candidats ou plus qu'\u00e0 environ 40% de notre corpus de test (cf. figure 2). Le nombre de mots \u00ab fautifs \u00bb pour lesquels nous devons s\u00e9lectionner les meilleurs candidats est par cons\u00e9quent automatiquement r\u00e9duit. Autre cons\u00e9quence de ce fait : nos scores de pr\u00e9cision et de f-mesure se rapprochent de la borne sup\u00e9rieure th\u00e9orique d\u00e8s la prise en compte de seulement deux candidats. En effet, notre pr\u00e9cision s'\u00e9l\u00e8ve \u00e0 plus de 93,3% (cf. figure 5) et la f-mesure \u00e0 plus de 91,5% (cf. figure 6).", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "En effet, bien que les r\u00e8gles restreintes soit plus pr\u00e9cises et plus fiables, elles s'appliquent moins souvent. Les r\u00e8gles larges peuvent ainsi d\u00e9tecter et corriger plus de fautes. Ces deux jeux sont donc compl\u00e9mentaires : nous obtenons de meilleurs scores en associant les deux. Enfin, la prise en compte de la fr\u00e9quence d'un mot pour sa normalisation reste primordiale. Cela est particuli\u00e8rement visible dans les figures 5, 6, 7 et 8 dans lesquelles nos scores se d\u00e9gradent d\u00e8s lors que \u03bb r ou \u03bb l sont au-dessus de 0,0006 environ", "authors": [], "year": null, "venue": "Ces figures montrent que nous obtenons nos meilleurs r\u00e9sultats lorsque l'on donne plus de poids aux r\u00e8gles larges qu'aux r\u00e8gles restreintes", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "Ces figures montrent que nous obtenons nos meilleurs r\u00e9sultats lorsque l'on donne plus de poids aux r\u00e8gles larges qu'aux r\u00e8gles restreintes. En effet, bien que les r\u00e8gles restreintes soit plus pr\u00e9cises et plus fiables, elles s'appliquent moins sou- vent. Les r\u00e8gles larges peuvent ainsi d\u00e9tecter et corriger plus de fautes. Ces deux jeux sont donc compl\u00e9mentaires : nous obtenons de meilleurs scores en associant les deux. Enfin, la prise en compte de la fr\u00e9quence d'un mot pour sa normalisa- tion reste primordiale. Cela est particuli\u00e8rement visible dans les figures 5, 6, 7 et 8 dans lesquelles nos scores se d\u00e9gradent d\u00e8s lors que \u03bb r ou \u03bb l sont au-dessus de 0,0006 environ, et ce d'autant plus que \u03bb r ou \u03bb l sont \u00e9lev\u00e9s.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "Par exemple, pour un outil d'extraction d'informations, il sera plus difficile de d\u00e9tecter les motifs int\u00e9ressants si le texte \u00e0 traiter est d\u00e9grad\u00e9. Le travail pr\u00e9sent\u00e9 ici vise \u00e0 participer \u00e0 l'am\u00e9lioration des performances d'un tel outil en proposant une \u00e9tape interm\u00e9diaire de pr\u00e9traitement, dont l'objectif est de normaliser, au moins partiellement, des donn\u00e9es textuelles bruit\u00e9es. Pour ce faire, nous avons mis en place et \u00e9valu\u00e9 un syst\u00e8me de normalisation fonctionnant \u00e0 l'aide de r\u00e8gles de correction induites par analogie. L'objectif de ce syst\u00e8me est de proposer un ou plusieurs candidats de normalisation pond\u00e9r\u00e9s pour tous les mots", "authors": [], "year": null, "venue": "La pr\u00e9sence de fautes ou de formes non standard peuvent mettre \u00e0 mal l'analyse d'un texte si cette analyse n'est pas adapt\u00e9e aux textes bruit\u00e9s", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "La pr\u00e9sence de fautes ou de formes non standard peuvent mettre \u00e0 mal l'analyse d'un texte si cette analyse n'est pas adap- t\u00e9e aux textes bruit\u00e9s. Par exemple, pour un outil d'extraction d'informations, il sera plus difficile de d\u00e9tecter les motifs int\u00e9ressants si le texte \u00e0 traiter est d\u00e9grad\u00e9. Le travail pr\u00e9sent\u00e9 ici vise \u00e0 participer \u00e0 l'am\u00e9lioration des performances d'un tel outil en proposant une \u00e9tape interm\u00e9diaire de pr\u00e9traitement, dont l'objectif est de normaliser, au moins partiellement, des donn\u00e9es textuelles bruit\u00e9es. Pour ce faire, nous avons mis en place et \u00e9valu\u00e9 un syst\u00e8me de normalisation fonctionnant \u00e0 l'aide de r\u00e8gles de correction induites par analogie. L'objectif de ce syst\u00e8me est de proposer un ou plusieurs candidats de normalisation pond\u00e9r\u00e9s pour tous les mots inconnus de nos lexiques pr\u00e9sents dans un texte.", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "Par ailleurs, nous nous sommes pour l'instant limit\u00e9s aux fautes lexicales. \u00c0 terme, nous aimerions \u00e9tendre ce travail aux fautes grammaticales en prenant en compte le contexte dans lequel apparaissent ces fautes, par exemple au moyen de mod\u00e8les de langage. D'autre part, ce syst\u00e8me n'a pour l'instant \u00e9t\u00e9 \u00e9valu\u00e9 que sur le fran\u00e7ais. L'apprentissage de nos r\u00e8gles de correction \u00e9tant faite automatiquement, cette normalisation pourrait parfaitement fonctionner pour d'autres langues, pour peu qu'il existe une base de fautes corrig\u00e9es pour cette langue. Cette base pourrait parfaitement, par exemple, \u00eatre extraite de la Wikipedia correspondante", "authors": [], "year": null, "venue": "Les r\u00e9sultats obtenus \u00e9tant satisfaisants, nous voudrions tout d'abord int\u00e9grer ce premier syst\u00e8me \u00e0 notre cha\u00eene de traitement compl\u00e8te, qui inclut notamment des \u00e9tapes de d\u00e9tection des n\u00e9ologismes et des emprunts, afin d'\u00e9valuer ses performances et son apport de mani\u00e8re plus globale", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "Les r\u00e9sultats obtenus \u00e9tant satisfaisants, nous voudrions tout d'abord int\u00e9grer ce premier syst\u00e8me \u00e0 notre cha\u00eene de traite- ment compl\u00e8te, qui inclut notamment des \u00e9tapes de d\u00e9tection des n\u00e9ologismes et des emprunts, afin d'\u00e9valuer ses perfor- mances et son apport de mani\u00e8re plus globale. Par ailleurs, nous nous sommes pour l'instant limit\u00e9s aux fautes lexicales. \u00c0 terme, nous aimerions \u00e9tendre ce travail aux fautes grammaticales en prenant en compte le contexte dans lequel appa- raissent ces fautes, par exemple au moyen de mod\u00e8les de langage. D'autre part, ce syst\u00e8me n'a pour l'instant \u00e9t\u00e9 \u00e9valu\u00e9 que sur le fran\u00e7ais. L'apprentissage de nos r\u00e8gles de correction \u00e9tant faite automatiquement, cette normalisation pourrait parfaitement fonctionner pour d'autres langues, pour peu qu'il existe une base de fautes corrig\u00e9es pour cette langue. Cette base pourrait parfaitement, par exemple, \u00eatre extraite de la Wikipedia correspondante, de la m\u00eame fa\u00e7on qu'a \u00e9t\u00e9 construit le corpus WiCoPaCo pour le fran\u00e7ais ou comme le propose Zesch (2012) pour l'anglais. Enfin, l'apprentissage de nos r\u00e8gles de correction est actuellement effectu\u00e9e \u00e0 partir d'un corpus de fautes annot\u00e9es. Il n'existe actuellement que tr\u00e8s peu de corpus de ce type. C'est pourquoi nous aimerions \u00e0 terme pouvoir apprendre nos r\u00e8gles de fa\u00e7on non-supervis\u00e9e, \u00e0 partir d'un corpus brut l\u00e9g\u00e8rement bruit\u00e9. Cela nous permettrait d'obtenir un syst\u00e8me qui ne d\u00e9pendrait d'aucune ressource particuli\u00e8re mis \u00e0 part d'un \u00e9chantillon de la langue et d'un lexique de cette langue.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "A Hybrid Rule/Model-Based Finite-State Framework for Normalizing SMS Messages", "authors": [ { "first": "R", "middle": [], "last": "Beaufort", "suffix": "" }, { "first": "S", "middle": [], "last": "Roekhaut", "suffix": "" }, { "first": "L.-A", "middle": [], "last": "Cougnon", "suffix": "" }, { "first": "C", "middle": [], "last": "Fairon", "suffix": "" } ], "year": 1960, "venue": "Proceedings of ACL'10", "volume": "3", "issue": "", "pages": "60--67", "other_ids": {}, "num": null, "urls": [], "raw_text": "BEAUFORT, R., ROEKHAUT, S., COUGNON, L.-A. et FAIRON, C. (2010). A Hybrid Rule/Model-Based Finite-State Framework for Normalizing SMS Messages. In Proceedings of ACL'10, pages 770-779, Uppsala, Su\u00e8de. BLAIR, C. R. (1960). A program for correcting spelling errors. Information and Control, 3(1):60-67.", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "Pronunciation modeling in spelling correction for writers of English as a foreign language", "authors": [ { "first": "A", "middle": [], "last": "Boyd", "suffix": "" }, { "first": "E", "middle": [], "last": "Brill", "suffix": "" }, { "first": "R", "middle": [ "C" ], "last": "Moore", "suffix": "" } ], "year": 2000, "venue": "Proceedings of the HLT-NAACL'09 Student Research Workshop and Doctoral Consortium", "volume": "", "issue": "", "pages": "31--36", "other_ids": {}, "num": null, "urls": [], "raw_text": "BOYD, A. (2009). Pronunciation modeling in spelling correction for writers of English as a foreign language. In Procee- dings of the HLT-NAACL'09 Student Research Workshop and Doctoral Consortium, pages 31-36, Boulder, Colorado. BRILL, E. et MOORE, R. C. (2000). An Improved Error Model for Noisy Channel Spelling Correction. In Proceedings of ACL'00, Hong Kong.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "Memory-based context-sensitive spelling correction at web scale", "authors": [ { "first": "A", "middle": [], "last": "Carlson", "suffix": "" }, { "first": "I", "middle": [], "last": "Fette", "suffix": "" } ], "year": 2007, "venue": "Proceedings of ICMLA'07", "volume": "", "issue": "", "pages": "166--171", "other_ids": {}, "num": null, "urls": [], "raw_text": "CARLSON, A. et FETTE, I. (2007). Memory-based context-sensitive spelling correction at web scale. In Proceedings of ICMLA'07, pages 166-171, Cincinnati, Ohio.", "links": null }, "BIBREF7": { "ref_id": "b7", "title": "A technique for computer detection and correction of spelling errors", "authors": [ { "first": "F", "middle": [], "last": "Damerau", "suffix": "" } ], "year": 1964, "venue": "Comm. ACM", "volume": "7", "issue": "3", "pages": "171--176", "other_ids": {}, "num": null, "urls": [], "raw_text": "DAMERAU, F. (1964). A technique for computer detection and correction of spelling errors. Comm. ACM, 7(3):171-176.", "links": null }, "BIBREF8": { "ref_id": "b8", "title": "TiLT correcteur de SMS : \u00e9valuation et bilan qualitatif", "authors": [ { "first": "Guimier", "middle": [], "last": "De Neef", "suffix": "" }, { "first": "E", "middle": [], "last": "Debeurme", "suffix": "" }, { "first": "A", "middle": [], "last": "Park", "suffix": "" }, { "first": "J", "middle": [], "last": "", "suffix": "" } ], "year": 2007, "venue": "Actes de TALN'07", "volume": "", "issue": "", "pages": "123--132", "other_ids": {}, "num": null, "urls": [], "raw_text": "GUIMIER DE NEEF, E., DEBEURME, A. et PARK, J. (2007). TiLT correcteur de SMS : \u00e9valuation et bilan qualitatif. In Actes de TALN'07, pages 123-132, Toulouse, France.", "links": null }, "BIBREF9": { "ref_id": "b9", "title": "Lexical normalisation of short text messages : makn sens a #twitter", "authors": [ { "first": "B", "middle": [], "last": "Han", "suffix": "" }, { "first": "T", "middle": [], "last": "Baldwin", "suffix": "" } ], "year": 2011, "venue": "Proceedings of JACL-HTL'11", "volume": "", "issue": "", "pages": "368--378", "other_ids": {}, "num": null, "urls": [], "raw_text": "HAN, B. et BALDWIN, T. (2011). Lexical normalisation of short text messages : makn sens a #twitter. In Proceedings of JACL-HTL'11, pages 368-378, Portland, \u00c9tats-Unis.", "links": null }, "BIBREF11": { "ref_id": "b11", "title": "Morphonette : a morphological network of French", "authors": [ { "first": "N", "middle": [], "last": "Hathout", "suffix": "" } ], "year": 2010, "venue": "Proceedings of CoRR", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "HATHOUT, N. (2010). Morphonette : a morphological network of French. Proceedings of CoRR, abs/1005.3902.", "links": null }, "BIBREF12": { "ref_id": "b12", "title": "A Spelling Correction Program Based on a Noisy Channel Model", "authors": [ { "first": "M", "middle": [ "D" ], "last": "Kernighan", "suffix": "" }, { "first": "K", "middle": [ "W" ], "last": "Church", "suffix": "" }, { "first": "W", "middle": [ "A" ], "last": "Gale", "suffix": "" } ], "year": 1990, "venue": "Proceedings of CoLing'90", "volume": "", "issue": "", "pages": "205--210", "other_ids": {}, "num": null, "urls": [], "raw_text": "KERNIGHAN, M. D., CHURCH, K. W. et GALE, W. A. (1990). A Spelling Correction Program Based on a Noisy Channel Model. In Proceedings of CoLing'90, pages 205-210, Helsinki, Finland.", "links": null }, "BIBREF13": { "ref_id": "b13", "title": "Transcrire les SMS comme on reconna\u00eet la parole", "authors": [ { "first": "C", "middle": [], "last": "Kobus", "suffix": "" }, { "first": "F", "middle": [], "last": "Yvon", "suffix": "" }, { "first": "G", "middle": [], "last": "Damnati", "suffix": "" } ], "year": 2008, "venue": "Actes de TALN'08", "volume": "", "issue": "", "pages": "128--138", "other_ids": {}, "num": null, "urls": [], "raw_text": "KOBUS, C., YVON, F. et DAMNATI, G. (2008). Transcrire les SMS comme on reconna\u00eet la parole. In Actes de TALN'08, pages 128-138, Avignon, France.", "links": null }, "BIBREF14": { "ref_id": "b14", "title": "Techniques for Automatically Correcting Words in Text", "authors": [ { "first": "K", "middle": [], "last": "Kukich", "suffix": "" } ], "year": 1992, "venue": "ACM Computing Surveys", "volume": "24", "issue": "4", "pages": "377--439", "other_ids": {}, "num": null, "urls": [], "raw_text": "KUKICH, K. (1992). Techniques for Automatically Correcting Words in Text. ACM Computing Surveys, 24(4):377-439.", "links": null }, "BIBREF15": { "ref_id": "b15", "title": "Moranapho : un syst\u00e8me multilingue d'analyse morphologique fond\u00e9 sur l'analogie formelle", "authors": [ { "first": "J.-F", "middle": [], "last": "Lavall\u00e9e", "suffix": "" }, { "first": "P", "middle": [], "last": "Langlais", "suffix": "" } ], "year": 2011, "venue": "TAL", "volume": "52", "issue": "2", "pages": "17--44", "other_ids": {}, "num": null, "urls": [], "raw_text": "LAVALL\u00c9E, J.-F. et LANGLAIS, P. (2011). Moranapho : un syst\u00e8me multilingue d'analyse morphologique fond\u00e9 sur l'analogie formelle. TAL, 52(2):17-44.", "links": null }, "BIBREF16": { "ref_id": "b16", "title": "Unsupervised morphological analysis by formal analogy", "authors": [ { "first": "J", "middle": [ "F" ], "last": "Lavall\u00e9e", "suffix": "" }, { "first": "P", "middle": [], "last": "Langlais", "suffix": "" } ], "year": 2009, "venue": "Text Retrieval Experiments, Proceedings of CLEF", "volume": "I", "issue": "", "pages": "618--625", "other_ids": {}, "num": null, "urls": [], "raw_text": "LAVALL\u00c9E, J. F. et LANGLAIS, P. (2009). Unsupervised morphological analysis by formal analogy. In Multilingual Information Access Evaluation Vol. I : Text Retrieval Experiments, Proceedings of CLEF, pages 618-625, Corfu, Greece.", "links": null }, "BIBREF17": { "ref_id": "b17", "title": "Solving analogies on words : An algorithm", "authors": [ { "first": "Y", "middle": [], "last": "Lepage", "suffix": "" } ], "year": 1998, "venue": "Proceedings of CoLing-ACL'98", "volume": "", "issue": "", "pages": "728--735", "other_ids": {}, "num": null, "urls": [], "raw_text": "LEPAGE, Y. (1998). Solving analogies on words : An algorithm. In Proceedings of CoLing-ACL'98, pages 728-735, Montreal, Quebec, Canada.", "links": null }, "BIBREF18": { "ref_id": "b18", "title": "Languages of analogical strings", "authors": [ { "first": "Y", "middle": [], "last": "Lepage", "suffix": "" } ], "year": 2000, "venue": "Proceedings of CoLing", "volume": "", "issue": "", "pages": "488--494", "other_ids": {}, "num": null, "urls": [], "raw_text": "LEPAGE, Y. (2000). Languages of analogical strings. In Proceedings of CoLing, pages 488-494, Saarbr\u00fccken, Germany.", "links": null }, "BIBREF19": { "ref_id": "b19", "title": "Purest ever example-based machine translation : Detailed presentation and assessment", "authors": [ { "first": "Y", "middle": [], "last": "Lepage", "suffix": "" }, { "first": "E", "middle": [], "last": "Denoual", "suffix": "" } ], "year": 2005, "venue": "Machine Translation", "volume": "19", "issue": "3-4", "pages": "251--282", "other_ids": {}, "num": null, "urls": [], "raw_text": "LEPAGE, Y. et DENOUAL, E. (2005). Purest ever example-based machine translation : Detailed presentation and assess- ment. Machine Translation, 19(3-4):251-282.", "links": null }, "BIBREF20": { "ref_id": "b20", "title": "Binary Codes Capable of Correcting Deletions", "authors": [ { "first": "V", "middle": [], "last": "Levenshtein", "suffix": "" } ], "year": 1966, "venue": "Insertions and Reversals. Soviet Physics Doklady", "volume": "10", "issue": "8", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LEVENSHTEIN, V. (1966). Binary Codes Capable of Correcting Deletions, Insertions and Reversals. Soviet Physics Doklady, 10(8):707.", "links": null }, "BIBREF21": { "ref_id": "b21", "title": "Exploring distributional similarity based models for query spelling correction", "authors": [ { "first": "M", "middle": [], "last": "Li", "suffix": "" }, { "first": "Y", "middle": [], "last": "Zhang", "suffix": "" }, { "first": "M", "middle": [], "last": "Zhu", "suffix": "" }, { "first": "M", "middle": [], "last": "Zhou", "suffix": "" } ], "year": 2006, "venue": "Proceedings of ACL-CoLing'06", "volume": "", "issue": "", "pages": "1025--1032", "other_ids": {}, "num": null, "urls": [], "raw_text": "LI, M., ZHANG, Y., ZHU, M. et ZHOU, M. (2006). Exploring distributional similarity based models for query spelling correction. In Proceedings of ACL-CoLing'06, pages 1025-1032, Syndey, Australie.", "links": null }, "BIBREF22": { "ref_id": "b22", "title": "Mining naturally-occurring corrections and paraphrases from wikipedia's revision history", "authors": [ { "first": "A", "middle": [], "last": "Max", "suffix": "" }, { "first": "G", "middle": [], "last": "Wisniewski", "suffix": "" } ], "year": 2010, "venue": "Proceedings of LREC'10", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "MAX, A. et WISNIEWSKI, G. (2010). Mining naturally-occurring corrections and paraphrases from wikipedia's revision history. In Proceedings of LREC'10, Valletta, Malta.", "links": null }, "BIBREF23": { "ref_id": "b23", "title": "English Spelling and the computer", "authors": [ { "first": "R", "middle": [], "last": "Mitton", "suffix": "" } ], "year": 1996, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "MITTON, R. (1996). English Spelling and the computer. London :Longman.", "links": null }, "BIBREF24": { "ref_id": "b24", "title": "Fifty years of spellchecking", "authors": [ { "first": "R", "middle": [], "last": "Mitton", "suffix": "" } ], "year": 2010, "venue": "Writting Systems Research", "volume": "2", "issue": "1", "pages": "1--7", "other_ids": {}, "num": null, "urls": [], "raw_text": "MITTON, R. (2010). Fifty years of spellchecking. Writting Systems Research, 2(1):1-7.", "links": null }, "BIBREF25": { "ref_id": "b25", "title": "Automatic morphological query expansion using analogy-based machine learning", "authors": [ { "first": "F", "middle": [], "last": "Moreau", "suffix": "" }, { "first": "V", "middle": [], "last": "Claveau", "suffix": "" }, { "first": "P", "middle": [], "last": "S\u00e9billot", "suffix": "" } ], "year": 2007, "venue": "Proceedings of ECIR'07", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "MOREAU, F., CLAVEAU, V. et S\u00c9BILLOT, P. (2007). Automatic morphological query expansion using analogy-based machine learning. In Proceedings of ECIR'07, Rome, Italie.", "links": null }, "BIBREF26": { "ref_id": "b26", "title": "Error-tolerant finite-state recognition with applications to morphological analysis and spelling correction", "authors": [ { "first": "K", "middle": [], "last": "Oflazer", "suffix": "" } ], "year": 1996, "venue": "Computational Linguistics", "volume": "22", "issue": "1", "pages": "73--89", "other_ids": {}, "num": null, "urls": [], "raw_text": "OFLAZER, K. (1996). Error-tolerant finite-state recognition with applications to morphological analysis and spelling correction. Computational Linguistics, 22(1):73-89.", "links": null }, "BIBREF27": { "ref_id": "b27", "title": "Automated whole sentence grammar correction using a noisy channel model", "authors": [ { "first": "Y", "middle": [ "A" ], "last": "Park", "suffix": "" }, { "first": "R", "middle": [], "last": "Levy", "suffix": "" } ], "year": 2011, "venue": "Proceedings of ACL-HTL'11", "volume": "", "issue": "", "pages": "934--944", "other_ids": {}, "num": null, "urls": [], "raw_text": "PARK, Y. A. et LEVY, R. (2011). Automated whole sentence grammar correction using a noisy channel model. In Proceedings of ACL-HTL'11, pages 934-944, Portland, Oregon, USA.", "links": null }, "BIBREF28": { "ref_id": "b28", "title": "The Lefff , a freely available and large-coverage morphological and syntactic lexicon for French", "authors": [ { "first": "B", "middle": [], "last": "Sagot", "suffix": "" } ], "year": 2010, "venue": "Proceedings of LREC'10", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SAGOT, B. (2010). The Lefff , a freely available and large-coverage morphological and syntactic lexicon for French. In Proceedings of LREC'10, La Valette, Malta.", "links": null }, "BIBREF29": { "ref_id": "b29", "title": "SxPipe 2 : architecture pour le traitement pr\u00e9-syntaxique de corpus bruts", "authors": [ { "first": "B", "middle": [], "last": "Sagot", "suffix": "" }, { "first": "P", "middle": [], "last": "Boullier", "suffix": "" } ], "year": 2008, "venue": "TAL", "volume": "49", "issue": "2", "pages": "155--188", "other_ids": {}, "num": null, "urls": [], "raw_text": "SAGOT, B. et BOULLIER, P. (2008). SxPipe 2 : architecture pour le traitement pr\u00e9-syntaxique de corpus bruts. TAL, 49(2):155-188.", "links": null }, "BIBREF30": { "ref_id": "b30", "title": "Extension dynamique de lexiques morphologiques pour le fran\u00e7ais \u00e0 partir d'un flux textuel", "authors": [ { "first": "B", "middle": [], "last": "Sagot", "suffix": "" }, { "first": "D", "middle": [], "last": "Nouvel", "suffix": "" }, { "first": "V", "middle": [], "last": "Mouilleron", "suffix": "" }, { "first": "M", "middle": [], "last": "Baranes", "suffix": "" } ], "year": 2013, "venue": "Actes de TALN'13", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SAGOT, B., NOUVEL, D., MOUILLERON, V. et BARANES, M. (2013). Extension dynamique de lexiques morphologiques pour le fran\u00e7ais \u00e0 partir d'un flux textuel. In Actes de TALN'13, Les Sables d'Olonne, France.", "links": null }, "BIBREF31": { "ref_id": "b31", "title": "The French Social Media Bank : a Treebank of Noisy User Generated Content", "authors": [ { "first": "D", "middle": [], "last": "Seddah", "suffix": "" }, { "first": "B", "middle": [], "last": "Sagot", "suffix": "" }, { "first": "M", "middle": [], "last": "Candito", "suffix": "" }, { "first": "V", "middle": [], "last": "Mouilleron", "suffix": "" }, { "first": "V", "middle": [], "last": "Combet", "suffix": "" } ], "year": 2012, "venue": "Proceedings of CoLing'12", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SEDDAH, D., SAGOT, B., CANDITO, M., MOUILLERON, V. et COMBET, V. (2012). The French Social Media Bank : a Treebank of Noisy User Generated Content. In Proceedings of CoLing'12, Mumbai, Inde.", "links": null }, "BIBREF32": { "ref_id": "b32", "title": "An analogical learner for morphological analysis", "authors": [ { "first": "N", "middle": [], "last": "Stroppa", "suffix": "" }, { "first": "F", "middle": [], "last": "Yvon", "suffix": "" } ], "year": 2005, "venue": "Proceedings of CoNLL'05", "volume": "", "issue": "", "pages": "120--127", "other_ids": {}, "num": null, "urls": [], "raw_text": "STROPPA, N. et YVON, F. (2005). An analogical learner for morphological analysis. In Proceedings of CoNLL'05, pages 120-127, Stroudsburg, PA, USA.", "links": null }, "BIBREF33": { "ref_id": "b33", "title": "Du quatri\u00e8me de proportion comme principe inductif : une proposition et son application \u00e0 l'apprentissage de la morphologie", "authors": [ { "first": "N", "middle": [], "last": "Stroppa", "suffix": "" }, { "first": "F", "middle": [], "last": "Yvon", "suffix": "" } ], "year": 2006, "venue": "TAL", "volume": "47", "issue": "1", "pages": "33--59", "other_ids": {}, "num": null, "urls": [], "raw_text": "STROPPA, N. et YVON, F. (2006). Du quatri\u00e8me de proportion comme principe inductif : une proposition et son appli- cation \u00e0 l'apprentissage de la morphologie. TAL, 47(1):33-59.", "links": null }, "BIBREF34": { "ref_id": "b34", "title": "Utilisation de contextes pour la correction automatique ou semi-automatique de r\u00e9clamations clients", "authors": [ { "first": "P", "middle": [], "last": "Suignard", "suffix": "" }, { "first": "S", "middle": [], "last": "Kerroua", "suffix": "" } ], "year": 2013, "venue": "Actes de TALN'13", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "SUIGNARD, P. et KERROUA, S. (2013). Utilisation de contextes pour la correction automatique ou semi-automatique de r\u00e9clamations clients. In Actes de TALN'13, Les Sables d'Olonne, France.", "links": null }, "BIBREF35": { "ref_id": "b35", "title": "Pronunciation Modeling for Improved Spelling Correction", "authors": [ { "first": "K", "middle": [], "last": "Toutanova", "suffix": "" }, { "first": "R", "middle": [ "C" ], "last": "Moore", "suffix": "" } ], "year": 2002, "venue": "Proceedings of ACL'02", "volume": "", "issue": "", "pages": "144--151", "other_ids": {}, "num": null, "urls": [], "raw_text": "TOUTANOVA, K. et MOORE, R. C. (2002). Pronunciation Modeling for Improved Spelling Correction. In Proceedings of ACL'02, pages 144-151, Philadelphie, \u00c9tats-Unis.", "links": null }, "BIBREF36": { "ref_id": "b36", "title": "Computerized correction of phonographic errors", "authors": [ { "first": "J", "middle": [], "last": "V\u00e9ronis", "suffix": "" } ], "year": 1988, "venue": "Computers and the Humanities", "volume": "22", "issue": "1", "pages": "43--56", "other_ids": {}, "num": null, "urls": [], "raw_text": "V\u00c9RONIS, J. (1988). Computerized correction of phonographic errors. Computers and the Humanities, 22(1):43-56.", "links": null }, "BIBREF37": { "ref_id": "b37", "title": "spellChecker : un syst\u00e8me de correction automatique fond\u00e9 sur des automates probabilistes", "authors": [ { "first": "F", "middle": [], "last": "Yvon", "suffix": "" } ], "year": 2011, "venue": "Livrable du Projet TRACE", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "YVON, F. (2011). spellChecker : un syst\u00e8me de correction automatique fond\u00e9 sur des automates probabilistes. Li- vrable du Projet TRACE (ANR-09-CORD-023). Accessible \u00e0 l'URL http ://anrtrace.limsi.fr/dev/Anr_trace_-_lot3.pdf.", "links": null }, "BIBREF38": { "ref_id": "b38", "title": "Detecting malapropisms using measures of contextual fitness", "authors": [ { "first": "T", "middle": [], "last": "Zesch", "suffix": "" } ], "year": 2012, "venue": "", "volume": "53", "issue": "", "pages": "11--31", "other_ids": {}, "num": null, "urls": [], "raw_text": "ZESCH, T. (2012). Detecting malapropisms using measures of contextual fitness. TAL, 53(3):11-31.", "links": null } }, "ref_entries": { "FIGREF0": { "type_str": "figure", "uris": null, "text": "Correction du mot changemt par analogie", "num": null }, "FIGREF1": { "type_str": "figure", "uris": null, "text": "Nombre de candidats par fautes avec et sans la correction g\u00e9n\u00e9rique non trait\u00e9s ont \u00e9t\u00e9 \u00e9tudi\u00e9s manuellement : 85% d'entre eux correspondent \u00e0 des fautes trop complexes ou trop nombreuses (ex : arondisemernts, a\u00e9rdorme) et 15% \u00e0 des s\u00e9quences de caract\u00e8res difficilement interpr\u00e9tables (ex : kl\u00e0koes, piwut).", "num": null }, "TABREF0": { "type_str": "table", "content": "
Pour le
couple souevnt::souvent par exemple, l'alignement se fera comme suit :
sou | ev | nt
sou | ve | nt
", "num": null, "html": null, "text": "sur lequel nous reviendrons \u00e0 la section 4.1. Nous verrons notamment comment nous en avons extrait un ensemble de couples de formes (forme fautive, forme bien orthographi\u00e9e) correspondant \u00e0 des fautes lexicales. Un tel ensemble constitue l'entr\u00e9e de notre syst\u00e8me, et nous cherchons \u00e0 en extraire automatiquement des r\u00e8gles pond\u00e9r\u00e9es de correction. Comme indiqu\u00e9 pr\u00e9c\u00e9demment, nous faisons l'hypoth\u00e8se que chaque mot \u00ab fautif \u00bb est le r\u00e9sultat d'au plus une erreur \u00ab lourde \u00bb. Ainsi, pour g\u00e9n\u00e9rer nos r\u00e8gles de correction, il nous suffit d'extraire automatiquement de chaque couple de forme : le contexte gauche complet pr\u00e9c\u00e9dant la faute, la faute et sa correction, le contexte droit complet suivant la faute. Les contextes gauche et droit complets \u00e9tant identiques dans la forme fautive et dans la forme bien orthographi\u00e9e, il est simple d'extraire les s\u00e9quences de lettres constituants une faute et repr\u00e9sentant la correction de cette faute." }, "TABREF1": { "type_str": "table", "content": "
TYPE DE LA R\u00c8GLER\u00c8GLEPOIDS EXEMPLE DE FAUTES CONCERN\u00c9ES
Sp\u00e9cifique{V[pfnlmctbsredg]}{_ \u2192 +_}{[aieuonyr]C} {V[rmltdvcsnpyxg]}{a \u2192 e}{[nmilu]C}0,970 0,660atendre \u2192 attendre ralantir \u2192 ralentir
Large{C}{io \u2192 oi}{C} {[CV#]}{\u00b4\u2192`}{V}0,298 0,738tiole \u2192 toile \u00e9l\u00e9ve \u2192 \u00e9l\u00e8ve
", "num": null, "html": null, "text": "Lorsqu'une nouvelle r\u00e8gle sp\u00e9cifique ne diff\u00e8re d'une autre que par son contexte de niveau 1, nous les fusionnons : leurs contextes droits et gauches sont unifi\u00e9s. Ceci constitue une g\u00e9n\u00e9ralisation par rapport aux deux r\u00e8gles prises isol\u00e9ment. Par exemple, si la faute suivante \u00e0 traiter est pievrt::pivert, on obtient la r\u00e8gle de base {Vi}{ev\u2192ve}{rC} : la r\u00e8gle de substitution extraite et le contexte de niveau 2 sont identiques \u00e0 la r\u00e8gle pr\u00e9c\u00e9dente. Seul le contexte droit de niveau 1 diff\u00e8re. Nous fusionnons alors les contextes de niveau 1 par disjonction, la r\u00e8gle obtenue \u00e9tant alors not\u00e9e : {V[iu]}{ev\u2192ve}{[nr]C}. Cette fusion constitue une g\u00e9n\u00e9ralisation puisque cette r\u00e8gle couvre alors \u00e9galement les r\u00e8gles de base {Vu}{ev\u2192ve}{rC} et {Vi}{ev\u2192ve}{nC}, pourtant non attest\u00e9es. En revanche, d\u00e8s lors que le contexte de niveau 2 ne correspond pas, nous cr\u00e9erons une nouvelle r\u00e8gle. Ainsi, la faute r\u00e9serev::r\u00e9serve induira l'ajout d'une nouvelle r\u00e8gle \u00e0 notre jeu de r\u00e8gle : {Vr}{ev\u2192ve}{##}. R\u00e8gles larges Le second jeu de r\u00e8gles est produit par g\u00e9n\u00e9ralisation plus forte des r\u00e8gles de base : le contexte de niveau 2 est effac\u00e9, et seul le type des lettres du contexte de niveau est conserv\u00e9. Pour la faute souevnt::souvent, la r\u00e8gle large induite sera donc : {V}{ev\u2192ve}{C}. Nous avons \u00e9galement appliqu\u00e9 certaines g\u00e9n\u00e9ralisations \u00e0 ces deux jeux de r\u00e8gles, au niveau de la r\u00e8gle de substitution elle-m\u00eame.Tout d'abord, nous avons g\u00e9n\u00e9ralis\u00e9 les erreurs de duplication d'une lettre (ex : \u00ab fautte \u00bb) et de suppression d'une lettre doubl\u00e9e (ex : \u00ab ereur \u00bb), en les repr\u00e9sentant comme suit : fautte::faute : {Vt}{+_\u2192_}{e#} ereur::erreur : {Vr}{_\u2192+_}{eV} NORMALISATION DE TEXTES PAR ANALOGIE: LE CAS DES MOTS INCONNUSSi le symbole \u00ab + \u00bb est \u00e0 droite du tiret bas, alors on duplique le contexte droit de niveau 1, s'il est \u00e0 gauche, on duplique le contexte gauche de niveau 1. Selon que le \u00ab + \u00bb est \u00e0 gauche ou \u00e0 droite de la fl\u00e8che, on couvre ainsi respectivement les cas de duplication manquante et de duplication erronn\u00e9e. Nous avons par ailleurs g\u00e9n\u00e9ralis\u00e9 les fautes d'accents et de c\u00e9dille. Pour ce faire, nous repr\u00e9sentons une lettre accentu\u00e9e par la combinaison de deux carac\u00e8res : l'accent en question suivi de la lettre concern\u00e9e. Ainsi, nous noterons le mot \u00ab arr\u00eat \u00bb comme ceci : \u00ab\u02c6e \u00bb et, pour la faute \u00ab arret \u00bb, nous obtiendrons la r\u00e8gle suivante : {Cr}{_\u2192\u02c6}{eC}, qui couvre le rajout d'un accent circonflexe sur toute voyelle, pour peu que les contextes correspondent.Ainsi, pour construire ces deux jeux de r\u00e8gles, nous parcourons chaque couple (forme mal orthographi\u00e9e, forme corrig\u00e9e) du corpus annot\u00e9 et nous extrayons les r\u00e8gles sp\u00e9cifiques et larges comme d\u00e9crit ci-dessus. Toutes ces r\u00e8gles sont pond\u00e9r\u00e9es comme suit. \u00c0 chaque fois qu'une r\u00e8gle est extraite ou modifi\u00e9e par un couple, son nombre d'\u00ab occurrences \u00bb est incr\u00e9ment\u00e9 de 1. Nous prenons alors le logarithme de ce nombre d'occurrences, puis nous le normalisons par transformation affine entre 0 (r\u00e8gle de nombres d'occurrence minimal) \u00e0 1 (r\u00e8gle de nombres d'occurence maximal). Le r\u00e9sultat constitue le poids de la r\u00e8gle. La table 1 illustre quelques exemples de r\u00e8gles de correction apprises par notre syst\u00e8me." }, "TABREF2": { "type_str": "table", "content": "", "num": null, "html": null, "text": "" }, "TABREF3": { "type_str": "table", "content": "
onf\u00e9renceconf\u00e9rence inf\u00e9rence0.459 0.2360.754 0.543
titrage_0.188
fitragefiltrage_0.781
vitrage0.0010.094
arqu\u00e9ologuesarch\u00e9ologues0.1010.149
innacompliinaccompli0.3510.094
", "num": null, "html": null, "text": "FAUTE CANDIDATS PROPOS\u00c9S POIDS DES R\u00c8GLES SP\u00c9CIFIQUES POIDS DES R\u00c8GLES LARGES" }, "TABREF4": { "type_str": "table", "content": "", "num": null, "html": null, "text": "Exemples de candidats (cas de base : sans changement d'accent, r\u00e8gles g\u00e9n\u00e9riques non d\u00e9clench\u00e9es)" }, "TABREF5": { "type_str": "table", "content": "
4 \u00c9valuation
4.1 Donn\u00e9es d'entra\u00eenement et de test
", "num": null, "html": null, "text": "compris entre 0 et 1. C'est \u00e0 partir de ce score que nous d\u00e9finissons le meilleur ou les n meilleurs candidats pour une faute donn\u00e9e. Naturellement, ce score d\u00e9pend des valeurs choisies pour \u03bb s et \u03bb l . Nous avons donc fait varier ces deux param\u00e8tres lors de l'\u00e9valuation du scorage et donc du choix des candidats parmi l'ensemble des candidats propos\u00e9s pour chaque faute. Au pr\u00e9alable, nous avons \u00e9valu\u00e9 la pertinence des candidats eux-m\u00eames.Afin d'\u00e9valuer notre syst\u00e8me, nous avons utilis\u00e9 le corpus d'erreurs WiCoPaCo(Max et Wisniewski, 2010). Ce corpus, cr\u00e9\u00e9 \u00e0 partir des r\u00e9visions des pages de la Wikip\u00e9dia francophone, est compos\u00e9 de 72 483 erreurs lexicales et de 74 100 erreurs grammaticales qui ont \u00e9t\u00e9 annot\u00e9es comme telles dans le corpus par leurs auteurs au moyen d'un processus automatique. Chacune des fautes est associ\u00e9e \u00e0 sa correction, effectu\u00e9e par un contributeur de la Wikip\u00e9dia. Puisque dans ce travail nous nous int\u00e9ressons uniquement aux fautes lexicales, nous n'avons utilis\u00e9 que les fautes lexicales, c'est-\u00e0-dire les fautes annot\u00e9es \u00ab non_word_error \u00bb. Par ailleurs, nous ne voulons pas que la fr\u00e9quence d'un mot puisse biaiser la pond\u00e9ration des r\u00e8gles qui en seront extraites. Nous n'avons donc conserv\u00e9 qu'une seule occurrence de chaque faute annot\u00e9e (soit un total de 36 344 fautes). Nous avons utilis\u00e9 60% de ces derni\u00e8res, soit 21 581 fautes, comme donn\u00e9es d'entra\u00eenement pour l'apprentissage de nos deux jeux de r\u00e8gles 6 . Nous avons obtenu de la sorte un jeu de 4 795 r\u00e8gles 4. Si le candidat de correction r\u00e9sulte d'une correction par r\u00e8gle associ\u00e9 \u00e0 une faute d'accentuation, son score de correction sera celui de la correction par r\u00e8gle. La faute d'accentuation ne modifie donc pas le poids de correction d'une r\u00e8gle.5. Toute correction propos\u00e9e par les r\u00e8gles sp\u00e9cifiques le sera par les r\u00e8gles larges. L'inverse n'est pas vrai. 6. Suite \u00e0 plusieurs tests, nous avons constat\u00e9 que prendre un corpus plus grand (90% de l'ensemble des fautes lexicales, par exemple) n'am\u00e9liorait pas nos r\u00e9sultats de mani\u00e8re significative. Nous avons par ailleurs l'intention d'\u00e9tendre nos tests en travaillant sur un autre corpus d'erreurs non d\u00e9crit ici, en cours de d\u00e9veloppement, d'environ 20 000 fautes. Afin que nos exp\u00e9riences puissent \u00eatre comparables, il est pr\u00e9f\u00e9rable que ces deux corpus fassent la m\u00eame taille, c'est pourquoi nous n'avons conserv\u00e9 que 60% des fautes lexicales de WiCoPaCo pour l'apprentissage.NORMALISATION DE TEXTES PAR ANALOGIE: LE CAS DES MOTS INCONNUS sp\u00e9cifiques et un jeu de 3 073 r\u00e8gles larges. Par ailleurs, environ 7,5% des fautes lexicales de WiCoPaCo (soit 2 731 fautes), sans recouvrement avec les donn\u00e9es d'entra\u00eenement, ont \u00e9t\u00e9 conserv\u00e9es pour constituer notre corpus de test." }, "TABREF7": { "type_str": "table", "content": "", "num": null, "html": null, "text": "\u00c9valuation des candidats de correction faite par l'oracle" }, "TABREF9": { "type_str": "table", "content": "
", "num": null, "html": null, "text": "\u00c9valuation des candidats de correction faite de mani\u00e8re al\u00e9atoire4.2.2 S\u00e9lection des meilleurs candidats de normalisationLa correction g\u00e9n\u00e9rique am\u00e9liorant nos r\u00e9sultats, nous avons choisi de la conserver dans notre syst\u00e8me. Tous les scores figurants dans la suite de cette section proviendront donc de notre syst\u00e8me de normalisation combinant nos jeux de r\u00e8gles de corrections et la correction g\u00e9n\u00e9rique." } } } }