{ "paper_id": "F14-2009", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T10:22:26.528937Z" }, "title": "D\u00e9tection et correction automatique d'entit\u00e9s nomm\u00e9es dans des corpus OCRis\u00e9s", "authors": [ { "first": "Beno\u00eet", "middle": [], "last": "Sagot", "suffix": "", "affiliation": { "laboratory": "", "institution": "INRIA & Universit\u00e9 Paris-Diderot", "location": { "postCode": "75013", "settlement": "Paris" } }, "email": "" }, { "first": "Kata", "middle": [ "G\u00e1bor" ], "last": "Alpage", "suffix": "", "affiliation": { "laboratory": "", "institution": "INRIA & Universit\u00e9 Paris-Diderot", "location": { "postCode": "75013", "settlement": "Paris" } }, "email": "" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "La correction de donn\u00e9es textuelles obtenues par reconnaissance optique de caract\u00e8res (OCR) pour atteindre une qualit\u00e9 \u00e9ditoriale reste aujourd'hui une t\u00e2che co\u00fbteuse, car elle implique toujours une intervention humaine. La d\u00e9tection et la correction automatiques d'erreurs \u00e0 l'aide de mod\u00e8les statistiques ne permettent de traiter de fa\u00e7on utile que les erreurs relevant de la langue g\u00e9n\u00e9rale. C'est pourtant dans certaines entit\u00e9s nomm\u00e9es que r\u00e9sident les erreurs les plus nombreuses, surtout dans des donn\u00e9es telles que des corpus de brevets ou des textes juridiques. Dans cet article, nous proposons une architecture d'identification et de correction par r\u00e8gles d'un large \u00e9ventail d'entit\u00e9s nomm\u00e9es (non compris les noms propres). Nous montrons que notre architecture permet d'atteindre un bon rappel et une excellente pr\u00e9cision en correction, ce qui permet de traiter des fautes difficiles \u00e0 traiter par les approches statistiques usuelles.", "pdf_parse": { "paper_id": "F14-2009", "_pdf_hash": "", "abstract": [ { "text": "La correction de donn\u00e9es textuelles obtenues par reconnaissance optique de caract\u00e8res (OCR) pour atteindre une qualit\u00e9 \u00e9ditoriale reste aujourd'hui une t\u00e2che co\u00fbteuse, car elle implique toujours une intervention humaine. La d\u00e9tection et la correction automatiques d'erreurs \u00e0 l'aide de mod\u00e8les statistiques ne permettent de traiter de fa\u00e7on utile que les erreurs relevant de la langue g\u00e9n\u00e9rale. C'est pourtant dans certaines entit\u00e9s nomm\u00e9es que r\u00e9sident les erreurs les plus nombreuses, surtout dans des donn\u00e9es telles que des corpus de brevets ou des textes juridiques. Dans cet article, nous proposons une architecture d'identification et de correction par r\u00e8gles d'un large \u00e9ventail d'entit\u00e9s nomm\u00e9es (non compris les noms propres). Nous montrons que notre architecture permet d'atteindre un bon rappel et une excellente pr\u00e9cision en correction, ce qui permet de traiter des fautes difficiles \u00e0 traiter par les approches statistiques usuelles.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "Le projet dans lequel s'inscrit le travail pr\u00e9sent\u00e9 ici a pour objectif d'optimiser des performances des projets de num\u00e9risation patrimoniale par le biais de l'automatisation de la d\u00e9tection et de la correction d'erreurs dans des documents en sortie de syst\u00e8mes de reconnaissance optique de caract\u00e8res (Optical Character Recognition, ou OCR). En effet, la correction de donn\u00e9es textuelles obtenues par reconnaissance optique de caract\u00e8res (OCR) pour obtenir une qualit\u00e9 \u00e9ditoriale est aujourd'hui une t\u00e2che co\u00fbteuse, m\u00eame lorsque les documents d'origine sont d'excellente qualit\u00e9, car elle implique toujours une intervention humaine, seule \u00e0 m\u00eame de garantir des taux d'erreurs acceptables par exemple pour publication sous forme de livre \u00e9lectronique. Pour diminuer le co\u00fbt de cette intervention humaine, des approches automatiques pour la d\u00e9tection d'erreurs, pour la suggestion de corrections voire pour la correction automatique sont progressivement utilis\u00e9es. Ces approches reposent presque toujours sur l'utilisation de mod\u00e8les de langage et de mod\u00e8les d'erreur, mais rarement sur des informations linguistiques plus riches. Pourtant, ces techniques ne permettent pas de traiter de fa\u00e7on utile les erreurs qui ne rel\u00e8vent pas de la langue g\u00e9n\u00e9rale, et notamment les erreurs pr\u00e9sentes dans les entit\u00e9s nomm\u00e9es. C'est pourtant dans certains types d'entit\u00e9s nomm\u00e9es que r\u00e9sident les erreurs les plus nombreuses, surtout dans des donn\u00e9es telles que des corpus de brevets (formules chimiques) ou des textes juridiques (identifiants de jurisprudence). En effet, de telles entit\u00e9s ne peuvent \u00eatre pr\u00e9sentes dans les lexiques sur lesquels reposent les syst\u00e8mes d'OCR. Elles ne sont pas adapt\u00e9es \u00e0 des traitements statistiques, et sont au contraire adapt\u00e9es \u00e0 une mod\u00e9lisation par r\u00e8gles qui en permette la d\u00e9tection robuste, malgr\u00e9 le bruit issu de l'OCR, et la correction. Dans cet article, nous proposons ainsi d'\u00e9tudier l'impact sur la correction automatique de sorties d'OCR d'une prise en charge par r\u00e8gles des erreurs pr\u00e9sentes dans un large \u00e9ventail d'entit\u00e9s nomm\u00e9es.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction et \u00e9tat de l'art", "sec_num": "1" }, { "text": "Les premi\u00e8res approches \u00e0 la correction automatique des erreurs (orthographiques, lexicales ou post-OCR) s'appuyaient fortement sur le lexique : pour chaque mot inconnu, elles cherchaient des candidats proches (par exemple en termes de ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction et \u00e9tat de l'art", "sec_num": "1" }, { "text": "BENO\u00ceT SAGOT, KATA G\u00c1BOR distance d'\u00e9dition (Levenshtein, 1965) ) qui figurent dans le lexique et choisissent en prenant en compte la fr\u00e9quence des candidats, le contexte, ou \u00e9ventuellement un poids associ\u00e9 au type d'erreur pr\u00e9sum\u00e9. Cependant, l'utilisation des lexiques pr\u00e9-existants semble laisser la place \u00e0 d'autres m\u00e9thodes plus flexibles qui ne n\u00e9cessitent pas la consultation d'une telle ressource, ou qui la cr\u00e9ent \u00e0 la vol\u00e9e \u00e0 partir du corpus \u00e0 corriger (Reynaert, 2004) ou en exploitant les donn\u00e9es du Web (Cucerzan & Brill, 2004; Strohmaier et al., 2003) . Deux m\u00e9thodes fondamentales peuvent \u00eatre distingu\u00e9es dans les travaux plus r\u00e9cents visant la correction des documents bruit\u00e9s : les syst\u00e8mes s'appuyant sur des automates \u00e0 \u00e9tats finis (pond\u00e9r\u00e9s) (Ringlstetter et al., 2006) , et des m\u00e9thodes adoptant le mod\u00e8le du canal bruit\u00e9 (Kernighan et al., 1990; Brill & Moore, 2000; Kolak & Resnik, 2002) . Contrairement aux syst\u00e8mes symboliques, ces derni\u00e8res ne font aucune hypoth\u00e8se a priori sur le type d'erreurs que l'on pr\u00e9voit de rencontrer dans le document et se pr\u00eatent ainsi plus facilement \u00e0 l'adaptation \u00e0 de nouveaux domaines. Cependant, comme la matrice de confusion qui sert de Dans ce qui suit, nous allons pr\u00e9senter les corpus trait\u00e9s dans le cadre de nos travaux (section 2). Une description des grammaires locales construites pour la reconnaissance et la correction des entit\u00e9s nomm\u00e9es est fournie \u00e0 la section 3, et les r\u00e9sultats sont d\u00e9crits \u00e0 la section 4. SXPipe contenait d\u00e9j\u00e0 des grammaires locales effectuant la reconnaissance de nombreux types d'entit\u00e9s nomm\u00e9es, comme les expressions temporelles ou les adresses. Elles ont \u00e9t\u00e9 am\u00e9lior\u00e9es \u00e0 la fois en couverture et en robustesse, afin de reconnaitre ces entit\u00e9s m\u00eame dans des donn\u00e9es l\u00e9g\u00e8rement bruit\u00e9es issues de syst\u00e8mes d'OCR. De plus, de nouvelles grammaires locales ont \u00e9t\u00e9 d\u00e9velopp\u00e9es sp\u00e9cifiquement pour ce projet, notamment pour la reconnaissance des dimensions, des unit\u00e9s mon\u00e9taires, des formules chimiques et des identifiants de jurisprudence, toujours avec un souci de large couverture et de robustesse. Enfin, ces grammaires ont \u00e9t\u00e9 compl\u00e9t\u00e9es par des r\u00e8gles de correction, dont l'application (facultative) permet d'obtenir pour certaines entit\u00e9s nomm\u00e9es reconnues une version normalis\u00e9e/corrig\u00e9e. \u00c0 cet \u00e9gard, par prudence, l'accent a \u00e9t\u00e9 mis sur la pr\u00e9cision des propositions de correction, une correction incorrecte \u00e9tant bien plus dommageable qu'une absence de correction pour ce type de t\u00e2che. Ainsi, la quasi-totalit\u00e9 des grammaires se basent sur la pr\u00e9sence de marqueurs non-ambig\u00fcs, et une grande partie d'entre elles exploitent de l'information contextuelle.", "cite_spans": [ { "start": 44, "end": 63, "text": "(Levenshtein, 1965)", "ref_id": "BIBREF9" }, { "start": 464, "end": 480, "text": "(Reynaert, 2004)", "ref_id": "BIBREF12" }, { "start": 517, "end": 541, "text": "(Cucerzan & Brill, 2004;", "ref_id": "BIBREF5" }, { "start": 542, "end": 566, "text": "Strohmaier et al., 2003)", "ref_id": "BIBREF17" }, { "start": 764, "end": 791, "text": "(Ringlstetter et al., 2006)", "ref_id": "BIBREF13" }, { "start": 845, "end": 869, "text": "(Kernighan et al., 1990;", "ref_id": "BIBREF7" }, { "start": 870, "end": 890, "text": "Brill & Moore, 2000;", "ref_id": "BIBREF3" }, { "start": 891, "end": 912, "text": "Kolak & Resnik, 2002)", "ref_id": null }, { "start": 1198, "end": 1200, "text": "de", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "438", "sec_num": null }, { "text": "La reconnaissance et la correction/normalisation des entit\u00e9s sont assur\u00e9es par ces grammaires locales (cascades d'expressions r\u00e9guli\u00e8res), chaque type d'entit\u00e9 correspondant \u00e0 un module distinct. Les propositions de correction/normalisation b\u00e9n\u00e9ficient ainsi de connaissances sp\u00e9cifiques sur leur nature et leur structure interne. Par exemple, dans le cas de dimensions (p.ex. : 10 3 l/m 2 ), la structure en valeur et/ou puissance de 10 puis unit\u00e9 de mesure permet d'appliquer des corrections sp\u00e9cifiques : la puissance de 10 peut \u00eatre mise en exposant, et l'unit\u00e9 de mesure peut voir tous ses chiffres 1 transform\u00e9s en lettres l, tous les autres chiffres mis en exposant et tous les espaces supprim\u00e9s (sous condition). C'est ainsi que l'on peut corriger \u00ab 10 3 1/m2 \u00bb en \u00ab 10 3 l/m 2 \u00bb.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection robuste et correction automatique dans les grammaires locales de SXPipe", "sec_num": "3.2.1" }, { "text": "L'identification de ces r\u00e8gles de correction a \u00e9t\u00e9 faite par exploration manuelle du corpus d'\u00e9carts BNF/Gallica, \u00e0 l'exception des formules chimiques. Ce dernier cas appelle par ailleurs quelques pr\u00e9cisions suppl\u00e9mentaires (cf. section suivante).", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection robuste et correction automatique dans les grammaires locales de SXPipe", "sec_num": "3.2.1" }, { "text": "Les tables 2 et 3 illustrent les diff\u00e9rents cas possibles (d\u00e9tection ou non-d\u00e9tection, normalisation propos\u00e9e ou non, correcte et al., 2011; Rockt\u00e4schel et al., 2012) pour la reconnaissance des formules, nous avons d\u00e9cid\u00e9 de cr\u00e9er notre propre grammaire, ce qui permet une meilleure prise en charge des erreurs d'OCR. La grammaire SXPipe d\u00e9di\u00e9e que nous avons d\u00e9velopp\u00e9e est donc robuste \u00e0 certaines erreurs, telles que la substitution de la lettre l par le chiffre 1, de la lettre O par le chiffre 0, et par le fait que les nombres qui devraient \u00eatre en indices ne le sont pas. Certaines r\u00e8gles de correction exploitent des connaissances chimiques (par exemple, un \u00e9l\u00e9ment chimique ou une sous-formule ne peut pas \u00eatre indic\u00e9 par 0 ou 1). Ainsi, si l'on donne MgA1204 en entr\u00e9e \u00e0 ce module, il produit en sortie {MgA1204}_CHEM_MgAl 2 O 4 _. Les tables 2 et 3 donnent quelques autres exemples.", "cite_spans": [ { "start": 127, "end": 140, "text": "et al., 2011;", "ref_id": "BIBREF6" }, { "start": 141, "end": 166, "text": "Rockt\u00e4schel et al., 2012)", "ref_id": "BIBREF14" } ], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection robuste et correction automatique dans les grammaires locales de SXPipe", "sec_num": "3.2.1" }, { "text": "Outre la sutructure interne des formules chimiques, la grammaire s'appuie sur leur contexte d'apparition. Dans la description de la structure des formules potentielles, nous sommes partis d'une liste compl\u00e8te d'\u00e9l\u00e9ments chimiques. Certains d'entre eux, tout comme certaines formules simples, sont toutefois ambigus avec des mots de la langue g\u00e9n\u00e9rale (p. ex. Ce, Ne, La). Nous avons donc construit deux ensembles de r\u00e8gles de reconnaissance. Un premier ensemble, fiable, ne reconna\u00eet que des formules qui ne sont pas ambigu\u00ebs avec des mots de la langue ou des acronymes. Un second ensemble de r\u00e8gles reconna\u00eet de telles s\u00e9quences ambigu\u00ebs. Ce n'est que si les r\u00e8gles les plus s\u00fbres se sont appliqu\u00e9es avec succ\u00e8s sur une phrase que nous lui appliquons les r\u00e8gles plus ambig\u00fces : en effet, nous supposons alors que nous sommes en pr\u00e9sence d'un contexte th\u00e9matique favorisant l'apparition des formules chimiques.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection robuste et correction automatique dans les grammaires locales de SXPipe", "sec_num": "3.2.1" }, { "text": "Pour l'\u00e9valuation de la reconnaissance des dates, nous avons s\u00e9lectionn\u00e9 al\u00e9atoirement 200 phrases parmi un ensemble de phrases susceptibles de contenir au moins une entit\u00e9 nomm\u00e9e de ce type. Pour ce faire, nous avons eu recours \u00e0 des marqueurs couvrants (mais moins s\u00fbrs que nos grammaires) qui permettent de d\u00e9tecter les dates avec un rappel (presque) parfait mais une pr\u00e9cision moindre. L'id\u00e9e sous-jacente est que le nombre de dates qui ne sont pas captur\u00e9es par nos marqueurs est tr\u00e8s faible, de sorte qu'il est possible de calculer sur un tel \u00e9chantillon non seulement la pr\u00e9cision mais \u00e9galement le rappel de notre grammaire de reconnaissance. Nous avons proc\u00e9d\u00e9 de m\u00eame pour les adresses.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection robuste et correction automatique dans les grammaires locales de SXPipe", "sec_num": "3.2.1" }, { "text": "Pour l'\u00e9valuation manuelle de la correction/normalisation des dates et adresses, nous n'avons pas pu nous appuyer sur ces deux ensembles de 200 phrases, dans la mesure ou le pourcentage d'entit\u00e9s pour lesquelles une modification est propos\u00e9e est trop bas. Nous avons donc \u00e9valu\u00e9 manuellement l'int\u00e9gralit\u00e9 des cas o\u00f9 une modification est propos\u00e9e par nos grammaires parmi 500 000 phrases du corpus BNF/Gallica, en nous r\u00e9f\u00e9rant si besoin \u00e0 la version de qualit\u00e9 \u00e9ditoriale corrig\u00e9e par des humains.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection robuste et correction automatique dans les grammaires locales de SXPipe", "sec_num": "3.2.1" }, { "text": "Pour les formules chimiques, l'absence de marqueurs vraiment couvrants nous a conduit \u00e0 choisir un \u00e9chantillon al\u00e9atoire de 200 phrases parmi celles o\u00f9 notre grammaire a d\u00e9tect\u00e9 au moins une formule chimique. Le rappel calcul\u00e9 sur cet \u00e9chantillon est donc une borne sup\u00e9rieure du rappel r\u00e9el (c'est pour cette raison qu'il est entre parenth\u00e8ses dans la table 4). Toutefois, un examen manuel d'un certain nombre de phrases extraites al\u00e9atoirement de tout le corpus nous a montr\u00e9 qu'il n'arrivait presque jamais qu'une formule chimique non-d\u00e9tect\u00e9e soit dans une phrase dans laquelle aucune autre formule chimique ne l'a \u00e9t\u00e9. Ceci laisse penser que le rappel r\u00e9el est tr\u00e8s proche du score obtenu.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection robuste et correction automatique dans les grammaires locales de SXPipe", "sec_num": "3.2.1" }, { "text": "L'\u00e9valuation manuelle de la correction/normalisation des formules chimiques a pu se faire directement sur ces 200 phrases, dans la mesure o\u00f9 une modification est propos\u00e9e pour plus des trois quarts des formules chimiques trouv\u00e9es. La pr\u00e9cision de la correction/normalisation est d\u00e9finie comme le pourcentage d'entit\u00e9s modifi\u00e9es par nos grammaires telles que le r\u00e9sultat de cette modification est compl\u00e8tement correct. Ainsi, une correction partielle compte comme une erreur. Ceci explique que la pr\u00e9cision obtenue pour les adresses soit plus faible que pour les autres types d'entit\u00e9s, puisqu'elles contiennent presque toujours des noms propres auxquels nos corrections ne s'appliquent pas.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection robuste et correction automatique dans les grammaires locales de SXPipe", "sec_num": "3.2.1" }, { "text": "Le rappel est le pourcentage d'entit\u00e9s correctement modifi\u00e9es parmi celles qui n'\u00e9taient pas totalement correctes dans la sortie brute d'OCR. Pour le calcul des scores de correction/normalisation des formules chimiques, toutes les entit\u00e9s ont \u00e9t\u00e9 prises en compte, qu'elles aient \u00e9t\u00e9 ou non correctement d\u00e9tect\u00e9es par SXPipe-postOCR. Ceci nous a permis le calcul du rappel. Cependant, la taille des corpus utilis\u00e9s pour l'\u00e9valuation des dates et des adresses nous a contraint \u00e0 nous limiter pour ces deux types d'entit\u00e9s aux occurrences reconnues par SXPipe-OCR. Le calcul du rappel est alors impossible.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "D\u00e9tection robuste et correction automatique dans les grammaires locales de SXPipe", "sec_num": "3.2.1" }, { "text": "Nous avons pr\u00e9sent\u00e9 le composant linguistique d'une architecture pour la correction automatique des erreurs dans des documents num\u00e9riques obtenus par reconnaissance optique de caract\u00e8res. Notre syst\u00e8me, constitu\u00e9 d'une cascade de grammaires locales impl\u00e9ment\u00e9es dans l'outil SXPipe, permet la d\u00e9tection robuste ainsi que la correction de certains types d'entit\u00e9s nomm\u00e9es fr\u00e9quemment rencontr\u00e9es dans des corpus sp\u00e9cialis\u00e9s. Contrairement \u00e0 un mod\u00e8le statistique d'erreurs, notre m\u00e9thode permet une meilleure prise en charge des propri\u00e9t\u00e9s formelles non-linguistiques de ces entit\u00e9s. De plus, les r\u00e8gles de corrections sont sp\u00e9cifiques \u00e0 chaque type d'entit\u00e9, parfois \u00e0 des types de segments au sein des entit\u00e9s (par exemple, le num\u00e9ro d'arrondissement dans une adresse). L'\u00e9valuation effectu\u00e9e \u00e0 la main, en s'appuyant sur", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "5" }, { "text": "Nous avons effectu\u00e9 une \u00e9valuation manuelle des grammaires d'entit\u00e9s nomm\u00e9es et des corrections/normalisations, en nous limitant aux dates, adresses et formules chimiques. Pour les deux premiers types d'entit\u00e9s, nous avons effectu\u00e9 cette \u00e9valuation \u00e0 partir du corpus BNF/Gallica ; les formules chimiques ont \u00e9t\u00e9 \u00e9valu\u00e9es sur le corpus EPO.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "", "sec_num": null } ], "back_matter": [], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "notre corpus d'\u00e9cart de qualit\u00e9 \u00e9ditoriale, confirme l'utilit\u00e9 de grammaires locales de reconnaissance et de correction au sein d'une cha\u00eene de correction automatique des sorties de syst\u00e8mes d", "authors": [ { "first": "Kata", "middle": [], "last": "Beno\u00eet Sagot", "suffix": "" }, { "first": "", "middle": [], "last": "G\u00e1bor", "suffix": "" } ], "year": null, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "BENO\u00ceT SAGOT, KATA G\u00c1BOR notre corpus d'\u00e9cart de qualit\u00e9 \u00e9ditoriale, confirme l'utilit\u00e9 de grammaires locales de reconnaissance et de correction au sein d'une cha\u00eene de correction automatique des sorties de syst\u00e8mes d'OCR.", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "sein d'une cha\u00eene compl\u00e8te de correction de sorties d'OCR, c'est-\u00e0-dire de coupler nos grammaires locales de reconnaissance et de correction avec un mod\u00e8le d'erreur et un mod\u00e8le de langage statistiques", "authors": [], "year": null, "venue": "Pour cela, nous envisageons d'utiliser SXPipe-postOCR comme un pr\u00e9-traitement qui viendra en amont du composant reposant sur ces deux types de mod\u00e8les statistiques", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "La prochaine \u00e9tape de notre travail est de r\u00e9aliser effectivement l'int\u00e9gration de SXPipe-postOCR au sein d'une cha\u00eene compl\u00e8te de correction de sorties d'OCR, c'est-\u00e0-dire de coupler nos grammaires locales de reconnaissance et de correc- tion avec un mod\u00e8le d'erreur et un mod\u00e8le de langage statistiques. Pour cela, nous envisageons d'utiliser SXPipe-postOCR comme un pr\u00e9-traitement qui viendra en amont du composant reposant sur ces deux types de mod\u00e8les statistiques.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "Nous pr\u00e9voyons tout d'abord de r\u00e9aliser des exp\u00e9riences avec diff\u00e9rents mod\u00e8les de langage exploitant l'information issue de l'\u00e9tiquetage en entit\u00e9s nomm\u00e9es", "authors": [], "year": null, "venue": "Les perspectives scientifiques de ce travail sont doubles", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "Les perspectives scientifiques de ce travail sont doubles. Nous pr\u00e9voyons tout d'abord de r\u00e9aliser des exp\u00e9riences avec diff\u00e9rents mod\u00e8les de langage exploitant l'information issue de l'\u00e9tiquetage en entit\u00e9s nomm\u00e9es. Une autre extension possible notre travail serait de faire en sorte que les grammaires locales puissent, en cas de doute, proposer plus d'une correction, charge au mod\u00e8le de langage (voire au mod\u00e8le d'erreurs) de choisir la meilleure.", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "An Improved Error Model for Noisy Channel Spelling Correction", "authors": [ { "first": "", "middle": [], "last": "Brill E", "suffix": "" }, { "first": "", "middle": [ "C" ], "last": "Moore R", "suffix": "" } ], "year": 2000, "venue": "Proceedings of the 38th Annual Meeting on Association for Computational Linguistics (ACL'00)", "volume": "", "issue": "", "pages": "286--293", "other_ids": {}, "num": null, "urls": [], "raw_text": "BRILL E. & MOORE R. C. (2000). An Improved Error Model for Noisy Channel Spelling Correction. In Proceedings of the 38th Annual Meeting on Association for Computational Linguistics (ACL'00), p. 286-293, Hong Kong.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "MUC-7 named entity task definition", "authors": [ { "first": "", "middle": [], "last": "Chinchor N", "suffix": "" } ], "year": 1998, "venue": "Seventh Message Understanding Conference (MUC-7)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "CHINCHOR N. (1998). MUC-7 named entity task definition. In Seventh Message Understanding Conference (MUC-7), Fairfax, \u00c9tats-Unis.", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "Spelling correction as an iterative process that exploits the collective knowledge of web users", "authors": [ { "first": "Cucerzan", "middle": [ "S &" ], "last": "Brill E", "suffix": "" } ], "year": 2004, "venue": "Proceedings of Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP'04)", "volume": "", "issue": "", "pages": "293--300", "other_ids": {}, "num": null, "urls": [], "raw_text": "CUCERZAN S. & BRILL E. (2004). Spelling correction as an iterative process that exploits the collective knowledge of web users. In Proceedings of Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP'04), p. 293-300, Barcelone, Espagne.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "ChemicalTagger : A tool for semantic text-mining in chemistry", "authors": [ { "first": "", "middle": [], "last": "Hawizy L", "suffix": "" }, { "first": "Adams", "middle": [ "M N" ], "last": "Jessop D", "suffix": "" }, { "first": "", "middle": [], "last": "Murray-Rust P", "suffix": "" } ], "year": 2011, "venue": "Journal of Cheminformatics", "volume": "", "issue": "17", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "HAWIZY L., JESSOP D. M., ADAMS N. & MURRAY-RUST P. (2011). ChemicalTagger : A tool for semantic text-mining in chemistry. Journal of Cheminformatics, 3(17).", "links": null }, "BIBREF7": { "ref_id": "b7", "title": "A spelling correction program based on a noisy channel model", "authors": [ { "first": "M", "middle": [], "last": "Kernighan", "suffix": "" }, { "first": "", "middle": [ "A G" ], "last": "Church K. & W", "suffix": "" } ], "year": 1990, "venue": "Proceedings of the 13th conference on Computational linguistics", "volume": "", "issue": "", "pages": "205--210", "other_ids": {}, "num": null, "urls": [], "raw_text": "KERNIGHAN M., CHURCH K. & W.A. G. (1990). A spelling correction program based on a noisy channel model. In Proceedings of the 13th conference on Computational linguistics, p. 205-210, Helsinki, Finlande.", "links": null }, "BIBREF8": { "ref_id": "b8", "title": "OCR error correction using a noisy channel model", "authors": [ { "first": "", "middle": [ "T" ], "last": "Klein S", "suffix": "" }, { "first": "", "middle": [], "last": "Kope M", "suffix": "" } ], "year": 2002, "venue": "Proceedings of the Workshop On Information Retrieval and OCR : From Converting Content to Grasping Meaning", "volume": "", "issue": "", "pages": "257--262", "other_ids": {}, "num": null, "urls": [], "raw_text": "KLEIN S. T. & KOPE M. (2002). A voting system for automatic OCR correction. In Proceedings of the Workshop On Information Retrieval and OCR : From Converting Content to Grasping Meaning, p. 1-21, Tampere, Finlande. KOLAK O. & RESNIK P. (2002). OCR error correction using a noisy channel model. In Proceedings of the Second International Conference on Human Language Technology Research (HLT'02), p. 257-262, San Diego, \u00c9tats-Unis.", "links": null }, "BIBREF9": { "ref_id": "b9", "title": "Binary codes capable of correcting deletions, insertions, and reversals. Cybernetics and Control Theory", "authors": [ { "first": "", "middle": [], "last": "Levenshtein V", "suffix": "" } ], "year": 1965, "venue": "", "volume": "10", "issue": "", "pages": "707--710", "other_ids": {}, "num": null, "urls": [], "raw_text": "LEVENSHTEIN V. (1965). Binary codes capable of correcting deletions, insertions, and reversals. Cybernetics and Control Theory, 10, 707-710.", "links": null }, "BIBREF10": { "ref_id": "b10", "title": "Improving optical character recognition through efficient multiple system alignment", "authors": [ { "first": "", "middle": [ "B" ], "last": "Lund W", "suffix": "" }, { "first": "", "middle": [ "K" ], "last": "Ringger E", "suffix": "" } ], "year": 2009, "venue": "Proceedings of the 9th ACM/IEEE-CS Joint Conference on Digital Libraries (JCDL'09)", "volume": "", "issue": "", "pages": "231--240", "other_ids": {}, "num": null, "urls": [], "raw_text": "LUND W. B. & RINGGER E. K. (2009). Improving optical character recognition through efficient multiple system alignment. In Proceedings of the 9th ACM/IEEE-CS Joint Conference on Digital Libraries (JCDL'09), p. 231-240, Austin, \u00c9tats-Unis.", "links": null }, "BIBREF11": { "ref_id": "b11", "title": "Named entity recognition from diverse text types", "authors": [ { "first": "Maynard", "middle": [ "D" ], "last": "Tablan", "suffix": "" }, { "first": "V", "middle": [], "last": "Ursu", "suffix": "" }, { "first": "C", "middle": [], "last": "Cunningham", "suffix": "" }, { "first": "H", "middle": [ "&" ], "last": "Wilks Y", "suffix": "" } ], "year": 2001, "venue": "Proceedings of the Recent Advances in Natural Language Processing Conference (RANLP'01)", "volume": "", "issue": "", "pages": "257--274", "other_ids": {}, "num": null, "urls": [], "raw_text": "MAYNARD D., TABLAN V., URSU C., CUNNINGHAM H. & WILKS Y. (2001). Named entity recognition from diverse text types. In In Proceedings of the Recent Advances in Natural Language Processing Conference (RANLP'01), p. 257-274, Tzigov Chark, Bulgarie.", "links": null }, "BIBREF12": { "ref_id": "b12", "title": "Multilingual text induced spelling correction", "authors": [ { "first": "M", "middle": [], "last": "Reynaert", "suffix": "" } ], "year": 2004, "venue": "Proceedings of the Workshop on Multilingual Linguistic Ressources (MLR'04)", "volume": "", "issue": "", "pages": "117--117", "other_ids": {}, "num": null, "urls": [], "raw_text": "REYNAERT M. (2004). Multilingual text induced spelling correction. In Proceedings of the Workshop on Multilingual Linguistic Ressources (MLR'04), p. 117-117.", "links": null }, "BIBREF13": { "ref_id": "b13", "title": "The same is not the same-postcorrection of alphabet confusion errors in mixed-alphabet ocr recognition", "authors": [ { "first": "C", "middle": [], "last": "Ringlstetter", "suffix": "" }, { "first": "", "middle": [ "U" ], "last": "Schulz K", "suffix": "" }, { "first": "", "middle": [], "last": "Mihov S. & Louka K", "suffix": "" } ], "year": 2006, "venue": "Proceedings of the 8th International Conference on Document Analysis and Recognition (ICDAR'05)", "volume": "", "issue": "", "pages": "406--410", "other_ids": {}, "num": null, "urls": [], "raw_text": "RINGLSTETTER C., SCHULZ K. U., MIHOV S. & LOUKA K. (2006). The same is not the same-postcorrection of alphabet confusion errors in mixed-alphabet ocr recognition. In Proceedings of the 8th International Conference on Document Analysis and Recognition (ICDAR'05), p. 406-410, S\u00e9oul, Cor\u00e9e du Sud.", "links": null }, "BIBREF14": { "ref_id": "b14", "title": "Chemspot : a hybrid system for chemical named entity recognition", "authors": [ { "first": "", "middle": [], "last": "Rockt\u00e4schel T", "suffix": "" }, { "first": "", "middle": [], "last": "Weidlich M. & Leser U", "suffix": "" } ], "year": 2012, "venue": "Bioinformatics", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ROCKT\u00c4SCHEL T., WEIDLICH M. & LESER U. (2012). Chemspot : a hybrid system for chemical named entity recog- nition. Bioinformatics, 28.", "links": null }, "BIBREF15": { "ref_id": "b15", "title": "SxPipe 2 : architecture pour le traitement pr\u00e9-syntaxique de corpus bruts", "authors": [ { "first": "", "middle": [], "last": "Sagot B. & Boullier P", "suffix": "" } ], "year": 2008, "venue": "Traitement Automatique des Langues", "volume": "49", "issue": "2", "pages": "155--188", "other_ids": {}, "num": null, "urls": [], "raw_text": "SAGOT B. & BOULLIER P. (2008). SxPipe 2 : architecture pour le traitement pr\u00e9-syntaxique de corpus bruts. Traitement Automatique des Langues, 49(2), 155-188.", "links": null }, "BIBREF16": { "ref_id": "b16", "title": "Introduction to the CoNLL-2003 shared task : Language-independent named entity recognition", "authors": [ { "first": "Sang", "middle": [ "E F T K D" ], "last": "Meulder F", "suffix": "" } ], "year": 2003, "venue": "Proceedings of the seventh conference on Natural language learning at HLT-NAACL 2003 (CONLL'03)", "volume": "", "issue": "", "pages": "142--147", "other_ids": {}, "num": null, "urls": [], "raw_text": "SANG E. F. T. K. & MEULDER F. D. (2003). Introduction to the CoNLL-2003 shared task : Language-independent named entity recognition. In Proceedings of the seventh conference on Natural language learning at HLT-NAACL 2003 (CONLL'03), p. 142-147, Edmonton, Canada.", "links": null }, "BIBREF17": { "ref_id": "b17", "title": "Lexical postcorrection of ocr-results : the web as a dynamic secondary dictionary ?", "authors": [ { "first": "C", "middle": [], "last": "Strohmaier", "suffix": "" }, { "first": "C", "middle": [], "last": "Ringlstetter", "suffix": "" }, { "first": "", "middle": [], "last": "Schulz K. & Mihov S", "suffix": "" } ], "year": 2003, "venue": "Proceedings of the Seventh International Conference on Document Analysis and Recognition (ICDAR'03)", "volume": "", "issue": "", "pages": "1133--1137", "other_ids": {}, "num": null, "urls": [], "raw_text": "STROHMAIER C., RINGLSTETTER C., SCHULZ K. & MIHOV S. (2003). Lexical postcorrection of ocr-results : the web as a dynamic secondary dictionary ? In Proceedings of the Seventh International Conference on Document Analysis and Recognition (ICDAR'03), p. 1133-1137, Edinburgh, Royaume-Uni.", "links": null } }, "ref_entries": { "TABREF0": { "type_str": "table", "html": null, "num": null, "text": "En particulier, nous avons d\u00e9velopp\u00e9 de nouvelles grammaires locales pour traiter des classes d'entit\u00e9s nomm\u00e9es rencontr\u00e9es dans les corpus trait\u00e9s dans le projet (formules chimiques, identifiants juridiques), nous avons adapt\u00e9 l'ensemble des grammaires locales pour les rendre robustes aux erreurs d'OCR, et nous avons int\u00e9gr\u00e9 un nouveau m\u00e9canisme permettant de compl\u00e9ter la reconnaissance d'une entit\u00e9 par une proposition de correction selon des r\u00e8gles qui d\u00e9pendent en partie du type d'entit\u00e9. L'objectif, \u00e0 terme, est de coupler cette cha\u00eene avec une architecture plus classique pour la correction des tokens hors-entit\u00e9s (mod\u00e8le de langage, mod\u00e8le d'erreur).", "content": "
mod\u00e8le d'erreur est construite \u00e0 partir
d'un corpus, il est souhaitable de disposer d'un corpus d'apprentissage de taille cons\u00e9quente. Les m\u00e9thodes symboliques
\u00e9vitent le probl\u00e8me du besoin de ressources annot\u00e9es et permettent une meilleure int\u00e9gration d'informations r\u00e9sultant
d'une analyse linguistique, mais elles pr\u00e9sentent l'inconv\u00e9nient d'\u00eatre sp\u00e9cifiques \u00e0 une langue et, typiquement, \u00e0 un
domaine. D'autres m\u00e9thodes utilisent une combinaison des sorties de plusieurs OCR : Klein & Kope (2002) utilisent
un syst\u00e8me de vote, alors que Lund & Ringger (2009) produisent un treillis de mots \u00e0 partir d'un alignement textuel
effectu\u00e9 sur les sorties et choisissent l'une des hypoth\u00e8ses par recherche dans un dictionnaire. Mais ces techniques sont
mal adapt\u00e9es \u00e0 la correction d'erreurs au sein d'entit\u00e9s nomm\u00e9es souvent complexes, dispers\u00e9es (sparse) et sp\u00e9cifiques au
domaine.
Pour palier cette limitation, nous avons adapt\u00e9 et \u00e9tendu la cha\u00eene de traitement de surface SXPipe (Sagot & Boullier,
2008) pour effectuer la tokenisation, la segmentation en \u00e9nonc\u00e9s et le traitement de divers types d'entit\u00e9s nomm\u00e9es dans
des sorties d'OCR.
" }, "TABREF1": { "type_str": "table", "html": null, "num": null, "text": "Les trois corpus sur lesquels nous avons travaill\u00e9 sont pr\u00e9sent\u00e9s \u00e0 la table 1. Contrairement aux deux autres, le corpus BNF/Gallica est un corpus d'\u00e9carts, c'est-\u00e0-dire un corpus constitu\u00e9 d'une version brute (sortie directe d'OCR) et d'une version corrig\u00e9e par des op\u00e9rateurs humains (qualit\u00e9 \u00e9ditoriale), les deux versions \u00e9tant align\u00e9es. Les corpus d'\u00e9carts contribuent \u00e0 cr\u00e9er des mod\u00e8les d'erreur.", "content": "
CorpusGenreNb. de tokens Type de corpus
BNF/Gallicalitt\u00e9rature50 000 000corpus d'\u00e9carts
OPOCEjurisprudence 37 000 000sortie d'OCR
EPO (European Patent Office) brevets15 000 000sortie d'OCR
" }, "TABREF2": { "type_str": "table", "html": null, "num": null, "text": "Corpus utilis\u00e9s dans cette \u00e9tude L'\u00e9tude de ces corpus nous a permis d'identifier certains types d'entit\u00e9s comportant de nombreuses erreurs d'OCR. Ainsi, dans le corpus de brevets EPO, une proportion importante des erreurs d'OCR sont situ\u00e9es au sein de formules chimiques, indications de mesures et num\u00e9ros de brevets. Le corpus de jurisprudence europ\u00e9enne contient de nombreux identifiants juridiques tels que des r\u00e9f\u00e9rences \u00e0 des articles de lois, des arr\u00eat\u00e9s ou des d\u00e9cisions.D\u00c9TECTION ET CORRECTION AUTOMATIQUE D'ENTIT\u00c9S NOMM\u00c9ES DANS DES CORPUS OCRIS\u00c9S3 Grammaires locales pour la correction de sorties d'OCR3.1 D\u00e9finition des entit\u00e9s nomm\u00e9esLa t\u00e2che d'\u00e9tiquetage des entit\u00e9s nomm\u00e9es a re\u00e7u une attention consid\u00e9rable au sein de la communaut\u00e9 TAL depuis les ann\u00e9es 90. Une des t\u00e2ches partag\u00e9es de la s\u00e9rie de conf\u00e9rences MUC (Message Understanding Conference (Chinchor, 1998)) avait pour objectif de reconna\u00eetre les entit\u00e9s nomm\u00e9es, d\u00e9finies en tant qu'unit\u00e9s faisant r\u00e9f\u00e9rence \u00e0 une entit\u00e9 unique et concr\u00e8te et r\u00e9alis\u00e9es par des noms propres (noms de personnes, d'organisations, d'artefacts ou de lieux). Les expressions temporelles et les expressions de quantit\u00e9 sont g\u00e9n\u00e9ralement ajout\u00e9es \u00e0 cette liste, moins en raison de leurs propri\u00e9t\u00e9s s\u00e9mantiques que pour des consid\u00e9rations d'ordre pratique. Toutefois, la plupart des campagnes d'\u00e9valuation(p.ex. CoNLL 2003, (Sang & Meulder, 2003) se contentent d'illustrer les diff\u00e9rentes cat\u00e9gories d'entit\u00e9s nomm\u00e9es de fa\u00e7on extensionnelle, par des exemples.Dans cet article nous d\u00e9finissions une (mention d')entit\u00e9 nomm\u00e9e comme une s\u00e9quence de caract\u00e8res ou de tokens qui n'est analysable ni morphologiquement ni syntaxiquement, mais proc\u00e8de d'un motif productif, qui peut contenir des marques de ponctuation. Nous utilisons ainsi le terme d'entit\u00e9 nomm\u00e9e dans un sens l\u00e9g\u00e8rement plus large que le sens habituel(Maynard et al., 2001), en y incluant \u00e9galement les nombres, les formules chimiques, les unit\u00e9s mon\u00e9taires, etc. En revanche, nous ne traitons pas ici des entit\u00e9s nomm\u00e9es classiques que sont les noms de personnes, de lieux ou", "content": "
[P-Et1.2]
" }, "TABREF3": { "type_str": "table", "html": null, "num": null, "text": "ayant introduit ou non des erreurs).La table 2 rassemble des exemples pour lesquels cette normalisation est totalement correcte, la table 3 illustre diverses difficult\u00e9s rencontr\u00e9es par SXPipe-postOCR.", "content": "
BENO\u00ceT SAGOT, KATA G\u00c1BOR[P-Et1.2]
ou non, Sortie d'OCR\u00c9tiquetageNormalisation propos\u00e9e = R\u00e9f\u00e9rence
23 avril i908{23 avril i908} _DATE23 avril 1908
1\" janvier 1912{1\" janvier 1912} _DATE1er janvier 1912
1G f\u00e9vrier 1859{1G f\u00e9vrier 1859} _DATE16 f\u00e9vrier 1859
Al(OH)3{Al(OH)3} _CHEMAl(OH)3
Ba2Na(NbO3)5{Ba2Na(NbO3)5} _CHEMBa2Na(NbO3)5
C02{C02}_CHEMCO2
MgA1204{MgA1204}_CHEMMgAl2O4
484,9 g.l-1{484,9} _NUM {g.l-1} _DIMENSION484,9 g.l \u22121
2,10 10 6 1/m2{2,10 10 6 1/m2} _DIMENSION2,10 10 6 l/m 2
52, rue de Chabrol, Paris, X\u00e8riie{52, rue de Chabrol, Paris, X\u00e8riie} _ADRESSE52, rue de Chabrol, Paris, X\u00e8me
rue de l'Universit\u00e9, i3{rue de l'Universit\u00e9, i3} _ADRESSErue de l'Universit\u00e9, i3
52, rue Taibout, Paris (9'){52, rue Taibout, Paris (9')} _ADRESSE52, rue Taibout, Paris (9e)
1, bd Beau-S\u00e9jour, Paris (16 o ){1, bd Beau-S\u00e9jour, Paris (16 o )} _ADRESSE1, bd Beau-S\u00e9jour, Paris (16e)
440
" }, "TABREF4": { "type_str": "table", "html": null, "num": null, "text": "Reconnaissance et correction/normalisation des entit\u00e9s bruit\u00e9es : exemples corrects", "content": "
Sortie d'OCR\u00c9tiquetageNormalisation propos\u00e9e R\u00e9f\u00e9rence
15 rue Spufflot{15 rue Spufflot} _ADRESSE15 rue Spufflot15 rue Soufflot
3\u00cf, rue Taitbo\u00f9t, Paris{3\u00cf, rue Taitbo\u00f9t, Paris} _ADRESSE31, rue Taitbo\u00f9t, Paris31, rue Taitbout, Paris
C8-C20{C8-C20} _CHEMC8-C2OC8-C20
(CH2)nNR4R5( {CH2} _CHEM )nNR4R5( CH2 )nNR4R5(CH2)nNR4R5
R1COOHR1COOHR1COOHR1COOH
" }, "TABREF5": { "type_str": "table", "html": null, "num": null, "text": "Reconnaissance et correction/normalisation des entit\u00e9s avec bruit : autres exemples3.2.2 Le cas des formules chimiquesLes formules chimiques, malgr\u00e9 les nombreuses r\u00e9gularit\u00e9s et contraintes qui les r\u00e9gissent, repr\u00e9sentent un d\u00e9fi important pour la reconnaissance automatique. Compte tenu de leur fr\u00e9quence dans le corpus de brevets EPO et des nombreuses erreurs d'OCR que l'on y rencontre, nous leur avons consacr\u00e9 une attention particuli\u00e8re. Au lieu d'utiliser un des outils existants (Hawizy", "content": "" }, "TABREF7": { "type_str": "table", "html": null, "num": null, "text": "Evaluation de la reconnaissance des entit\u00e9s nomm\u00e9es et de leur correction/normalisation. Les fr\u00e9quences sont calcul\u00e9es sur le corpus BNF/Gallica, sauf pour les formules chimiques o\u00f9 le corpus utilis\u00e9 est EPO La table 4 donne les r\u00e9sultats de notre \u00e9valuation. Elle indique \u00e9galement la fr\u00e9quence de chaque type d'entit\u00e9 dans son corpus d'\u00e9valuation. Pour le calcul des scores de reconnaissance, une entit\u00e9 n'est consid\u00e9r\u00e9e comme correctement reconnue que si son type et ses deux bornes l'ont \u00e9t\u00e9 : les reconnaissances partielles sont consid\u00e9r\u00e9es comme des erreurs.", "content": "
" } } } }