{ "paper_id": "F13-2004", "header": { "generated_with": "S2ORC 1.0.0", "date_generated": "2023-01-19T09:41:39.692070Z" }, "title": "Vers un d\u00e9codage guid\u00e9 pour la traduction automatique", "authors": [ { "first": "Benjamin", "middle": [], "last": "Lecouteux", "suffix": "", "affiliation": { "laboratory": "Laboratoire d'Informatique de Grenoble (LIG)", "institution": "Universit\u00e9 de Grenoble", "location": {} }, "email": "benjamin.lecouteux@imag.fr" }, { "first": "Laurent", "middle": [], "last": "Besacier", "suffix": "", "affiliation": { "laboratory": "Laboratoire d'Informatique de Grenoble (LIG)", "institution": "Universit\u00e9 de Grenoble", "location": {} }, "email": "laurent.besacier@imag.fr" } ], "year": "", "venue": null, "identifiers": {}, "abstract": "R\u00e9cemment, le paradigme du d\u00e9codage guid\u00e9 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l'utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d'envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources etc. Cet article pr\u00e9sente une approche pr\u00e9liminaire de l'application de ce paradigme \u00e0 la traduction automatique (TA). Nous proposons d'enrichir le mod\u00e8le log-lin\u00e9aire d'un syst\u00e8me primaire de TA avec des mesures de distance relatives \u00e0 des syst\u00e8mes de TA auxiliaires. Les premiers r\u00e9sultats obtenus sur la t\u00e2che de traduction Fran\u00e7ais/Anglais issue de la campagne d'\u00e9valuation WMT 2011 montrent le potentiel du d\u00e9codage guid\u00e9.", "pdf_parse": { "paper_id": "F13-2004", "_pdf_hash": "", "abstract": [ { "text": "R\u00e9cemment, le paradigme du d\u00e9codage guid\u00e9 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l'utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d'envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources etc. Cet article pr\u00e9sente une approche pr\u00e9liminaire de l'application de ce paradigme \u00e0 la traduction automatique (TA). Nous proposons d'enrichir le mod\u00e8le log-lin\u00e9aire d'un syst\u00e8me primaire de TA avec des mesures de distance relatives \u00e0 des syst\u00e8mes de TA auxiliaires. Les premiers r\u00e9sultats obtenus sur la t\u00e2che de traduction Fran\u00e7ais/Anglais issue de la campagne d'\u00e9valuation WMT 2011 montrent le potentiel du d\u00e9codage guid\u00e9.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Abstract", "sec_num": null } ], "body_text": [ { "text": "Le concept du d\u00e9codage guid\u00e9 (Lecouteux et al., 2012 (Lecouteux et al., , 2013 a montr\u00e9 un fort potentiel dans le cadre de la reconnaissance automatique de la parole. Le principe est de guider le processus de d\u00e9codage via l'utilisation de transcriptions auxiliaires. Ce paradigme appliqu\u00e9 \u00e0 la traduction automatique permet d'envisager de nombreuses applications telles que la combinaison de syst\u00e8mes, la traduction multi-sources (\u00e0 partir de diff\u00e9rentes langues, ou \u00e0 partir de sorties de diff\u00e9rents syst\u00e8mes de reconnaissance de la parole dans le cas de la traduction de la parole), l'utilisation de syst\u00e8mes en ligne (comme Google traduction), le recalcul en temps r\u00e9el d'hypoth\u00e8ses de traduction dans une interface de post-\u00e9dition, etc.", "cite_spans": [ { "start": 29, "end": 52, "text": "(Lecouteux et al., 2012", "ref_id": "BIBREF8" }, { "start": 53, "end": 78, "text": "(Lecouteux et al., , 2013", "ref_id": "BIBREF7" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Cet article pr\u00e9sente un travail pr\u00e9liminaire concernant l'application du paradigme de d\u00e9codage guid\u00e9 \u00e0 la traduction automatique (TA). Nous proposons d'utiliser les syst\u00e8mes de TA Fran-\u00e7ais/Anglais de deux laboratoires (le LIA et le LIG) pr\u00e9sent\u00e9s dans (Potet et al., 2011) . Ces syst\u00e8mes sont des syst\u00e8mes de traduction statistiques \u00e0 base de s\u00e9quences (phrase-based (Koehn, 2010) ). Dans ces approches, un score de vraisemblance est calcul\u00e9 pour chaque phrase candidate \u00e0 la traduction, en fonction de la phrase source ; et ce score r\u00e9sulte de la combinaison log-lin\u00e9aire d'un ensemble de param\u00e8tres.", "cite_spans": [ { "start": 253, "end": 273, "text": "(Potet et al., 2011)", "ref_id": null }, { "start": 368, "end": 381, "text": "(Koehn, 2010)", "ref_id": "BIBREF5" } ], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Notre premi\u00e8re approche introduisant le d\u00e9codage guid\u00e9 consiste en l'addition de param\u00e8tres, dans le mod\u00e8le log-lin\u00e9aire, mod\u00e9lisant la distance entre l'hypoth\u00e8se courante (not\u00e9e H) et la transcription auxiliaire (not\u00e9e T) : d(T,H). Avec l'introduction de ces nouveaux param\u00e8tres, les N meilleures hypoth\u00e8ses sont alors r\u00e9\u00e9valu\u00e9es et r\u00e9ordonn\u00e9es. L'article s'articule ainsi : la section 2 propose un \u00e9tat de l'art relatif au travail pr\u00e9sent\u00e9. La section 3 pr\u00e9sente notre approche, les sections 4 et 5 d\u00e9crivent respectivement le syst\u00e8me de traduction \u00e9talon utilis\u00e9 et nos exp\u00e9rimentations qui sont analys\u00e9es plus finement dans la section 6. La derni\u00e8re section est consacr\u00e9e \u00e0 nos conclusions et \u00e0 quelques perspectives.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Introduction", "sec_num": "1" }, { "text": "Contrairement \u00e0 la reconnaissance automatique de la parole, la traduction automatique propose une grande vari\u00e9t\u00e9 de syst\u00e8mes bas\u00e9s sur des concepts diff\u00e9rents. M\u00eame parmi les syst\u00e8mes statistiques, on trouve de nombreuses variantes telles que les syst\u00e8mes \u00e0 base de segments, les syst\u00e8mes hi\u00e9rarchiques ou les approches syntaxiques. Ceci complique la combinaison d'hypoth\u00e8ses en TA car on est confront\u00e9 \u00e0 des hypoth\u00e8ses potentiellement tr\u00e8s diff\u00e9rentes en terme de fluidit\u00e9, d'ordre de mots, etc.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Dans un premier temps, nous pr\u00e9sentons le concept de d\u00e9codage guid\u00e9 utilis\u00e9 dans les syst\u00e8mes de reconnaissance automatique de la parole (SRAP). Ensuite, nous pr\u00e9sentons les approches de combinaison de syst\u00e8mes existantes dans le cadre de la TA.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "\u00c9tat de l'art", "sec_num": "2" }, { "text": "Dans (Lecouteux et al., 2012 (Lecouteux et al., , 2013 , nous proposons l'utilisation de transcriptions auxiliaires pour am\u00e9liorer les performances d'un SRAP. Nous montrons que m\u00eame des informations bruit\u00e9es peuvent apporter une aide pr\u00e9cieuse et exploitable. Pour ce faire, deux m\u00e9thodes compl\u00e9mentaires sont exploit\u00e9es : la combinaison d'un mod\u00e8le de langage g\u00e9n\u00e9rique avec un mod\u00e8le estim\u00e9 sur la transcription imparfaite (permettant de r\u00e9duire l'espace linguistique et de le focaliser sur la t\u00e2che) et la r\u00e9estimation dynamique de la fonction de co\u00fbt du SRAP en fonction de la ressemblance de l'hypoth\u00e8se courante avec la transcription auxiliaire. Ainsi, la probabilit\u00e9 de l'hypoth\u00e8se courante est biais\u00e9e par la transcription auxiliaire. Diff\u00e9rents types de transcriptions auxiliaires peuvent \u00eatre utilis\u00e9s, comme par exemple des transcriptions issues d'autres SRAP, aboutissant finalement \u00e0 une combinaison. Ainsi, en associant une hypoth\u00e8se auxiliaire et ses scores de confiance, il est possible d'influencer dynamiquement la probabilit\u00e9 linguistique. Cette approche a montr\u00e9 des gains sup\u00e9rieurs aux m\u00e9thodes de combinaison classiques (i.e. ROVER) pour des t\u00e2ches de transcription de parole.", "cite_spans": [ { "start": 5, "end": 28, "text": "(Lecouteux et al., 2012", "ref_id": "BIBREF8" }, { "start": 29, "end": 54, "text": "(Lecouteux et al., , 2013", "ref_id": "BIBREF7" } ], "ref_spans": [], "eq_spans": [], "section": "Reconnaissance de la parole guid\u00e9e par des transcriptions approch\u00e9es", "sec_num": "2.1" }, { "text": "De nombreux probl\u00e8mes se pr\u00e9sentent pour la fusion de r\u00e9seaux de confusion (RC), dans le cadre de la TA. L'un des plus importants est relatif aux erreurs d'alignement entre hypoth\u00e8ses, qui g\u00e9n\u00e8rent des erreurs grammaticales. Le d\u00e9codage de r\u00e9seaux de confusion pour la TA a \u00e9t\u00e9 propos\u00e9 par (Bangalore, 2001) . Les hypoth\u00e8ses sont align\u00e9es en utilisant une distance de Levensthein, en vue de les fusionner en RC. L'\u00e9tape la plus importante consiste \u00e0 s\u00e9lectionner une hypoth\u00e8se \"patron\" servant de base \u00e0 l'alignement. Dans (Rosti et al., 2007b) , les sorties 1-best de chaque syst\u00e8me sont utilis\u00e9es \u00e0 tour de r\u00f4le comme patron et la mesure TER (Term Error Rate) entre le patron et les hypoth\u00e8ses concurrentes est estim\u00e9e dans chaque cas. Au final, le score TER minimal permet de retenir l'hypoth\u00e8se patron E s telle que :", "cite_spans": [ { "start": 290, "end": 307, "text": "(Bangalore, 2001)", "ref_id": null }, { "start": 523, "end": 544, "text": "(Rosti et al., 2007b)", "ref_id": "BIBREF15" } ], "ref_spans": [], "eq_spans": [], "section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion", "sec_num": "2.2" }, { "text": "E s = arg min E\u2208E i N s j=1 T ER(E j , E i ) o\u00f9 N s est le nombre de syst\u00e8mes.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion", "sec_num": "2.2" }, { "text": "Finalement, un r\u00e9seau est construit en agr\u00e9geant toutes les hypoth\u00e8ses. Dans cette approche les auteurs montrent que des param\u00e8tres suppl\u00e9mentaires peuvent \u00eatre rajout\u00e9s dans le mod\u00e8le loglin\u00e9aire, comme les probabilit\u00e9s a posteriori relatives \u00e0 chaque arc du RC. Dans cette approche, l'ordre de la combinaison est fortement influenc\u00e9 par la qualit\u00e9 de l'hypoth\u00e8se patron.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion", "sec_num": "2.2" }, { "text": "Dans (Rosti et al., 2007a) , une combinaison bas\u00e9e sur les scores de confiance a posteriori de diff\u00e9rents syst\u00e8mes est introduite. Dans la partie exp\u00e9rimentale de leurs travaux, les auteurs combinent trois syst\u00e8mes \u00e0 base de segments, deux syst\u00e8mes hi\u00e9rarchiques et un syntaxique. Tous les syst\u00e8mes sont entra\u00een\u00e9s sur les m\u00eames donn\u00e9es. Les poids des d\u00e9codeurs sont optimis\u00e9s selon TER ou BLEU en fonction du syst\u00e8me. Les r\u00e9sultats de combinaison montrent une am\u00e9lioration significative par rapport au meilleur syst\u00e8me initial.", "cite_spans": [ { "start": 5, "end": 26, "text": "(Rosti et al., 2007a)", "ref_id": "BIBREF14" } ], "ref_spans": [], "eq_spans": [], "section": "Combinaison de syst\u00e8mes de traduction automatique 2.2.1 D\u00e9codage de r\u00e9seaux de confusion", "sec_num": "2.2" }, { "text": "L'article (Hildebrand et Vogel, 2009) pr\u00e9sente une approche o\u00f9 les scores des N meilleures hypoth\u00e8ses sont r\u00e9estim\u00e9s. Les N meilleures hypoth\u00e8ses de chaque syst\u00e8me sont combin\u00e9es et des param\u00e8tres sont rajout\u00e9s au mod\u00e8le log-lin\u00e9aire (mod\u00e8le de langage, informations lexicales, etc.). Les poids du mod\u00e8le sont alors recalcul\u00e9s en vue de r\u00e9ordonner optimalement les hypoth\u00e8ses. Les exp\u00e9riences d\u00e9crites dans (Hildebrand et Vogel, 2009 ) montrent la n\u00e9cessit\u00e9 de s\u00e9lectionner un nombre N de meilleures hypoth\u00e8ses optimal, 50 dans ce cas pr\u00e9cis. Avec cette m\u00e9thode, les auteurs combinent incr\u00e9mentalement 4 syst\u00e8mes, montrant une am\u00e9lioration corr\u00e9l\u00e9e au nombre de syst\u00e8mes introduits.", "cite_spans": [ { "start": 10, "end": 37, "text": "(Hildebrand et Vogel, 2009)", "ref_id": "BIBREF4" }, { "start": 407, "end": 433, "text": "(Hildebrand et Vogel, 2009", "ref_id": "BIBREF4" } ], "ref_spans": [], "eq_spans": [], "section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.", "sec_num": "2.2.2" }, { "text": "Des approches bas\u00e9es sur le r\u00e9ordonnancement d'hypoth\u00e8ses sont \u00e9galement pr\u00e9sent\u00e9es dans (Li et al., 2009) et (Hildebrand et Vogel, 2008) o\u00f9 les auteurs s\u00e9lectionnent les hypoth\u00e8ses faisant consensus avec diff\u00e9rents syst\u00e8mes : pour cela ils introduisent dans le mod\u00e8le log-lin\u00e9aire des param\u00e8tres de consensus. \u00c0 la diff\u00e9rence de notre approche, les syst\u00e8mes auxiliaires ne sont pas consid\u00e9r\u00e9s comme des bo\u00eetes noires.", "cite_spans": [ { "start": 89, "end": 106, "text": "(Li et al., 2009)", "ref_id": "BIBREF9" }, { "start": 110, "end": 137, "text": "(Hildebrand et Vogel, 2008)", "ref_id": "BIBREF3" } ], "ref_spans": [], "eq_spans": [], "section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.", "sec_num": "2.2.2" }, { "text": "La prochaine section pr\u00e9sente le paradigme du d\u00e9codage guid\u00e9 o\u00f9 seules les meilleures hypoth\u00e8ses (1-best) issues des syst\u00e8mes auxiliaires sont exploit\u00e9es en vue d'am\u00e9liorer un syst\u00e8me primaire. Il est donc important de mentionner que notre approche consid\u00e8re les syst\u00e8mes auxiliaires comme \u00e9tant des \"boites noires\".", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.", "sec_num": "2.2.2" }, { "text": "3 D\u00e9codage guid\u00e9 pour la traduction automatique", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9ordonnancement des meilleures hypoth\u00e8ses.", "sec_num": "2.2.2" }, { "text": "Dans un premier temps, notre impl\u00e9mentation consiste en l'ajout de plusieurs param\u00e8tres dans le mod\u00e8le log-lin\u00e9aire, afin de r\u00e9ordonner les hypoth\u00e8ses. D'un point de vue pratique, ces scores sont rajout\u00e9s aux N-meilleures hypoth\u00e8ses directements issues du d\u00e9codeur. Les scores additionnels correspondent \u00e0 la distance entre l'hypoth\u00e8se courante (not\u00e9e H) et la traduction auxiliaire (not\u00e9e T) : d(T,H). Nous utilisons dans notre cas les hypoth\u00e8ses fournies par le syst\u00e8me du LIA et utilisons deux transcriptions auxiliaires (LIG et Google). Dans cette situation, deux scores de distance sont rajout\u00e9s au mod\u00e8le log-lin\u00e9aire. La distance utilis\u00e9e est d\u00e9crite dans la section suivante.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Principe g\u00e9n\u00e9ral", "sec_num": "3.1" }, { "text": "Nous proposons d'utiliser le BLEU comme distance entre les syst\u00e8mes. Le score BLEU correspond \u00e0 la moyenne g\u00e9om\u00e9trique de la pr\u00e9cision n-gramme. Un score BLEU \u00e9lev\u00e9 sugg\u00e8re donc une traduction de meilleure qualit\u00e9, d'o\u00f9 son utilisation comme m\u00e9trique d'\u00e9valuation de similarit\u00e9 entre diff\u00e9rents syst\u00e8mes. Pour le d\u00e9codage guid\u00e9, nous utilisons une distance BLEU liss\u00e9e au niveau de la phrase comme pr\u00e9sent\u00e9 dans (Lin et Och, 2004) . \u00c9videmment, nous souhaitons introduire des mesures de distance suppl\u00e9mentaires dans des travaux futurs, mais seul BLEU est utilis\u00e9 dans cet article qui peut \u00eatre vu comme une \"preuve de concept\".", "cite_spans": [ { "start": 412, "end": 430, "text": "(Lin et Och, 2004)", "ref_id": "BIBREF10" } ], "ref_spans": [], "eq_spans": [], "section": "Mesure de distance utilis\u00e9e", "sec_num": "3.2" }, { "text": "La combinaison est appliqu\u00e9e sur les 500 meilleures hypoth\u00e8ses extraites du syst\u00e8me primaire (LIA) en utilisant l'option distinct de Moses (ceci \u00e9limine les doublons). Chaque hypoth\u00e8se comporte un ensemble de 14 scores : 1 pour le mod\u00e8le de langage, 5 pour le mod\u00e8le de traduction, 1 score de distorsion, 7 scores de r\u00e9ordonnancement et un score de p\u00e9nalit\u00e9. A ces scores, nous ajoutons donc une mesure de similarit\u00e9 pour chaque syst\u00e8me auxiliaire.", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9ordonnancement des hypoth\u00e8ses et combinaison", "sec_num": "3.3" }, { "text": "Les poids de combinaison sont optimis\u00e9s en maximisant le score BLEU au niveau de la phrase en utilisant l'algorithme MIRA (Margin Infused Relaxed Algorithm) (Hasler et al., 2011) . Le choix de MIRA est motiv\u00e9 par une meilleure stabilit\u00e9 observ\u00e9e dans le cas d'optimisation de nombreux param\u00e8tres. Nous effectuons une centaine d'it\u00e9rations et le param\u00e8tre C est fix\u00e9 \u00e0 0.001.", "cite_spans": [ { "start": 157, "end": 178, "text": "(Hasler et al., 2011)", "ref_id": "BIBREF2" } ], "ref_spans": [], "eq_spans": [], "section": "R\u00e9ordonnancement des hypoth\u00e8ses et combinaison", "sec_num": "3.3" }, { "text": "En ce qui concerne le d\u00e9codage, un score est calcul\u00e9 pour chaque phrase (via la combinaison log-lin\u00e9aire) et les phrases sont r\u00e9ordonn\u00e9es en fonction des nouveaux scores calcul\u00e9s. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "R\u00e9ordonnancement des hypoth\u00e8ses et combinaison", "sec_num": "3.3" }, { "text": "Le syst\u00e8me LIA est un syst\u00e8me \u00e0 base de segments (phrase-based). L'ensemble des donn\u00e9es utilis\u00e9es provient de la campagne d'\u00e9valuation WMT 2011 et les donn\u00e9es sont tokenis\u00e9es avec les outils fournis lors de la campagne. Le mod\u00e8le de langage 4-gramme a \u00e9t\u00e9 appris \u00e0 l'aide de la bo\u00eete \u00e0 outils SRILM (Stolcke, 2002) avec un mod\u00e8le de repli Kneyser-Ney modifi\u00e9. Le corpus parall\u00e8le a \u00e9t\u00e9 align\u00e9 au niveau des mots en utilisant Giza++ (Och et Ney, 2003) et MGiza++ (Gao et Vogel, 2008) pour les corpus tr\u00e8s volumineux. La table de phrases et les mod\u00e8les de r\u00e9ordonnancement ont \u00e9t\u00e9 appris en utilisant les outils d'apprentissage de la suite Moses (Koehn et al., 2007) . Au final, un ensemble de 14 param\u00e8tres a \u00e9t\u00e9 utilis\u00e9 dans le syst\u00e8me (cf 3.3). Ces scores ont \u00e9t\u00e9 optimis\u00e9s sur le corpus newstest2009 comprenant 2525 phrases en utilisant l'algorithme MERT. Plus de d\u00e9tails se trouvent dans (Potet et al., 2011) .", "cite_spans": [ { "start": 299, "end": 314, "text": "(Stolcke, 2002)", "ref_id": "BIBREF16" }, { "start": 432, "end": 450, "text": "(Och et Ney, 2003)", "ref_id": "BIBREF11" }, { "start": 462, "end": 482, "text": "(Gao et Vogel, 2008)", "ref_id": "BIBREF1" }, { "start": 644, "end": 664, "text": "(Koehn et al., 2007)", "ref_id": "BIBREF6" }, { "start": 891, "end": 911, "text": "(Potet et al., 2011)", "ref_id": null } ], "ref_spans": [], "eq_spans": [], "section": "Caract\u00e9ristiques du syst\u00e8me primaire utilis\u00e9 (LIA)", "sec_num": "4.2" }, { "text": "La Table 2 r\u00e9sume les scores BLEU obtenus par le syst\u00e8me LIA sans la casse (tous les r\u00e9sultats de l'article sont donn\u00e9s sans la casse). L'\u00e9valuation des performances est effectu\u00e9e sur 3 corpus : dev qui correspond aux corpus newstest2008 + newssyscomb2009 de WMT (2553 phrases) ; tst10 qui correspond \u00e0 newstest2010 (2489 phrases) et tst11 qui correspond \u00e0 newstest2011 (3005 phrases). Nous pr\u00e9sentons \u00e9galement les scores obtenus par les syst\u00e8mes auxiliaires LIG (non d\u00e9crit ici faute de place mais pr\u00e9sent\u00e9 dans (Potet et al., 2011) ) et Google (syst\u00e8me en ligne dans sa version de F\u00e9vrier 2012). Nous sommes conscients du risque que le syst\u00e8me Google utilis\u00e9 en 2012 puisse contenir des donn\u00e9es issues de WMT 2011, mais \u00e0 la vue des performances, \u00e7a ne semble pas \u00eatre le cas. C'est principalement pour cette raison que nous avons \u00e9galement introduit le syst\u00e8me du LIG dont nous contr\u00f4lons parfaitement les donn\u00e9es d'apprentissage. Pour finir, l'algorithme MIRA (Hasler et al., 2011) est utilis\u00e9 pour recalculer tous les poids relatifs au d\u00e9codage guid\u00e9 (entra\u00een\u00e9s sur le corpus dev). ", "cite_spans": [ { "start": 514, "end": 534, "text": "(Potet et al., 2011)", "ref_id": null }, { "start": 965, "end": 986, "text": "(Hasler et al., 2011)", "ref_id": "BIBREF2" } ], "ref_spans": [ { "start": 3, "end": 10, "text": "Table 2", "ref_id": null } ], "eq_spans": [], "section": "Performances du syst\u00e8me primaire et des syst\u00e8mes auxiliaires", "sec_num": "4.3" }, { "text": "Nous avons pr\u00e9sent\u00e9 une adaptation pr\u00e9liminaire du d\u00e9codage guid\u00e9 \u00e0 la traduction automatique. Ce paradigme permet une combinaison efficace de syst\u00e8mes de traduction automatique, en r\u00e9\u00e9valuant le mod\u00e8le log-lin\u00e9aire au niveau des N meilleures hypoth\u00e8ses, en utilisant des syst\u00e8mes auxiliaires. Le principe est de guider le processus de recherche en utilisant des sorties existantes. Nous avons \u00e9valu\u00e9 diff\u00e9rentes configurations sur le corpus WMT 2011. Les r\u00e9sultats montrent que l'approche est efficace et obtient des gains significatifs en terme de score BLEU. Par ailleurs, ces r\u00e9sultats pr\u00e9liminaires sont \u00e9quivalents (voire l\u00e9g\u00e8rement meilleurs) \u00e0 ceux obtenus en utilisant des m\u00e9thodes de combinaison \u00e9tat de l'art. Enfin, cette m\u00e9thode a \u00e9t\u00e9 r\u00e9cemment utilis\u00e9e avec succ\u00e8s lors de deux campagnes d'\u00e9valuation :", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "7" }, { "text": "-Une campagne d'\u00e9valuation arabe/fran\u00e7ais (TRAD) o\u00f9 nous avons utilis\u00e9 Google comme syst\u00e8me auxiliaire et le syst\u00e8me du LIG comme syst\u00e8me primaire. -La campagne d'\u00e9valuation IWSLT 2012 (anglais/fran\u00e7ais) o\u00f9 nous avons utilis\u00e9 le m\u00eame syst\u00e8me en ligne pour am\u00e9liorer les performances du syst\u00e8me primaire LIG. Les r\u00e9sultats de cette campagne se trouvent dans (Besacier et al., 2012) .", "cite_spans": [ { "start": 357, "end": 380, "text": "(Besacier et al., 2012)", "ref_id": "BIBREF0" } ], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "7" }, { "text": "Nos futurs travaux vont se concentrer sur l'int\u00e9gration du d\u00e9codage guid\u00e9 au sein du d\u00e9codeur Moses, au niveau de la fonction objective. Le second axe envisag\u00e9 est l'utilisation de mesures de confiance associ\u00e9es aux transcriptions auxiliaires, afin de les exploiter plus finement. ", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "Conclusion et perspectives", "sec_num": "7" }, { "text": "c ATALA", "cite_spans": [], "ref_spans": [], "eq_spans": [], "section": "", "sec_num": null } ], "back_matter": [], "bib_entries": { "BIBREF0": { "ref_id": "b0", "title": "The LIG English to French Machine Translation System for IWSLT 2012", "authors": [ { "first": "L", "middle": [], "last": "Besacier", "suffix": "" }, { "first": "B", "middle": [], "last": "Lecouteux", "suffix": "" }, { "first": "M", "middle": [], "last": "Azouzi", "suffix": "" }, { "first": "Q", "middle": [], "last": "Luong Ngoc", "suffix": "" } ], "year": 2012, "venue": "proceedings of the 9th International Workshop on Spoken Language Translation (IWSLT)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "BESACIER, L., LECOUTEUX, B., AZOUZI, M. et LUONG NGOC, Q. (2012). The LIG English to French Machine Translation System for IWSLT 2012. In In proceedings of the 9th International Workshop on Spoken Language Translation (IWSLT).", "links": null }, "BIBREF1": { "ref_id": "b1", "title": "Parallel implementations of word alignment tool", "authors": [ { "first": "Q", "middle": [], "last": "Gao", "suffix": "" }, { "first": "S", "middle": [], "last": "Vogel", "suffix": "" } ], "year": 2008, "venue": "Proceedings of the ACL Workshop : Software Engineering, Testing, and Quality Assurance for Natural Language Processing", "volume": "", "issue": "", "pages": "49--57", "other_ids": {}, "num": null, "urls": [], "raw_text": "GAO, Q. et VOGEL, S. (2008). Parallel implementations of word alignment tool. In Proceedings of the ACL Workshop : Software Engineering, Testing, and Quality Assurance for Natural Language Processing, pages 49-57, Columbus, OH, USA.", "links": null }, "BIBREF2": { "ref_id": "b2", "title": "Margin infused relaxed algorithm for moses", "authors": [ { "first": "E", "middle": [], "last": "Hasler", "suffix": "" }, { "first": "B", "middle": [], "last": "Haddow", "suffix": "" }, { "first": "P", "middle": [], "last": "Koehn", "suffix": "" } ], "year": 2011, "venue": "The Prague Bulletin of Mathematical Linguistics", "volume": "96", "issue": "", "pages": "69--78", "other_ids": {}, "num": null, "urls": [], "raw_text": "HASLER, E., HADDOW, B. et KOEHN, P. (2011). Margin infused relaxed algorithm for moses. In The Prague Bulletin of Mathematical Linguistics, pages 96 :69-78.", "links": null }, "BIBREF3": { "ref_id": "b3", "title": "Combination of machine translation systems via hypothesis selection from combined n-best lists", "authors": [ { "first": "A", "middle": [ "S" ], "last": "Hildebrand", "suffix": "" }, { "first": "S", "middle": [], "last": "Vogel", "suffix": "" } ], "year": 2008, "venue": "AMTA conference", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "HILDEBRAND, A. S. et VOGEL, S. (2008). Combination of machine translation systems via hypothesis selection from combined n-best lists. In AMTA conference.", "links": null }, "BIBREF4": { "ref_id": "b4", "title": "Combination of machine translation systems via hypothesis selection from combined n-best lists", "authors": [ { "first": "A", "middle": [ "S" ], "last": "Hildebrand", "suffix": "" }, { "first": "S", "middle": [], "last": "Vogel", "suffix": "" } ], "year": 2009, "venue": "Proceedings of Association for Machine Translation in the Americas (AMTA)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "HILDEBRAND, A. S. et VOGEL, S. (2009). Combination of machine translation systems via hypothesis selection from combined n-best lists. In Proceedings of Association for Machine Translation in the Americas (AMTA), Hawa\u00ef, USA.", "links": null }, "BIBREF5": { "ref_id": "b5", "title": "Statistical Machine Translation", "authors": [ { "first": "P", "middle": [], "last": "Koehn", "suffix": "" } ], "year": 2010, "venue": "", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "KOEHN, P. (2010). Statistical Machine Translation. Cambridge University Press, New York.", "links": null }, "BIBREF6": { "ref_id": "b6", "title": "Moses : Open source toolkit for statistical machine translation", "authors": [ { "first": "P", "middle": [], "last": "Koehn", "suffix": "" }, { "first": "H", "middle": [], "last": "Hoang", "suffix": "" }, { "first": "A", "middle": [], "last": "Birch", "suffix": "" }, { "first": "C", "middle": [], "last": "Callison-Burch", "suffix": "" }, { "first": "M", "middle": [], "last": "Federico", "suffix": "" }, { "first": "N", "middle": [], "last": "Bertoldi", "suffix": "" }, { "first": "B", "middle": [], "last": "Cowan", "suffix": "" }, { "first": "W", "middle": [], "last": "Shen", "suffix": "" }, { "first": "C", "middle": [], "last": "Moran", "suffix": "" }, { "first": "R", "middle": [], "last": "Zens", "suffix": "" }, { "first": "C", "middle": [], "last": "Dyer", "suffix": "" }, { "first": "O", "middle": [], "last": "Bojar", "suffix": "" }, { "first": "A", "middle": [], "last": "Constantin", "suffix": "" }, { "first": "E", "middle": [], "last": "Herbst", "suffix": "" } ], "year": 2007, "venue": "Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics (ACL), Companion Volume", "volume": "", "issue": "", "pages": "177--180", "other_ids": {}, "num": null, "urls": [], "raw_text": "KOEHN, P., HOANG, H., BIRCH, A., CALLISON-BURCH, C., FEDERICO, M., BERTOLDI, N., COWAN, B., SHEN, W., MORAN, C., ZENS, R., DYER, C., BOJAR, O., CONSTANTIN, A. et HERBST, E. (2007). Moses : Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics (ACL), Companion Volume, pages 177-180, Prague, Czech Republic.", "links": null }, "BIBREF7": { "ref_id": "b7", "title": "Dynamic combination of automatic speech recognition systems by driven decoding", "authors": [ { "first": "B", "middle": [], "last": "Lecouteux", "suffix": "" }, { "first": "G", "middle": [], "last": "Linares", "suffix": "" }, { "first": "Y", "middle": [], "last": "Est\u00e8ve", "suffix": "" }, { "first": "G", "middle": [], "last": "Gravier", "suffix": "" } ], "year": 2013, "venue": "IEEE Transactions on Audio, Speech and Signal Processing", "volume": "21", "issue": "", "pages": "1251--1260", "other_ids": {}, "num": null, "urls": [], "raw_text": "LECOUTEUX, B., LINARES, G., EST\u00c8VE, Y. et GRAVIER, G. (2013). Dynamic combination of automatic speech recognition systems by driven decoding. IEEE Transactions on Audio, Speech and Signal Processing, 21, issue 6:1251 -1260.", "links": null }, "BIBREF8": { "ref_id": "b8", "title": "Integrating imperfect transcripts into speech recognition systems for building high-quality corpora", "authors": [ { "first": "B", "middle": [], "last": "Lecouteux", "suffix": "" }, { "first": "G", "middle": [], "last": "Linares", "suffix": "" }, { "first": "S", "middle": [], "last": "Oger", "suffix": "" } ], "year": 2012, "venue": "Computer Speech and Language", "volume": "26", "issue": "2", "pages": "67--89", "other_ids": {}, "num": null, "urls": [], "raw_text": "LECOUTEUX, B., LINARES, G. et OGER, S. (2012). Integrating imperfect transcripts into speech recognition systems for building high-quality corpora. Computer Speech and Language, 26(2):67 -89.", "links": null }, "BIBREF9": { "ref_id": "b9", "title": "Collaborative decoding : Partial hypothesis re-ranking using translation consensus between decoders", "authors": [ { "first": "M", "middle": [], "last": "Li", "suffix": "" }, { "first": "N", "middle": [], "last": "Duan", "suffix": "" }, { "first": "D", "middle": [], "last": "Zhang", "suffix": "" }, { "first": "C.-H", "middle": [], "last": "Li", "suffix": "" }, { "first": "M", "middle": [], "last": "Zhou", "suffix": "" } ], "year": 2009, "venue": "Proceedings of the 47th Annual Meeting of the ACL and the 4th IJCNLP of the AFNLP", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LI, M., DUAN, N., ZHANG, D., LI, C.-H. et ZHOU, M. (2009). Collaborative decoding : Partial hypothesis re-ranking using translation consensus between decoders. In Proceedings of the 47th Annual Meeting of the ACL and the 4th IJCNLP of the AFNLP.", "links": null }, "BIBREF10": { "ref_id": "b10", "title": "Orange : a method for evaluating automatic evaluation metrics for machine translation", "authors": [ { "first": "C.-Y", "middle": [], "last": "Lin", "suffix": "" }, { "first": "F", "middle": [ "J" ], "last": "Och", "suffix": "" } ], "year": 2004, "venue": "COLING '04 : Proceedings of the 20th international conference on Computational Linguistics", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "LIN, C.-Y. et OCH, F. J. (2004). Orange : a method for evaluating automatic evaluation metrics for machine translation. In In COLING '04 : Proceedings of the 20th international conference on Computational Linguistics.", "links": null }, "BIBREF11": { "ref_id": "b11", "title": "A systematic comparison of various statistical alignment models", "authors": [ { "first": "F", "middle": [ "J. ;" ], "last": "Och", "suffix": "" }, { "first": "Japan", "middle": [], "last": "Sapporo", "suffix": "" }, { "first": "F", "middle": [ "J" ], "last": "Och", "suffix": "" }, { "first": "H", "middle": [], "last": "Ney", "suffix": "" } ], "year": 2003, "venue": "Proceedings of the 41st Annual Meeting on Association for Computational Linguistics (ACL)", "volume": "29", "issue": "", "pages": "19--51", "other_ids": {}, "num": null, "urls": [], "raw_text": "OCH, F. J. (2003). Minimum error rate training in statistical machine translation. In Proceedings of the 41st Annual Meeting on Association for Computational Linguistics (ACL), Sapporo, Japan. OCH, F. J. et NEY, H. (2003). A systematic comparison of various statistical alignment models. Computational Linguistics, 29(1):19-51.", "links": null }, "BIBREF13": { "ref_id": "b13", "title": "The LIGA machine translation system for WMT", "authors": [], "year": 2011, "venue": "Proceedings EMNLP and ACL Workshop on Machine Translation (WMT)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "The LIGA machine translation system for WMT 2011. In Proceedings EMNLP and ACL Workshop on Machine Translation (WMT), Edinburgh (Scotland).", "links": null }, "BIBREF14": { "ref_id": "b14", "title": "Combining outputs from multiple machine translation systems", "authors": [ { "first": "A", "middle": [], "last": "Rosti", "suffix": "" }, { "first": "N.-F", "middle": [], "last": "Ayan", "suffix": "" }, { "first": "B", "middle": [], "last": "Xiang", "suffix": "" }, { "first": "S", "middle": [], "last": "Matsoukas", "suffix": "" }, { "first": "R", "middle": [], "last": "Schwartz", "suffix": "" }, { "first": "B", "middle": [], "last": "Dorr", "suffix": "" } ], "year": 2007, "venue": "Proceedings of the North American Chapter of the Association for Computational Linguistics Human Language Technologies", "volume": "", "issue": "", "pages": "228--235", "other_ids": {}, "num": null, "urls": [], "raw_text": "ROSTI, A.-v., AYAN, N.-F., XIANG, B., MATSOUKAS, S., SCHWARTZ, R. et DORR, B. (2007a). Combining outputs from multiple machine translation systems. In In Proceedings of the North American Chapter of the Association for Computational Linguistics Human Language Technologies, pages 228-235.", "links": null }, "BIBREF15": { "ref_id": "b15", "title": "Improved word-level system combination for machine translation", "authors": [ { "first": "A", "middle": [], "last": "Rosti", "suffix": "" }, { "first": "S", "middle": [], "last": "Matsoukas", "suffix": "" }, { "first": "R", "middle": [], "last": "Schwartz", "suffix": "" } ], "year": 2007, "venue": "Proceedings of ACL", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "ROSTI, A.-v., MATSOUKAS, S. et SCHWARTZ, R. (2007b). Improved word-level system combination for machine translation. In In Proceedings of ACL.", "links": null }, "BIBREF16": { "ref_id": "b16", "title": "SRILM -an extensible language modeling toolkit", "authors": [ { "first": "A", "middle": [], "last": "Stolcke", "suffix": "" } ], "year": 2002, "venue": "Proceedings of the 7th International Conference on Spoken Language Processing (ICSLP)", "volume": "", "issue": "", "pages": "", "other_ids": {}, "num": null, "urls": [], "raw_text": "STOLCKE, A. (2002). SRILM -an extensible language modeling toolkit. In Proceedings of the 7th International Conference on Spoken Language Processing (ICSLP), Denver, CO, USA.", "links": null } }, "ref_entries": { "FIGREF0": { "text": "BANGALORE, S. (2001). Computing consensus translation from multiple machine translation systems. In In Proceedings of IEEE Automatic Speech Recognition and Understanding Workshop (ASRU-2001, pages 351-354. BARRAULT, L. (2010). Many : Open source machine translation system combination. In In Prague Bulletin of Mathematical Linguistics, Special Issue on Open Source Tools for Machine Translation(93), p.145-155.", "uris": null, "type_str": "figure", "num": null }, "TABREF0": { "num": null, "html": null, "type_str": "table", "text": "syst\u00e8mes LIG et LIA ont \u00e9t\u00e9 entra\u00een\u00e9s \u00e0 partir des donn\u00e9es fournies lors de la campagne d'\u00e9valuation WMT 2011 et sur le corpus Gigaword fourni par le LDC. LaTable 4.1 r\u00e9capitule l'ensemble des donn\u00e9es utilis\u00e9es et introduit les notations pour les corpus qui seront utilis\u00e9es dans la suite de l'article. Quatre corpus ont \u00e9t\u00e9 utilis\u00e9s pour construire le mod\u00e8le de traduction :", "content": "
D\u00c9SIGNATION news-c euro UN giga mono-news-c Shuffled News Crawl (2007 \u00e0 2011) news-s News Commentary v6 Europarl v6 Anglais/Fran\u00e7ais UN corpus Apprentissage bilingue 10 9 corpus Apprentissage News Commentary v6 monolingue Anglais Europarl v6 mono-euro D\u00e9veloppement newstest2008 + newssyscomb2009 dev newstest2009 optimisation-LIG-LIA Test newstest2010 test10 newstest2011 test11 TABLE 1 -Corpus utilis\u00e9s pour construire les syst\u00e8mes LIG et LIA (dans la campagne d'\u00e9valuation NB PHRASES 116 k 1.8 M 12 M 23 M 181 k 25 M 1.8 M 2553 2525 2489 3005 Les CORPUS WMT 2011).
" }, "TABREF2": { "num": null, "html": null, "type_str": "table", "text": "Le d\u00e9codage guid\u00e9 (Driven Decoding Algorithm, DDA) a \u00e9t\u00e9 utilis\u00e9 avec le LIA comme syst\u00e8me primaire dont les 500 meilleures hypoth\u00e8ses ont \u00e9t\u00e9 extraites. Les transcriptions auxiliaires sont ici les transcriptions issues des syst\u00e8mes LIG et Google dont les performances sont donn\u00e9es dans laTable 2. Cette table pr\u00e9sente \u00e9galement les r\u00e9sultats du d\u00e9codage guid\u00e9.Nous constatons que le syst\u00e8me LIA est meilleur que le syst\u00e8me LIG. Cependant, la transcription auxiliaire du LIG permet tout de m\u00eame d'am\u00e9liorer ses performances par d\u00e9codage guid\u00e9. Nous observons \u00e9galement une am\u00e9lioration qui se cumule lorsqu'on ajoute le syst\u00e8me de Google. Le d\u00e9codage guid\u00e9 du syst\u00e8me LIA am\u00e9liore son score BLEU d'environ 1 point en comparaison du meilleur syst\u00e8me individuel. De plus, les scores Oracle des combinaisons entre diff\u00e9rents syst\u00e8mes sont donn\u00e9s \u00e0 titre d'information. Il est int\u00e9ressant de noter qu'en substituant le syst\u00e8me LIA au syst\u00e8me DDA, le score Oracle baisse m\u00e9caniquement puisque le d\u00e9codage guid\u00e9 d\u00e9gage un consensus.LaTable 3et la Figure associ\u00e9e montrent les distances BLEU entre le d\u00e9codage guid\u00e9 par LIG+Google, LIG, Google et l'ensemble des syst\u00e8mes utilis\u00e9s seuls. Les similarit\u00e9s pr\u00e9sent\u00e9es ont \u00e9t\u00e9 calcul\u00e9es sur le corpus test11 (elles sont similaires sur les autres ensembles). Nous observons que le d\u00e9codage guid\u00e9 LIG+Google se rapproche \u00e0 la fois des syst\u00e8mes Google et LIG. Lorsqu'il utilise uniquement le syst\u00e8me auxiliaire Google, au contraire il s'\u00e9loigne du LIG. En revanche, en utilisant uniquement le syst\u00e8me auxiliaire LIG, l'hypoth\u00e8se obtenue ne s'\u00e9loigne pas de Google. Similarit\u00e9 entre les syst\u00e8mes. La m\u00e9trique utilis\u00e9e est le BLEU : Chaque sommet du graphe correspond \u00e0 un syst\u00e8me qui est consid\u00e9r\u00e9 comme r\u00e9f\u00e9rence par rapport aux autres. DDA tout correspond au syst\u00e8me DDA guid\u00e9 \u00e0 la fois par les syst\u00e8mes Google et LIA La Figure montre le comportement induit par le d\u00e9codage guid\u00e9 : les hypoth\u00e8ses se rapprochent ou s'\u00e9loignent des syst\u00e8mes auxiliaires. Il est int\u00e9ressant de noter que le syst\u00e8me LIG, a priori moins performant que le syst\u00e8me LIA a finalement une similarit\u00e9 tr\u00e8s \u00e9lev\u00e9e avec ce dernier. L'utilisation d'une similarit\u00e9 BLEU entre les syst\u00e8mes permet donc de trouver un consensus inter-hypoth\u00e8ses.", "content": "
Syst\u00e8meLIADDA tout DDA LIGDDA Google
LIG63.1366.1472.861.02
LIA10077.283.677.19
Google51.0166.2951.7665.93
DDA tout77.210079.6890.96
TABLE 3 -
Les r\u00e9sultats sont \u00e9galement tr\u00e8s l\u00e9g\u00e8rement sup\u00e9rieurs \u00e0 ceux obtenus avec MANY, qui est un
syst\u00e8me de combinaison \u00e9tat de l'art. Cependant, tandis que MANY n\u00e9cessite un red\u00e9codage \u00e0
l'aide d'un mod\u00e8le de langage cible, le d\u00e9codage guid\u00e9 permet une combinaison diff\u00e9rente et peu
co\u00fbteuse \u00e0 mettre en oeuvre.
6 Analyse plus fine du d\u00e9codage guid\u00e9
" } } } }