Programme

#TQ2020 | Traduction & Qualité : Biotraduction et Traduction automatique

Vendredi 31 janvier 2020

Université de Lille : UFR Langues Étrangères Appliquées & Laboratoire « Savoirs, Textes, Langage » du CNRS
651 Avenue des Nations-Unies 59100 Roubaix (plan d'accès : https://lea.univ-lille.fr/venir-aux-lea/)

ULilleleaaffumtstl

 

8h30-9h : Accueil/Welcome to participants

9h-9h15 : Introduction

Session 1 : Traduction Automatique et monde professionnel

9h15-9h50

Joss Moorkens (School of Applied Language and Intercultural Studies, Dublin City University) | Neural Machine Translation and Polarisation of the Translation Workplace

The advent of Neural Machine Translation (NMT) has raised quality expectations for MT output and further empowered stakeholders with repositories of data and the financial wherewithal to pay for expertise and training. This process has, in turn, sped up the polarisation of the translation marketplace, with a focus on efficiency rather than quality at the lower end of the market. This presentation looks initially at NMT and data requirements, then more broadly at human factors in NMT, and at how automation of workflow steps is changing translation workflows.

9h50-10h25

Caroline Rossi (Université Grenoble-Alpes) | Apprivoiser la traduction automatique neuronale (TAN) : un défi sans fin ?

Si l’usage effectif d’une solution technologique en conditionne la perception, alors il est à peu près certain que les bouleversements actuels font bouger les lignes entre traducteurs humains et machines (voir par ex. Yang et Wang, 2019). Ces évolutions se font cependant à rebours des modèles d’acceptation de la technologie (Venkatesh et Bala, 2008), si bien que la question de savoir pourquoi les formateurs doivent désormais s’occuper de préparer les jeunes traducteurs à interagir avec la TAN n’est pas pour autant résolue. Quelles compétences sont liées à ces nouveaux usages, et lesquelles doivent être mises en avant dans un programme de formation qui donne au traducteur un rôle d’expert à toutes les étapes du processus ? Si apprivoiser la TAN est encore souvent perçu comme un défi sans fin, du fait notamment des effets « boîte noire » de ces systèmes, la finalité que nous pouvons nous assigner en tant que formateurs est beaucoup plus claire. Les résultats présentés dans cette communication sont issus d’une analyse des usages et perceptions de la TAN, réalisée à partir de données recueillies auprès des étudiants de deuxième année du Master TSM de l’Université Grenoble Alpes.
Dans le prolongement de deux premières études sur les perceptions de la traduction automatique, réalisées auprès d’étudiants du Master TSM de l’Université Grenoble Alpes d’une part (Rossi, 2017), et auprès de traducteurs de la Commission européenne d’autre part (Rossi et Chevrot, 2019), je ferai quelques propositions de modalités d’évaluation des usages et perceptions, et d'applications à la formation, en lien avec les tout derniers développements de la TAN.

 

10h25-10h45 : Pause café/Coffee break

 

10h45-11h20

Nathalie De Sutter (Untranslate) | Realistic expectations for putting Neural Machine Translation into production

The 2019 Language Industry Survey shared a few interesting trends, like machine translation currently being the most important investment made by translation companies and Google Translate taking the first position in the list of most widely known tools, preceding even Microsoft Office or SDL Studio. Machine translation and post-editing are considered both positive and negative trends. Today, boosted by the possibility to customise MT engines via user-friendly interfaces and wizards, easy integration with most CAT environments and flexible pricing models, neural machine translation has become an increasingly popular tool used by translation agencies and language professionals. But is it worth it? Are translators indeed able to increase their productivity and deliver similar quality output at the same time? Nathalie has been carrying out research at various universities during the past 10 years and will share her objective measurements of MT quality evolutions, as well as realistic expectations for implementing the technology in a production environment.

11h20-11h55

Geert Benoit (Yamagata) | 10 Years of MT at Yamagata Europe

We have been investing and using MT at Yamagata Europe for almost 10 years now. Yamagata is a service company that creates, translates and publishes technical and commercial product information.
I want to briefly share the evolution we went through regarding MT and the impact the use of MT had on our organisation, our people, our external translators.  To round up we will look at possible future roles for linguists in our industry.

 

 

12h-13h30 : Pause déjeuner/Lunch break

 

 

Session 2 : Traduction Automatique et métiers de la traduction

13h30-14h05

Guillaume Deneufbourg (Université de Lille) | La traduction, un métier en voie de disparition ?

À travers cette présentation, Guillaume Deneufbourg partagera son expérience d’observateur de longue date du marché de la traduction afin de faire tomber certains mythes qui entourent l’utilisation de la traduction automatique. Il fera notamment certains parallèles avec d’autres professions prétendument « menacées » par la révolution technologique. Il se penchera en particulier sur la perception de la technologie par les différents acteurs du marché et expliquera pourquoi il reste pour sa part convaincu que les traducteurs restent promis à un bel avenir, à condition qu’ils fassent preuve d’ouverture face aux évolutions technologiques, mais surtout qu’ils se donnent les moyens de se démarquer qualitativement de leurs concurrents, qu’ils soient faits de chair et d’os ou de réseaux neuronaux.

14h05-14h40

Sarah Van der Vorst (Transfigure8) | Le post-éditeur, un nouveau maillon fort du projet de traduction

À l’heure où la traduction automatique prend une place prépondérante sur le marché de la traduction, elle est toutefois encore fortement décriée par les traducteurs. L’objectif de mon intervention est de montrer de quelle façon la traduction automatique s’intègre dans le processus de traduction au même titre que les autres nombreux outils dont le marché dispose à l’heure actuelle. Il est important d’être en mesure de déterminer si la traduction automatique peut être utile dans le cycle de vie d’un projet de traduction. Ainsi, le post-éditeur ne peut se contenter d’être un simple maillon de la production. Tout comme la personne chargée de la mise en page donnera ses instructions sur le cycle de vie du projet, le post-éditeur doit prendre sa place à chaque étape du projet et de la réflexion, en apportant son savoir et son savoir-faire à ses collègues.

 

14h45-15h : Pause café/Coffee break

 

Session 3 : Analyse de la Traduction Automatique

15h-15h35

François Yvon (LIMSI, CNRS) | Ouvrir la boite noire ou comment analyser les systèmes de traduction neuronaux

Les systèmes de traduction neuronaux se distinguent de la précédente génération de systèmes de traduction statistique de bien des manières : si la qualité d'ensemble est souvent jugée meilleure, leur fonctionnement en "boîte noire" interdit d'avoir accès aux mécanismes par lesquels les traductions sont produites, de comprendre les causes d'erreurs, voire de les corriger de manière systématique. Dans cet exposé, nous présentons et discutons l'état actuelle des efforts de la recherche visant à analyser ses systèmes, à expliquer leurs erreurs et à rendre leurs résultats plus interprétables.

15h35-16h10

Hanna Martikainen, Alexandra Mestivier (CLILLAC-ARP, Université de Paris) | Les outils de traduction nouvelle génération : quel effet sur la qualité des textes traduits ?

Arrivée sur le marché en fanfare il y a quelques années, la traduction automatique neuronale suscite de nombreuses interrogations parmi les acteurs du secteur de la traduction. Ayant précédemment exploré la perception de ces outils nouvelle génération chez les apprenants en traduction spécialisée (Martikainen & Mestivier 2019), nous nous intéresserons dans cette communication à la qualité des textes issus de cette interaction entre l’humain et la machine. A travers une étude comparative de textes annotés, nous chercherons à caractériser ce qui différencie les textes traduits automatiquement par un moteur neuronal et post-édités par des apprenants des textes traduits par le processus classique, en nous intéressant plus spécifiquement à l’apport des corpus comparables en langues de spécialité (Kübler et al. 2019).

16h10-16h45

Orphée De Clercq, Rudy Loock, Bert Cappelle, Gert De Sutter, Koen Plevoets (Ghent University & Université de Lille) | Uncovering Machine Translationese: an experiment on 4 MT systems for English-French translations

The aim of this presentation is to discuss the linguistic features of machine-translated texts in comparison with original texts in order to uncover what has been called “machine translationese” (e.g. Daems et al. 2017). Using a corpus-based statistical approach, namely, the Principal Component Analysis technique, 4 MT systems have been investigated for English to French translations of press texts: 1 Statistical MT (SMT) and 3 Neural MT (NMT) systems, namely DeepL, Google Translate, and the European Commission’s eTranslation MT tool, in both its SMT and NMT versions. In particular, to complement a previous study on language-specific features (e.g. derived adverbs, existential constructions, coordinator et, preposition avec, see Loock 2018), a series of language-independent linguistic features were extracted for each text, ranging from superficial text characteristics such as the average word and sentence length, to frequencies of closed-class lexical categories and measures of lexical diversity.The final aim is to uncover linguistic features in MT texts that clearly deviate from the expected norms in original French.

 

16h45-17h : Conclusions

 

Personnes connectées : 1