SFÖ-konferens 2019

Efteranalysen än en gång …

2 maj, 2019

Steffen Karlsen och Jesper Andersen höll i vad som kallades Semantix workshop på konferensen men vad som egentligen var ett gemensamt föredrag.

Steffen Karlsen och Jesper Andersen. Steffen Karlsen och Jesper Andersen. / Foto: Björn Olofsson.

Det handlade om deras syn på maskinöversättning (MT) och så kallad efterredigering inklusive hur en bra efterredigering bör vara. Men Steffen och Jesper överraskade också med att presentera en enkät som man hade gjort bland Semantix danska översättare med anledning av SFÖ:s enkät.

Det som var särskilt intressant med Semantix enkät var denna: I SFÖ:s samtal med Catarina Tunón och Jesper i januari 2019 fick vi höra att Jesper var förvånad över de många negativa reaktionerna hos SFÖ-medlemmarna på systemet med MT plus efteranalys, eftersom man i Danmark i stort sett bara hade fått positiva reaktioner. Men si – den enkät som nu presenterades visade något helt annat, nämligen att de danska översättarna på det hela taget tycker precis som de svenska.

Bland annat så här:

Inställning till/nytta av MT:
– SFÖ: 65 % är positivt eller neutralt inställda till MT
– Semantix: 75 % har blivit snabbare med MT eller i varje fall inte långsammare

Och så långt ser ju allt ganska bra ut. Men när det gäller efteranalysen är bilden annorlunda:
– SFÖ: 85 % är negativt inställda eller neutrala
– Semantix: 52 % anser att den är ett problem

Och detta är uppenbarligen ett problem för Semantix, ett problem som man också kommer att ta itu med. Jesper och Steffen betonade att det är mycket viktigt för dem att ha ett system som översättarna är nöjda med. Samtidigt upprepade man att det för närvarande inte är aktuellt att gå ifrån systemet med efteranalys. Det blir alltså intressant för oss att se hur man kommer att agera.

Vi fick också höra att det i själva verket oftast är ganska små skillnader mellan ”föranalysen”, baserad på vanlig ”fuzzy”-analys av översättningsminnet (i jobb av den här typen finns alltid ett sådant) och efteranalysen. I genomsnitt var skillnaden vid översättningar danska till engelska 10 procent, och åt andra hållet 8 procent: användningen av MT påverkade alltså resultaten tämligen lite. Detta kan tyckas förvånande – men å andra sidan har det förekommit skillnader på uppåt 30 procent. Det kan bl.a. bero på att den process som Semantix använder inte visar någon MT-träff annat än om ingen minnesträff har ett ”fuzzy”-värde på minst 75 procent.

På en fråga om hur efteranalysen görs (för översättaren är förstås transparensen viktig) fick vi inte reda på detaljerna; det är Memsource som utför den med egna algoritmer. Men vi fick se samma bild som i vår tidigare artikel om det och Semantix säger sig inte ha något som helst intresse av hemlighetsmakeri när det gäller detta. Min förmodan är att Memsource tillämpar gängse standarder för det s.k. redigeringsavståndet och knappast har något intresse av att utarbeta egna system som skulle vara till särskild nackdel för översättaren. Se Fig. 1.

Vi fick också en snabbtitt på det nya ”XTRF-dashboard”, det gränssnitt för översättarnas jobbhantering som kommer att införas över hela linjen (se bilden). En viktig nyhet där är att om ett jobb är tillgängligt och man klickar på ”Claim” så får man det – man behöver alltså inte vänta på besked.

En viktig sak vid efterredigering, menade Steffen och Jesper, är att inte redigera i onödan, bara för att man själv tycker att det låter bättre. ”Goldplating” kallade de det, och vi fick många exempel på både det och på uppenbart nödvändiga redigeringar. Här rör vi oss på ett gungfly – gränsen mellan faktisk förbättring och tycke-och-smak-förändring kan många gånger vara svår att dra. Och uppdragsgivaren Semantix säger ju uttryckligen att slutresultatet ska vara lika bra som vilken ”mänsklig” översättning som helst; detta till skillnad från att man på många andra håll säger att efterredigeraren inte ska sträva efter stilistisk perfektion.

Vad gäller MT över huvud taget är jag själv mycket intresserad av det system som Memsource har utarbetat för att förhandsutvärdera kvaliteten hos MT-förslagen, både ett och ett när de dyker upp på skärmen och som genomsnitt efter en förhandsöversättning. Uppenbarligen skulle sådana utvärderingar kunna vara till stor nytta om de är tillförlitliga. Steffen och Jesper hade själv inga erfarenheter av detta, men Memsource har två seminarier om detta (gratis, men registrering krävs):

– AI-Powered Machine Translation Quality Estimation: The Feedback So Far, och

– How to Boost MT Post-Editing Efficiency with Machine Translation Quality Estimation.

Hur som helst lär vi få orsak att återkomma till ämnet.

SAMMA FÖRFATTARE +