Bij Nevero maken we audiovisuele projecten toegankelijk voor anderstaligen of mensen met een visuele of auditieve beperking.

Debat Technologie en/in de Taalsector in Brussel

Op zaterdag 18 mei vond in de Campus Brussel van de KU Leuven een debat plaats met als thema ‘Technologie en/in de Taalsector’. Ik was een van de panelleden.

Het debat werd voorafgegaan door een keynotespeech van Rudy Tirry van vertaalbureau Lionbridge. In een halfuur tijd vertelde Rudy over de recente uitdagingen van technologie in de taalsector en gaf hij een vooruitblik op wat ons in de toekomst zoal te wachten staat.

Wat ik interessant vond, was dat hij voorspelt dat je als vertaler twee kanten op kunt met het oog op de technologische ontwikkelingen die er nog aan zitten te komen. Ofwel ga je voluit voor technologie en word je een echte ‘techno-vertaler’, ofwel ga je voor het supercreatieve vertaalwerk en word je wat hij een ‘bio-vertaler’ noemt. Waar de techno-vertaler zich richt op grootschalige, hoogtechnologische vertaalprocessen en post-editing omarmt, is de bio-vertaler iemand die zich in een niche begeeft waar hij/zij aan kleinschalige projecten werkt voor klanten die hoge kwaliteitseisen stellen. Na afloop heb ik hem gevraagd waar ‘bio’ nu eigenlijk voor staat, maar hij moest me het antwoord schuldig blijven…

Na Rudy’s keynotespeech werd het debat met de andere panelleden geopend. Zelf vertelde ik over mijn ervaringen met technologie in audiovisuele vertaling en mediatoegankelijkheid. De andere panelleden waren Tim Van Hauwermeiren, die werkt als conferentietolk voor het Europees parlement, en Christophe Declercq, die docent is aan de KU Leuven Campus Brussel. Aan de hand van enkele (soms boude) stellingen die Christophe ons voorlegde, kwam het debat al gauw op gang. Ook het publiek kreeg volop de kans om extra vragen te stellen, en dat gebeurde ook regelmatig.

 

Technologie en mediatoegankelijkheid

De eerste vraag die ik kreeg, ging meteen over technologie en mediatoegankelijkheid. Bij mediatoegankelijkheid is het je taak om audiovisueel materiaal toegankelijk te maken voor zo veel mogelijk mensen. Denk maar aan ondertiteling voor doven en slechthorenden, waarbij we niet alleen weergeven wat er gezegd wordt, maar ook hoe en door wie. Een ander voorbeeld is audiodescriptie, een techniek waarbij een extra vertelstem wordt toegevoegd aan een film of tv-programma zodat iemand die blind of slechtziend is alles goed kan volgen. Hier heeft technologie een belangrijke rol gespeeld om ons werk bij de gebruikers te krijgen.

Ik vertelde dat, toen ik me tien jaar geleden volop met audiodescriptie ging bezighouden, het erg moeilijk bleek te zijn om het aanvullende commentaar bij het doelpubliek te krijgen. In Nederland waren er welgeteld vier bioscopen die de nodige apparatuur hadden om audiobeschreven voorstellingen te organiseren. In België was er geen enkele, dus als daar een film met audiodescriptie vertoond werd, moest de apparatuur uit Nederland komen…

Sinds 2015 is er een app (de Earcatch-app) waarmee je als blinde of slechtziende heel eenvoudig een film of tv-serie kunt volgen, thuis of in de bioscoop. Voor de film/serie begint, download je de audiodescriptie in de app en dan wordt het extra commentaar automatisch afgespeeld.

Intussen wordt er ook gewerkt aan een vergelijkbare app voor ondertiteling en audiodescriptie bij live-voorstellingen. In het publiek bleek overigens een enthousiaste Earcatch-gebruiker te zitten, die nog maar eens benadrukte hoe belangrijk dergelijke apps voor haar als slechtziende zijn.

 

Het panel in volle actie tijdens het debat

De impact van technologie op het werk van de audiovisueel vertaler

Wat later in het debat kwam er een vraag uit het publiek over live-ondertiteling. Een mooi voorbeeld van hoe technologie wordt ingezet bij het werk zelf. Ik vertelde dat live-ondertiteling in het Nederlandse taalgebied vaak gebeurt door middel van spraakherkenning of respeaking. Daarbij herhaalt de ondertitelaar dat de sprekers zeggen waarbij hij/zij tegelijkertijd samenvat en indien nodig de tekst wat stroomlijnt. Vervolgens worden deze teksten in ondertitelvorm uitgezonden. Het hele proces duurt slechts enkele seconden, zodat het een supersnelle manier is om ondertitels aan te maken en uit te zenden. Zelf werk ik niet met spraakherkenning, maar in mijn team zit een ondertitelaar die spraakherkenningssoftware ook gebruikt voor niet-live werk. Daarnaast heb ik een tijdje samengewerkt met iemand die met een Veyboard  ondertitelde.

Tim Van Hauwermeiren, de tolk in het panel, voegde daaraan toe dat hij ook al experimenten met spraakherkenning / live-ondertiteling had bijgewoond en dat hem was opgevallen dat de interpunctie dan vaak ontbrak. Dat komt doordat de ondertitelaar niet alleen de tekst moet respeaken, maar terwijl hij/zij dat doet ook de interpunctie toevoegt. Dat is iets waar je in het begin voortdurend aan moet denken, maar wat daarna een automatisme wordt. Zozeer zelfs, dat een respeaker die ik ken ooit bekende dat ze na een lange werkdag de telefoon opnam met ‘hallo vraagteken’.

We mogen ook niet vergeten dat we als Nederlandstaligen nog heel veel geluk hebben dat er spraakherkenningssoftware bestaat voor onze taal. Voor ‘kleinere’ talen is dat vaak niet het geval en dan is snel typen het enige alternatief. Die opmerking bracht ons bij Afrikaanse talen, waarvoor automatische vertaling nog in de kinderschoenen staat.

 

Lang leve de technologie voor de audiovisueel vertaler?

Waar technologie naar mijn mening geen toegevoegde waarde heeft, is in het vertaalproces zelf. Ik vertaal veel commentaarteksten bij documentaires voor de VRT en daarbij is de opdracht expliciet om heel vrij te vertalen. In feite zou je het zelfs herschrijven kunnen noemen: wollige zinnen schrappen, grondig samenvatten, nieuwe informatie toevoegen… Het kan en moet zelfs allemaal om tot een tekst te komen die vlot leest en aangepast is aan het doelpubliek. CAT-tools en machinevertaling zijn nutteloos bij dat soort vertaalwerk.

Ook bij het ‘gewone’ ondertitelwerk zijn CAT-tools e.d. niet echt nuttig. Tijdens het debat gaf ik als voorbeeld het SUMAT-project, een groot onderzoek dat de EU een aantal jaar geleden gesubsidieerd heeft. Het uitgangspunt was dat ondertiteling bij uitstek geschikt zou zijn voor machinevertaling omdat het toch om korte zinnetjes gaat. Toen ik dat zei, klonk er gelach op uit de zaal. En inderdaad, het resultaat van die automatisch vertaalde ondertitels was erg pover.

Zelfs als de vertaalsoftware rekening houdt met de technische beperkingen die typisch zijn voor ondertiteling, dan nog gaat het vaak mis. Met die technische beperkingen bedoel ik het maximumaantal karakters dat er op een ondertitelregel past (meestal rond de 40 karakters inclusief spaties) en de leessnelheid. De leessnelheid is de verhouding tussen de tijd dat de ondertitel in beeld blijft staan en de hoeveelheid tekst in die ondertitel. Hoe korter de ondertitel in beeld staat, hoe minder tekst erin mag staan, anders krijgen de kijkers het niet op tijd gelezen.

Met deze twee parameters wordt tot op zekere hoogte rekening gehouden, maar het allerbelangrijkste is de context. En die context zit hem in ondertiteling vaak in het beeld én de manier waarop iets gezegd wordt.

 

Een donkerblauw notitieboek met het logo van de KU Leuven en een bijpassende pen

Na afloop van het debat kregen we een totaal niet-technologisch cadeau als bedankje

Machinevertaling in ondertiteling

Een klein voorbeeld. Een zinnetje zoals ‘Are you all right?’ kun je op veel verschillende manieren vertalen. Maar als het gezegd wordt door een soldaat in een oorlogsfilm die rakelings een kogel heeft weten te ontduiken en z’n strijdmakker kreunend naast zich ziet liggen dan is ‘alles kits?’ geen geschikte vertaling, ook al is het lekker kort… Een mens weet dat, een computer niet.

Op de receptie achteraf vertelde Rudy Thirry mij dat de huidige machinevertalingen daar heel waarschijnlijk wel rekening mee zullen houden omdat die contextgevoelig vertalen. In dit geval zou de software uit de voorafgaande ondertitels moeten kunnen afleiden dat het om een oorlogsfilm gaat, bijvoorbeeld doordat er wapens en munitie vermeld worden of doordat woorden als ‘soldaat’, ‘militair’ en ‘leger’ voorkomen in de film. Daardoor zal er eerder een passende vertaling voorgesteld worden als ‘Ben je ongedeerd?’ en niet ‘Alles kits?’. In die zin gaat de techniek dus heel snel vooruit.

Een laatste reden waarom ik niet geloof in het gebruik van machinevertaling bij ondertiteling is dat het alleen werkt als je een uitgeschreven brontekst hebt, maar veel ondertitelwerk gebeurt op gehoor.

 

Worden we allemaal vervangen door robots?

Het zal duidelijk zijn dat ik niet geloof dat vertalers snel vervangen zullen worden door robots, maar er zijn natuurlijk wel ontwikkelingen waardoor een deel van het werk geautomatiseerd zal worden. Ook wie zich bezighoudt met mediatoegankelijkheid ontsnapt daar niet aan.

Zo is er de automatische ondertiteling van YouTube, die weliswaar lang niet perfect is, maar soms kan helpen om je een idee te vormen van waar een video over gaat. Er wordt ook gewerkt aan apps die beelden kunnen herkennen en beschrijven, maar voorlopig leveren die nog geen al te beste resultaten op met bewegende beelden. En naast audiodescripties die worden opgenomen in een gespecialiseerde studio met professionele inlezers, wordt er volop geëxperimenteerd met synthetische stemmen, die soms niet van menselijke stemmen te onderscheiden zijn.

Tot slot hebben we het in het debat even gehad over crowdsourcing als mogelijke concurrentie voor de professionele markt naast machinevertaling, maar we waren het er vrij snel over eens dat dat wel meevalt. Veel vertaalwerk dat gecrowdsourcet wordt zou sowieso nooit bij een professionele vertaler belanden en veel crowdsourcers stoppen ook al heel gauw (vaak al na één opdracht, zo blijkt uit onderzoek). Als voorbeeld van crowdsourcing in mediatoegankelijkheid haalde ik Scribit aan, waarbij vrijwilligers YouTube-video’s beschrijven.

Kortom: in twintig jaar tijd is mijn werkomgeving grondig veranderd door technologie en de komende twintig jaar zal dat ongetwijfeld opnieuw gebeuren. Ik ben benieuwd wat de toekomst ons brengt!

gepubliceerd op 24 mei 2019