Bij Nevero maken we audiovisuele projecten toegankelijk voor anderstaligen of mensen met een visuele of auditieve beperking.

Nevero

Audiogids voor de Begijnhofkerk in Sint-Truiden

Afgelopen zomer kregen we een aanvraag van het Begijnhof Buurtcomité in Sint-Truiden. Voor het project ‘Door andere Ogen’ wilden ze de eeuwenoude muurschilderingen in de Begijnhofkerk ook toegankelijk maken voor blinde en slechtziende bezoekers. Zo lieten ze in hout maquettes maken en voelbladen in dik papier, maar ze wilden nóg meer doen.

Daarop werkten we een project uit dat uit twee delen bestond. Allereerst zouden we gidsen en vrijwilligers een opleiding geven. Tijdens die opleiding leerden ze hoe ze rondleidingen toegankelijker konden maken voor blinde en slechtziende bezoekers door aanvullende beschrijvingen. De opleiding vond plaats op donderdag 5 september. Enkele dagen later maakte TVL een reportage over de tentoonstelling in de Begijnhofkerk (vanaf 1 minuut 24 seconden). Er is aandacht voor de maquettes en voelplaten én er is een fragmentje waarin een door ons opgeleide gids een muurschildering beschrijft voor een slechtziende vrouw.

Het tweede deel bestond uit een audiogids bij een selectie van achttien kunstwerken in de kerk. Bij het schrijven van de teksten heb ik veel aandacht besteed aan het beschrijven hoe alles eruitziet.

Op de foto: het interieur van de Begijnhofkerk met links achteraan het hoogaltaar met schilderij, rechts voor de kooromgang een muurschildering uit 1310 van Maria Magdalena met Vera-icoon, daar rechts voor een zestiende-eeuwse muurschildering op een pilaar en daartussenin een zijaltaar uit circa 1740. Al deze kunstwerken komen aan bod in de audiogids.

Nu laat ik voor ik aan zo’n opdracht begin klanten altijd weten dat ze niet alleen moeten denken aan ‘audiodescriptie voor blinden en slechtzienden’, omdat audiodescriptie voor veel meer mensen nuttig is. Ik was dan ook erg blij toen ik hoorde dat de teksten op verschillende manieren zullen gebruikt worden. Natuurlijk worden ze ingelezen en gemonteerd tot audiogids zodat de bezoeker bij elk werk een beknopte beschrijving krijgt met verdere uitleg. Maar ze worden ook verwerkt tot infogids voor de ontvangstmedewerkers en vrijwillige begeleiders van bezoekers zodat ook zij er volop gebruik van kunnen maken. En wie weet, worden ze nog op andere manieren ter beschikking gesteld aan de bezoekers.

Erg fijn dus dat ze dat advies hier zo goed opgevolgd hebben!

gepubliceerd op 4 oktober 2019

 

Ondertitelen van licht medische video’s voor een congres

Eind mei werden we benaderd door een arts uit een ziekenhuis in België*. Een collega van hem zou in juni op een congres in het buitenland spreken over een behandelmethode die het ziekenhuis had ontwikkeld. Als onderdeel van zijn presentatie had hij enkele video’s gemaakt die hij graag wilde laten zien, mét Engelse ondertitels, uiteraard.

In eerste instantie was onze opdracht enkel om de video’s te ondertitelen in het Engels, maar nog voordat we daaraan begonnen, had mijn technische collega al enkele suggesties. Zo stond het geluid in de oorspronkelijke video’s nogal zacht en was het begin en het eind van elke video nogal abrupt. Zou het niet beter zijn om het geluid wat op te trekken en een korte intro en outro toe te voegen? De klant kon zich daar wel in vinden en besloot meteen dat we de losse video’s evengoed aan elkaar konden plakken zodat alles netjes in hetzelfde bestand zou staan. De ondertitels zouden vervolgens in de video gebrand worden, waardoor hij een kant-en-klaar eindproduct zou krijgen.

Werkwijze

Toen we dat allemaal hadden besproken, was het tijd om aan de vertalingen te beginnen. In tegenstelling tot wat veel mensen denken, is het niet zo dat wij eerst een transcriptie maken van de Nederlandse dialogen en die dan in het Engels vertalen en in ondertitelblokjes gieten. 

Als ondertitelaar werk je op gehoor bij het maken van de vertaling. Onze manier van vertalen houdt ook in dat de vertaling vanaf het begin wordt ingedeeld in ondertitels (d.w.z. één of hooguit twee korte regels per tekstblokje). Daarnaast verzorgen wij de timing of spotting van de ondertitels, waarbij we bepalen wanneer elke ondertitel precies in beeld komt en wanneer de ondertitel weer verdwijnt. Hierbij houden we rekening met de beschikbare tijd (m.a.w. hoe korter een blokje in beeld blijft, hoe minder tekst we gebruiken).

De toonbank van een ouderwetse apotheek met op de achtergrond een rek vol potjes

Uiteraard werd de vertaling gemaakt door een ervaren ondertitelaar, die een native speaker is van het Engels. Toen de vertaling klaar was, volgde een grondige controle van de vertaling door een tweede vertaler (eindredactie). Hierbij letten we op eventuele afluisterfoutjes en controleerden we ook het Engels op spelling en grammatica. Tot slot stuurden we de vertalingen door ter goedkeuring voor we de ondertitels in de video lieten branden.

Natuurlijk kreeg de klant de nodige tips en richtlijnen voor het nalezen van de ondertitels zodat hij wist waar hij op moest letten. Nadat we in overleg met de vertaler de laatste puntjes op de i hadden gezet, konden de ondertitels aan de video worden toegevoegd en kon de collega van de arts met een gerust hart naar z’n congres vertrekken.

*Vanwege de vertrouwelijkheid van het materiaal geef ik verder geen informatie over het ziekenhuis en de behandelmethode.

gepubliceerd op 13 augustus 2019

Commentaarvertalen – deel 2

‘Commentaarvertalen’ is een vorm van audiovisuele vertaling waarbij je de tekst van een ‘onzichtbare’ verteller vertaalt. In het tweede deel van deze reeks ga ik wat dieper in op het vertaalwerk zelf.

In het eerste deel van deze reeks beschreef ik de verschillen tussen commentaarvertalen en ondertitelen en schetste ik hoe de workflow eruitziet. Daarmee beantwoordde ik meteen een vraag die ik soms krijg, namelijk waarom ik zelf niet te horen ben in de programma’s die ik vertaal of de programma’s die ik audiobeschrijf. Daar heb ik al eens een blogartikel over geschreven. Het komt erop neer dat vertalen/schrijven en inlezen twee verschillende taken zijn die door twee verschillende mensen worden gedaan.

 

Commentaarvertalen, hoe begin je eraan?

De slechtste manier om de tekst van een commentaarstem te vertalen (vind ik, tenminste) is door ‘gewoon’ het script te vertalen in Word. Zoals ik in het vorige artikel uit deze reeks al schreef, is een commentaarvertaling een ‘luistertekst’. De kijker krijgt de vertaling alleen te horen, dus alles moet meteen duidelijk zijn. Bovendien schrijf je een tekst die goed in het oor moet liggen.

Als je je puur op een Word-bestand concentreert, is het moeilijk om meteen een vlot hoorbare tekst te krijgen, zelfs als de oorspronkelijke tekst wel goed klinkt. Om die reden schrijf ik commentaarteksten in mijn ondertitelsoftware. Het voordeel daarvan is dat ik de video altijd naast mijn tekst heb staan. Ik kan dus elke keer precies beluisteren hóe de oorspronkelijke stem een zin uitspreekt of waar hij/zij het accent legt. Wat overigens niet wil zeggen dat ik dat klakkeloos overneem, want…

bij het vertalen van commentaarteksten mag/moet je veel afstand nemen van de oorspronkelijke tekst. Vooral bij natuurdocumentaires gebeurt het dat ik er uiteindelijk een heel andere tekst van maak. Uiteraard doe ik dat alleen als de klant daarom vraagt – maar dat is eigenlijk altijd het geval. De VRT heeft bijvoorbeeld een leidraad waarin aan de hand van voorbeelden wordt uitgelegd hoe vrij je mag vertalen, en dat is héél vrij.

De Nederlandse commentaarvertaling van Tatra Mountains aflevering 2 (Life on the Edge) in mijn ondertitelsoftware. De tekst in het gele balkje is een opmerking voor mezelf die ik later ook heb doorgestuurd naar de klant. In het Engels eindigde de intro nl. met een korte mededeling, maar in het Nederlands heb ik daar, net zoals in aflevering 1 een centrale vraag van gemaakt (die vervolgens wordt beantwoord in de rest van de documentaire).

Een voorbeeld

Tijdens mijn gastcollege over commentaarvertalen laat ik de studenten altijd een stukje uit een Franse natuurdocumentaire zien. De oorspronkelijke voice-over is behoorlijk hoogdravend en vertelt bijvoorbeeld over mezen die “très douées pour l’architecture” zijn. Die ‘douées’ is lastig te vertalen en de Van Dale helpt niet echt. Je kunt in het Nederlands zeggen dat iemand een talenknobbel heeft (“Il est doué pour les langues” is het voorbeeld uit het woordenboek), maar een vogel? En wat maak je er dan van, een architectuurknobbel? Dat klinkt vrij belachelijk…

In dit geval bracht de naam van de vogelsoort al uitkomst. De ‘rémiz penduline’ heet namelijk gewoon ‘buidelmees’ in het Nederlands. En ze heten zo omdat ze een buidelvormig nest bouwen. Dus in plaats van een vogel met architecturaal inzicht krijgt de Nederlandstalige kijker wat uitleg over de naam van het beestje terwijl hij kijkt naar beelden van buidelmezen die druk in de weer zijn met hun nest.

Dit is maar een voorbeeld van hoe ik door net iets andere informatie te geven mijn vertaling aanpas aan het doelpubliek. Maar er gebeuren nog veel meer ingrepen in de tekst én ook de keuze van de stem doet veel. Bij Franse docu’s gebeurt het vaak dat een drukke vrouwenstem wordt vervangen door een veel rustiger mannenstem. Daardoor verandert de sfeer van het programma meteen. Maar het heeft ook weer invloed op de vertaling, want zo’n ratelende Franse vrouw kan in een paar seconden heel veel informatie kwijt. Dat betekent dat ik soms flink moet samenvatten, en in dat opzicht is commentaarvertalen precies hetzelfde als ondertitelen.

gepubliceerd op 25 juli 2019

 

Commentaarvertalen – deel 1

‘Commentaarvertalen’ is een vorm van audiovisuele vertaling waarbij je de tekst van een ‘onzichtbare’ verteller vertaalt. Deze tekst wordt vervolgens opnieuw ingelezen in de studio en aan het programma toegevoegd, waarbij de oorspronkelijke stem (uiteraard) wordt weggehaald.

In tegenstelling tot ondertiteling komt commentaarvertalen nauwelijks aan bod in de vertaalopleiding. Om daar wat aan te doen, behandel ik het in een van de gastcolleges die ik geef. Meer daarover lees je in dit artikel op mijn Nederlandse blog.

Hoe gaat het vertalen van zo’n commentaarstem nu in z’n werk?

Veel commentaarvertalers beginnen als ondertitelaar en krijgen na verloop van tijd de vraag of ze een programma willen vertalen waar ook een commentaarstem in zit. Zelf ben ik ook zo begonnen. Eigenlijk is het ook logisch, want het vertaalwerk wordt altijd door een en dezelfde persoon gedaan. Het is dus niet zo dat één iemand de interviews ondertitelt en dat iemand anders de voice-over vertaalt. Op die manier blijven beide vertalingen ook consequent. Je weet namelijk welke termen je op welke manier vertaald hebt in het commentaar, dus dan neem je die vertaling over in de ondertitels.

 

Beginbeeld uit de serie HAN. Een kudde przewalskipaarden in een veld met in gele letters onze credits: Stem: Peter Cremers en Vertaling: Susanne Verberk.

De allereerste keer dat ik een commentaarvertaling deed, was mijn eerste gedachte dat het veel makkelijker zou zijn dan ondertiteling, waarbij je moet priegelen om je vertaling in hooguit twee korte regeltjes te krijgen.

Aan de ene kant klopt dat, want in een commentaartekst heb je soms blokken van 10 seconden of meer waarin je lekker door kunt schrijven zonder te moeten zoeken naar een synoniem dat net één letter korter is ‘zodat het past’. Aan de andere kant zijn veel technische beperkingen nog steeds van toepassing. Zo mag de tekst in de meeste gevallen niet langer worden dan het origineel omdat het commentaar moet passen tussen de dialogen in beeld. Daarvan blijft het oorspronkelijke geluid behouden, dus de commentaarstem moet uitgepraat zijn vóór er iemand in beeld begint te praten.

Alleen als een programma uit enkel commentaar bestaat, zou je hier en daar meer kunnen vertellen dan in de oorspronkelijke versie. Maar net zoals bij ondertiteling moet het commentaar passen bij de beelden die de kijker te zien krijgt. Het is vreemd als een commentaarstem bezig is over leeuwen die hun prooi besluipen terwijl ze in beeld die prooi al lang gevangen hebben…

Commentaarvertalen vs. ondertitelen

Wat commentaarvertalen moeilijker maakt dan ondertitelen is dat de kijker de tekst alleen te horen krijgt. Alles moet dus meteen duidelijk zijn. Bovendien schrijf je een tekst die goed in het oor moet liggen. Dat is iets wat wel wat training vergt, want in vertaalopleidingen wordt vrijwel uitsluitend met geschreven teksten gewerkt. Dat schrijven van ‘luisterteksten’ komt natuurlijk ook terug in audiodescriptie.

 

Tot slot ziet de workflow er iets anders uit dan bij vertalend ondertitelen. Als je ondertitelt, gaat je vertaling (als het goed is) nog eens naar een eindredacteur vóór de uitzending. Daarbij beoordeelt een tweede ondertitelaar of je werk aan alle technische afspraken en instellingen voldoet en of de vertaling klopt. Eventueel is er daarna een kort overleg (meestal per mail) en worden de ondertitels klaargezet voor uitzending.

Een commentaarvertaling wordt door twee of drie mensen nagelezen voor opname. In de eerste plaats is er, net zoals bij ondertiteling, een eindredacteur die de vertaling beoordeelt. Daarna gaat de tekst naar de stemregisseur, die tijdens de opnames de regie doet, en die de tekst ook grondig doorneemt. Vaak vullen eindredacteur en stemregisseur elkaars feedback aan voor de tekst teruggaat naar de vertaler voor een laatste check. Pas daarna gaat de tekst naar degene die het commentaar inleest in de studio, en ook hij/zij kan soms nog wat aanpassingen/vragen of suggesties hebben. Het lijkt misschien wat omslachtig, maar in de praktijk werkt het heel goed!

In het tweede deel uit deze reeks over commentaarvertalen ga ik wat dieper in op het vertaalwerk zelf. Een van de grootste uitdagingen bij deze vorm van vertaling is namelijk dat je soms heel veel afstand moet/mag nemen van de tekst.

gepubliceerd op 3 juli 2019

 

Zomerreeks HAN – Humans, Animals, Nature

Sinds 1 juni kun je elke zaterdagavond op één kijken naar de achtdelige documentairereeks HAN – Humans, Animals, Nature. De vertalingen zijn van mijn hand, en dat zijn er heel wat.

Naast de ondertitels bij de Franse dialogen, heb ik ook de teksten van de commentaarstem geschreven én de tussentekstjes die in beeld verschijnen. Het Nederlandse commentaar wordt ingelezen door Peter Cremers, en ik heb ook de regie tijdens de opnamesessies mogen doen.

Aangezien het om acht afleveringen in totaal gaat, nemen we elke week bij twee afleveringen het commentaar op. De commentaarstem neemt alleen de tekst van de (oorspronkelijk Franse) voice-over voor z’n rekening. Als er mensen in beeld praten, krijgt de kijker de vertaling in ondertitelvorm te zien. Als ik niet aan het regisseren ben bij de VRT, ben ik onder andere bezig met het ondertitelen van de interviews uit de reeks.

Commentaar vertalen vs. ondertitelen

Waar je als vertaler van commentaarteksten de originele stem volledig mag en moet wegdenken, moet je bij het vertalen van de ondertitels veel dichter bij het origineel blijven. Bovendien moet je zorgen dat je vertaling in kleine blokjes past van hooguit twee regels die ook nog eens aan allerlei technische vereisten moeten voldoen. Ondanks dat (of misschien juist daardoor) probeer ik toch altijd elk personage z’n eigen stem mee te geven in de ondertitels.

In deze reeks zijn vooral dierenarts Goulven en ranger Anthony veel aan het woord. Waar Goulven meestal heel nuchter en zakelijk beschrijft wat z’n werk precies inhoudt en wat hij zoal doet, legt Anthony veel meer emotie in z’n woorden. Vooral als hij tegen en over de dieren praat die hij verzorgt, is het voor mij als vertaler altijd een plezier als het lukt om die liefde mee te geven. Zo zegt hij over een wolvin die net in het park is aangekomen dat ze toch zo mooi is en als hij een grommende veelvraat probeert te vangen, vertelt hij haar hij heel geduldig dat het voor haar eigen bestwil is.

Op de schermafbeelding uit mijn ondertitelsoftware staan Goulven en Anthony bij het quarantainehok van veelvraat Grahma. Goulven heeft net uitgelegd waarom ze haar moeten vangen (“Ik wilde het snel laten doen omdat ze hard achteruitging”) en meteen begint Anthony het beestje te kalmeren (“Grahma, Grahma toch…” “Waar zit je, meisje?”). Een mooi voorproefje uit de aflevering van zaterdag 8 juni.

Compenseren

Als je vertaalt, lukt het niet altijd om alle nuances van het origineel weer te geven in je tekst. Bij vertalend ondertitelen is het helemaal lastig omdat je dan ook nog rekening moet houden met een aantal technische beperkingen zoals het maximumaantal karakters dat je per regel kunt gebruiken. Maar soms lukt het wel om bijvoorbeeld een woordspeling ergens anders in je tekst te compenseren. Dat geluk had ik toen ik bezig was aan aflevering 4 van HAN.

In deze aflevering proberen de rangers een boze oeros weg te jagen van een vrouwtje dat ze net verdoofd hebben. Maar de stier wil niet wijken, zelfs niet als ranger Anthony op hem afstapt. Helemaal gefrustreerd roept hij: “Ah, putain, la vache!” Het is dus een uitroep van frustratie, maar het grappige is dat ‘vache’ ook koe betekent, al zal Anthony daar op dat moment niet bij stilgestaan hebben. Ik heb het dus gewoon vertaald als “Het is niet waar, hè”.

Toch bleef die koe door m’n hoofd spoken. Twee ondertitels later al zag ik m’n kans schoon, want dan zegt diezelfde Anthony: “On a affaire à un animal, quand on parle des Aurochs, qui a une puissance phénoménale.” Hij vertelt dus gewoon dat oerossen enorm sterk zijn ofwel… loeisterk in mijn vertaling.

De kijker zal het vast niet opmerken, maar ik was best tevreden met m’n vondst.

Schermafbeelding uit de software met beide ondertitels vlak onder elkaar

Op de schermafbeelding van m’n software zie je beide ondertitels met een andere ondertitel ertussen.

gepubliceerd op 6 juni 2019 – aangevuld op 18 juni 2019

Debat Technologie en/in de Taalsector in Brussel

Op zaterdag 18 mei vond in de Campus Brussel van de KU Leuven een debat plaats met als thema ‘Technologie en/in de Taalsector’. Ik was een van de panelleden.

Het debat werd voorafgegaan door een keynotespeech van Rudy Tirry van vertaalbureau Lionbridge. In een halfuur tijd vertelde Rudy over de recente uitdagingen van technologie in de taalsector en gaf hij een vooruitblik op wat ons in de toekomst zoal te wachten staat.

Wat ik interessant vond, was dat hij voorspelt dat je als vertaler twee kanten op kunt met het oog op de technologische ontwikkelingen die er nog aan zitten te komen. Ofwel ga je voluit voor technologie en word je een echte ‘techno-vertaler’, ofwel ga je voor het supercreatieve vertaalwerk en word je wat hij een ‘bio-vertaler’ noemt. Waar de techno-vertaler zich richt op grootschalige, hoogtechnologische vertaalprocessen en post-editing omarmt, is de bio-vertaler iemand die zich in een niche begeeft waar hij/zij aan kleinschalige projecten werkt voor klanten die hoge kwaliteitseisen stellen. Na afloop heb ik hem gevraagd waar ‘bio’ nu eigenlijk voor staat, maar hij moest me het antwoord schuldig blijven…

Na Rudy’s keynotespeech werd het debat met de andere panelleden geopend. Zelf vertelde ik over mijn ervaringen met technologie in audiovisuele vertaling en mediatoegankelijkheid. De andere panelleden waren Tim Van Hauwermeiren, die werkt als conferentietolk voor het Europees parlement, en Christophe Declercq, die docent is aan de KU Leuven Campus Brussel. Aan de hand van enkele (soms boude) stellingen die Christophe ons voorlegde, kwam het debat al gauw op gang. Ook het publiek kreeg volop de kans om extra vragen te stellen, en dat gebeurde ook regelmatig.

 

Technologie en mediatoegankelijkheid

De eerste vraag die ik kreeg, ging meteen over technologie en mediatoegankelijkheid. Bij mediatoegankelijkheid is het je taak om audiovisueel materiaal toegankelijk te maken voor zo veel mogelijk mensen. Denk maar aan ondertiteling voor doven en slechthorenden, waarbij we niet alleen weergeven wat er gezegd wordt, maar ook hoe en door wie. Een ander voorbeeld is audiodescriptie, een techniek waarbij een extra vertelstem wordt toegevoegd aan een film of tv-programma zodat iemand die blind of slechtziend is alles goed kan volgen. Hier heeft technologie een belangrijke rol gespeeld om ons werk bij de gebruikers te krijgen.

Ik vertelde dat, toen ik me tien jaar geleden volop met audiodescriptie ging bezighouden, het erg moeilijk bleek te zijn om het aanvullende commentaar bij het doelpubliek te krijgen. In Nederland waren er welgeteld vier bioscopen die de nodige apparatuur hadden om audiobeschreven voorstellingen te organiseren. In België was er geen enkele, dus als daar een film met audiodescriptie vertoond werd, moest de apparatuur uit Nederland komen…

Sinds 2015 is er een app (de Earcatch-app) waarmee je als blinde of slechtziende heel eenvoudig een film of tv-serie kunt volgen, thuis of in de bioscoop. Voor de film/serie begint, download je de audiodescriptie in de app en dan wordt het extra commentaar automatisch afgespeeld.

Intussen wordt er ook gewerkt aan een vergelijkbare app voor ondertiteling en audiodescriptie bij live-voorstellingen. In het publiek bleek overigens een enthousiaste Earcatch-gebruiker te zitten, die nog maar eens benadrukte hoe belangrijk dergelijke apps voor haar als slechtziende zijn.

 

Het panel in volle actie tijdens het debat

De impact van technologie op het werk van de audiovisueel vertaler

Wat later in het debat kwam er een vraag uit het publiek over live-ondertiteling. Een mooi voorbeeld van hoe technologie wordt ingezet bij het werk zelf. Ik vertelde dat live-ondertiteling in het Nederlandse taalgebied vaak gebeurt door middel van spraakherkenning of respeaking. Daarbij herhaalt de ondertitelaar dat de sprekers zeggen waarbij hij/zij tegelijkertijd samenvat en indien nodig de tekst wat stroomlijnt. Vervolgens worden deze teksten in ondertitelvorm uitgezonden. Het hele proces duurt slechts enkele seconden, zodat het een supersnelle manier is om ondertitels aan te maken en uit te zenden. Zelf werk ik niet met spraakherkenning, maar in mijn team zit een ondertitelaar die spraakherkenningssoftware ook gebruikt voor niet-live werk. Daarnaast heb ik een tijdje samengewerkt met iemand die met een Veyboard  ondertitelde.

Tim Van Hauwermeiren, de tolk in het panel, voegde daaraan toe dat hij ook al experimenten met spraakherkenning / live-ondertiteling had bijgewoond en dat hem was opgevallen dat de interpunctie dan vaak ontbrak. Dat komt doordat de ondertitelaar niet alleen de tekst moet respeaken, maar terwijl hij/zij dat doet ook de interpunctie toevoegt. Dat is iets waar je in het begin voortdurend aan moet denken, maar wat daarna een automatisme wordt. Zozeer zelfs, dat een respeaker die ik ken ooit bekende dat ze na een lange werkdag de telefoon opnam met ‘hallo vraagteken’.

We mogen ook niet vergeten dat we als Nederlandstaligen nog heel veel geluk hebben dat er spraakherkenningssoftware bestaat voor onze taal. Voor ‘kleinere’ talen is dat vaak niet het geval en dan is snel typen het enige alternatief. Die opmerking bracht ons bij Afrikaanse talen, waarvoor automatische vertaling nog in de kinderschoenen staat.

 

Lang leve de technologie voor de audiovisueel vertaler?

Waar technologie naar mijn mening geen toegevoegde waarde heeft, is in het vertaalproces zelf. Ik vertaal veel commentaarteksten bij documentaires voor de VRT en daarbij is de opdracht expliciet om heel vrij te vertalen. In feite zou je het zelfs herschrijven kunnen noemen: wollige zinnen schrappen, grondig samenvatten, nieuwe informatie toevoegen… Het kan en moet zelfs allemaal om tot een tekst te komen die vlot leest en aangepast is aan het doelpubliek. CAT-tools en machinevertaling zijn nutteloos bij dat soort vertaalwerk.

Ook bij het ‘gewone’ ondertitelwerk zijn CAT-tools e.d. niet echt nuttig. Tijdens het debat gaf ik als voorbeeld het SUMAT-project, een groot onderzoek dat de EU een aantal jaar geleden gesubsidieerd heeft. Het uitgangspunt was dat ondertiteling bij uitstek geschikt zou zijn voor machinevertaling omdat het toch om korte zinnetjes gaat. Toen ik dat zei, klonk er gelach op uit de zaal. En inderdaad, het resultaat van die automatisch vertaalde ondertitels was erg pover.

Zelfs als de vertaalsoftware rekening houdt met de technische beperkingen die typisch zijn voor ondertiteling, dan nog gaat het vaak mis. Met die technische beperkingen bedoel ik het maximumaantal karakters dat er op een ondertitelregel past (meestal rond de 40 karakters inclusief spaties) en de leessnelheid. De leessnelheid is de verhouding tussen de tijd dat de ondertitel in beeld blijft staan en de hoeveelheid tekst in die ondertitel. Hoe korter de ondertitel in beeld staat, hoe minder tekst erin mag staan, anders krijgen de kijkers het niet op tijd gelezen.

Met deze twee parameters wordt tot op zekere hoogte rekening gehouden, maar het allerbelangrijkste is de context. En die context zit hem in ondertiteling vaak in het beeld én de manier waarop iets gezegd wordt.

 

Een donkerblauw notitieboek met het logo van de KU Leuven en een bijpassende pen

Na afloop van het debat kregen we een totaal niet-technologisch cadeau als bedankje

Machinevertaling in ondertiteling

Een klein voorbeeld. Een zinnetje zoals ‘Are you all right?’ kun je op veel verschillende manieren vertalen. Maar als het gezegd wordt door een soldaat in een oorlogsfilm die rakelings een kogel heeft weten te ontduiken en z’n strijdmakker kreunend naast zich ziet liggen dan is ‘alles kits?’ geen geschikte vertaling, ook al is het lekker kort… Een mens weet dat, een computer niet.

Op de receptie achteraf vertelde Rudy Thirry mij dat de huidige machinevertalingen daar heel waarschijnlijk wel rekening mee zullen houden omdat die contextgevoelig vertalen. In dit geval zou de software uit de voorafgaande ondertitels moeten kunnen afleiden dat het om een oorlogsfilm gaat, bijvoorbeeld doordat er wapens en munitie vermeld worden of doordat woorden als ‘soldaat’, ‘militair’ en ‘leger’ voorkomen in de film. Daardoor zal er eerder een passende vertaling voorgesteld worden als ‘Ben je ongedeerd?’ en niet ‘Alles kits?’. In die zin gaat de techniek dus heel snel vooruit.

Een laatste reden waarom ik niet geloof in het gebruik van machinevertaling bij ondertiteling is dat het alleen werkt als je een uitgeschreven brontekst hebt, maar veel ondertitelwerk gebeurt op gehoor.

 

Worden we allemaal vervangen door robots?

Het zal duidelijk zijn dat ik niet geloof dat vertalers snel vervangen zullen worden door robots, maar er zijn natuurlijk wel ontwikkelingen waardoor een deel van het werk geautomatiseerd zal worden. Ook wie zich bezighoudt met mediatoegankelijkheid ontsnapt daar niet aan.

Zo is er de automatische ondertiteling van YouTube, die weliswaar lang niet perfect is, maar soms kan helpen om je een idee te vormen van waar een video over gaat. Er wordt ook gewerkt aan apps die beelden kunnen herkennen en beschrijven, maar voorlopig leveren die nog geen al te beste resultaten op met bewegende beelden. En naast audiodescripties die worden opgenomen in een gespecialiseerde studio met professionele inlezers, wordt er volop geëxperimenteerd met synthetische stemmen, die soms niet van menselijke stemmen te onderscheiden zijn.

Tot slot hebben we het in het debat even gehad over crowdsourcing als mogelijke concurrentie voor de professionele markt naast machinevertaling, maar we waren het er vrij snel over eens dat dat wel meevalt. Veel vertaalwerk dat gecrowdsourcet wordt zou sowieso nooit bij een professionele vertaler belanden en veel crowdsourcers stoppen ook al heel gauw (vaak al na één opdracht, zo blijkt uit onderzoek). Als voorbeeld van crowdsourcing in mediatoegankelijkheid haalde ik Scribit aan, waarbij vrijwilligers YouTube-video’s beschrijven.

Kortom: in twintig jaar tijd is mijn werkomgeving grondig veranderd door technologie en de komende twintig jaar zal dat ongetwijfeld opnieuw gebeuren. Ik ben benieuwd wat de toekomst ons brengt!

gepubliceerd op 24 mei 2019

 

Het vertalen van rushes

De maand maart 2019 eindigde voor ons met een groot ondertitelproject waarbij we ‘rushes’ vertaalden. Rushes zijn ruwe filmopnames die nog verder verwerkt moeten worden. In dit geval ging het om opnames van interviews, waarbij de geïnterviewden bijvoorbeeld verschillende keren op dezelfde vraag antwoordden of dezelfde mededeling op verschillende manieren onder woorden brachten. Vervolgens worden uit die opnames de beste stukjes geselecteerd en in een nieuwe montage geplaatst.

De reden dat ons gevraagd werd om de rushes van de interviews te ondertitelen, was dat de persoon die de uiteindelijke selectie maakt, de taal van de geïnterviewden niet machtig is. Hij kan dus niet enkel aan de hand van de videobeelden beoordelen welke stukjes interessant zijn en wat weggelaten kan worden. Het kan dus best dat uit de anderhalf uur die wij vertaald hebben slechts twintig minuten behouden blijven.

Je zou misschien denken dat het saai is om verschillende keren dezelfde boodschap te ondertitelen, maar ik vind het juist interessant om te zien hoe de meeste mensen in het begin wat onwennig reageren en naarmate het interview verder gaat, ineens de camera lijken te vergeten en vol passie vertellen over wat hen bezighoudt.

Een vrouw wordt gefilmd terwijl ze een interview geeft.

Een vrouw wordt gefilmd terwijl ze een interview geeft.

Het komt trouwens niet zo vaak voor dat we rushes ondertitelen. Meestal krijgen we de afgewerkte montage en als we al op een voorlopige versie werken, dan gaat het om relatief kleine aanpassingen achteraf zoals kleureffecten in een bioscoopfilm of logo’s die worden toegevoegd in een bedrijfsfilm. Over het werken met voorlopig materiaal en de gevolgen daarvan voor de audiovisueel vertaler lees je meer in dit blogbericht: https://www.nevero.be/werken-met-voorlopig-materiaal/.

Juist doordat het zo weinig gebeurt, is het leuk om eens een stapje vroeger in het productieproces betrokken te zijn!

gepubliceerd op 5 april 2019

Voor de tweede keer live-audiodescriptie bij 40-45

Op zondag 24/02 was ik (Susanne) voor de tweede keer de vertelstem voor 200 blinde en slechtziende musicalliefhebbers en begeleiders tijdens de spektakelmusical 40-45. Ook deze keer was onze tribune volledig uitverkocht.

Hoewel het ‘live-audiobeschrijving’ heet, is het niet zo dat ik zomaar wat zit te improviseren. Al enkele weken voor de eerste audiobeschreven voorstelling op 2 december 2018, ging ik samen met een collega de musical voor een eerste keer bekijken en kreeg ik het scenario en enkele video- en geluidsopnames om mij zo goed mogelijk voor te bereiden. Zo schreef ik een volledig uitgewerkt script met daarin de teksten van de acteurs, de liedteksten én alle info over wat er op en rond het podium te zien was. Daartussen kwamen dan mijn aanvullende beschrijvingen van visuele informatie die je nodig hebt om als blinde/slechtziende toeschouwer alles te kunnen volgen.

Een still uit de musical, waarbij de actie op het podium vanuit vier hoeken gefilmd wordt

Een still uit de musical, vanuit de vier gezichtspunten zoals in de regiekamer.

Oefenen maar!

Aangezien er ruim twee maanden tussen de eerste audiobeschreven voorstelling en de tweede zat, moest het script opnieuw gecheckt en ingeoefend worden met enkele recente opnames én organiseerden we een nieuwe ‘dry run’. Daarbij doen we de volledige audiodescriptie zonder publiek. Vooral de timing is hierbij belangrijk. Bovendien zijn er intussen verschillende castwissels geweest en ook daar moeten wij rekening mee houden. Elke acteur legt immers andere accenten in de teksten. Net als tijdens de echte voorstelling krijgen wij bij de ‘dry run’ de beelden te zien op een scherm dat in vier stukken is verdeeld zodat wij de acties op het speelvlak vanuit verschillende standpunten kunnen volgen.

 

Spektakel verzekerd

Nu is 40-45 niet voor niets een spektakelmusical en dat moest ook blijken uit de audiodescriptie (AD). Een hele uitdaging zijn de rijdende tribunes. Anders dan bij veel andere musicals, zit je bij 40-45 als toeschouwer niet altijd op een afstandje naar de acties op een podium te kijken. Doordat de tribunes rijden, verandert je gezichtspunt voortdurend, en natuurlijk moet de audiobeschrijver daar rekening mee houden. Bovendien staan de tribunes soms zo opgesteld dat je als toeschouwer letterlijk deel uitmaakt van de actie.

En net als bij andere live-evenementen, worden ook de andere zintuigen niet vergeten in de beschrijvingen. Ik wil niet te veel verklappen voor de mensen die nog naar 40-45 gaan, dus verwijs ik naar twee andere evenement waarvoor we al verschillende keren de live-audiodescriptie hebben verzorgd. Om te beginnen de Gouden Boomstoet in Brugge: https://www.nevero.be/live-audiodescriptie-tijdens-de-gouden-boomstoet/. Tijdens die stoet komt er op een gegeven moment een vuurspuwende draak voorbij, en de geur van de rook is iets wat we op de een of andere manier moeten verduidelijken in de beschrijvingen. En tijdens het Buitenbeenpop-festival gaan er regelmatig confettikanonnen af: https://www.nevero.be/live-audiodescriptie-op-buitenbeenpop/. Ook die info geven we mee in de audiodescriptie zodat de mensen weten waarom ze ineens allerlei slingers over zich heen krijgen…

 

Enthousiaste fans + extra voorstelling

Ook deze keer kregen we na afloop mooie feedback van een enthousiaste AD-gebruiker:

Ik ben vandaag geweest. Zelfs met een kleine technische onderbreking ving Susanne Verberk dit heel goed en rustig op. Alles wat er gebeurde tijdens de onderbreking liet ze ons weten. En zodra het verhaal verder ging, nam ze de draad schitterend op alsof er nooit een onderbreking geweest is. Ook door trager, sneller praten, intonatie, klank, stemgeluid liet ze ons de emotie voelen die al aanwezig was door de sfeer, muziek, geluiden of momentopname tijdens een scène. (…) Dank aan Studio 100, Lesley, Susanne, VeBeS en alle vrijwilligers die hieraan mee hebben gewerkt en zich hebben ingezet om dit mogelijk te maken.

Op 26 mei komt er een volgende voorstelling met audiodescriptie, maar ook deze tribune is al volledig uitverkocht…

 

gepubliceerd op 6 maart 2019

Dertigers met audiodescriptie

Op maandag 7 januari ging de nieuwe Vlaamse fictiereeks Dertigers van start op Eén. Zes weken lang kun je van maandag tot en met donderdag kijken naar het lief en leed van zes vrienden. Wij schreven mee aan de audiodescriptie bij de reeks.

Wat Dertigers zo bijzonder maakt, is dat de VRT ervoor gekozen heeft om alle 24 afleveringen meteen integraal beschikbaar te maken op VRT NU en op het YouTube-kanaal van Eén. Bovendien is de reeks voorzien van audiodescriptie, zodat ook wie blind of slechtziend is niks hoeft te missen. Om de serie nóg toegankelijker te maken, is er een online audiogids waarin je meer te weten komt over de personages, hun woningen, de rolverdeling én het verhaal op zich.

De videoclip bij What A Beautiful Day van de Levellers, de openingstune van de serie

Al na de eerste afleveringen bleek dat de reeks boven verwachtingen scoorde, met uitschieters tot bijna 750.000 kijkers. Het duurde dan ook niet lang voordat de VRT een tweede seizoen bestelde. Het spreekt voor zich dat ze voor de audiobeschrijvingen weer bij ons terechtkunnen.

Ook de audiodescriptie bleek heel erg in de smaak te vallen, niet alleen bij de doelgroep, maar ook bij Wim De Smet, de scenarist en regisseur van de serie, die ons via Twitter het volgende compliment stuurde: “En top gedaan de audiodescriptie. Petje af!”

Alleen merkten we wel dat het werken aan zo’n tv-serie z’n sporen begint na te laten… Zelf heb ik (Susanne) in de periode dat we aan Dertigers werkten een klant Pieter genoemd (naar het personage uit de serie) en Vera’s katten heetten in november en december ineens Hugo en Laura in plaats van Ludo en Lola. Inderdaad, toen waren we met Klem bezig.

gepubliceerd op 11 februari 2019

Spektakelmusical 40-45 met live-audiodescriptie

Op 7 oktober ging de langverwachte musical 40-45 in première. Na het succes van Daens en 14-18 gaat Studio 100 met deze productie nog een stapje verder. Zo is er een uniek concept uitgewerkt met rijdende tribunes en krijgt elke toeschouwer een hoofdtelefoon om de show nog intenser te kunnen ervaren. Bovendien bieden die hoofdtelefoons de mogelijkheid om audiodescriptie toe te voegen voor mensen die blind of slechtziend zijn.

Begin juli waren we een eerste keer te gast bij Studio 100 om het idee voor de audiobeschreven voorstellingen verder uit te werken en een aantal technische zaken te bespreken. VeBeS (de Vereniging van Blinden en Slechtzienden) was ook vanaf het begin betrokken bij het project en zorgt voor de verkoop van de kaarten.

Susanne in de foyer van het Pop-Up Theater in Puurs

Susanne vlak vóór de audiobeschreven voorstelling van 40-45

Op zondag 2 december was de eerste voorstelling van de spektakelmusical 40-45 met audiodescriptie. Zoals bij elk live-evenement zijn er altijd wel wat wijzigingen op het laatste moment, en hier bleek dat een aantal rollen door andere acteurs ingevuld zouden worden tijdens de eerste voorstelling van de dag. Vóór ik (Susanne) naar de zaal ging om onze groep welkom te heten, schreef ik nog gauw de aangepaste namen op voor m’n script (zie foto).

Daarna was het tijd om de regieruimte op te zoeken, waar ik een fijne werkplek had gekregen met een scherm waarop maar liefst vier camera’s het toneel filmden. Echt fijn om met zo’n superprofessioneel team samen te mogen werken!

Achteraf kregen we veel mooie complimentjes, ook van de technische crew die meegeluisterd had. Ook via social media kwamen er enthousiaste reacties van mensen die het spektakel gevolgd hadden, zoals dit bericht: “Waaaaaaaaw merci voor de voorstelling van 40-45 met audiodescriptie!!! (…) Mijn droom om deze musical volledig te beleven, is meer dan vervuld! Nog altijd onder de indruk.” Daar doen we het natuurlijk voor!

Voor herhaling vatbaar

In 2019 komen er nog meer audiobeschreven voorstellingen aan. Hoewel er 200 kaarten per voorstelling zijn, vliegen ze doorgaans binnen enkele dagen de deur uit. Om die reden willen we de plaatsen graag enkel toekennen aan blinde en slechtziende audiodescriptiegebruikers en hun begeleiders. Studenten en andere geïnteresseerden die meer willen leren over audiodescriptie vragen we vriendelijk om deze kaarten niet in te nemen.

Ben je blind of slechtziend en wil je graag een voorstelling van 40-45 bijwonen met audiodescriptie?
Geef ons dan een seintje.

gepubliceerd op 31 december 2018