Bij Nevero maken we audiovisuele projecten toegankelijk voor anderstaligen of mensen met een visuele of auditieve beperking.

Audiodescriptie

Stemregie en ander studiowerk

Een van de dingen die ik het meest gemist heb tijdens de lockdown was het werken in de opnamestudio. Dolblij was ik dan ook toen we in juni twee dagen opnames gingen maken in het AfricaMuseum in Tervuren.

Daarnaast hadden we verschillende opnames voor een toegankelijke audiogids, onder andere met acteur Yemi Oduwale. Na een vier uur durende inleessessie gaven we hem nog een paar tongbrekers als cooling-down.

Sinds eind augustus doe ik onder andere bij de VRT de stemregie voor een nieuwe documentairereeks, die later dit jaar wordt uitgezonden. Het fijne is dat het om een programma gaat dat ik ook zelf heb vertaald en ondertiteld. Eigenlijk zijn dat de projecten die ik het liefst doe. 😉

Tijdens de opnames voor die reeks verwerk ik na elke sessie de laatste kleine wijzigingen die we nog hebben gedaan in de scripts. Meestal gaat het dan om synoniemen die net iets beter klinken. Op die manier hebben de collega’s die de commentaarstem ondertitelen voor teletekst de allerlaatste versie van de tekst, wat hun werk makkelijker maakt. Die ondertitels (voor doven en slechthorenden) maak ik niet zelf, de vertalende ondertitels zijn wel van mijn hand.

De dag na de opnames krijg ik meestal ik definitieve video’s met het ingelezen Nederlandse commentaar. Die gebruik ik om mijn vertalende ondertitels na te kijken. Belangrijk is namelijk dat de commentaarstem en de ondertitels elkaar niet overlappen. Aangezien het Nederlandse commentaar soms net iets eerder of later komt dan de oorspronkelijke Franse stem, is dat iets wat ik altijd controleer voor ik de ondertitels lever. En intussen werk ik verder aan de commentaarvertalingen voor de volgende afleveringen. Hoe ik dat aanpak, lees je in mijn blogreeks over commentaarvertalingen, waarvan je hier deel 1 en deel 2 kunt lezen.

Tegen een achtergrond van een groen heuvellandschap hangen zwarte aapjes met witte mondmasters

Ook deze opgezette aapjes in het AfricaMuseum kregen een mondkapje op.

gepubliceerd op 21 september 2020

 

 

Toegankelijke video’s voor het Stay At Home Museum

Tijdens de lockdown moesten ook musea de deuren sluiten. Daarom organiseerde Toerisme Vlaanderen het Stay At Home Museum, waarbij je thuis achter je computer een gegidste rondleiding kon volgen. Het werk van Van Eyck, Bruegel, Rubens en Ensor werd besproken én er was een bezoek aan het Hof van Busleyden in Mechelen.

Het initiatief viel erg in de smaak! De BBC noemde het zelfs het ‘Beste Lockdown Entertainment’. Ook het Amerikaanse televisiekanaal CNN was enthousiast en nam een virtuele rondleiding op in een reportage.

Tijd dus om de rondleidingen ook toegankelijk te maken. Inter-events en Toegankelijk toerisme in Vlaanderen zorgden dat de video’s werden ondertiteld en getolkt in Vlaamse gebarentaal en International Sign voor dove en slechthorende kijkers. Voor wie blind of slechtziend is werden ze voorzien van Nederlandse én Engelse audiodescriptie en audio-ondertiteling. Voor die mondelinge beschrijvingen en vertalingen deden ze een beroep op ons!

Een van de video’s van het Stay At Home Museum met Nederlandstalige audiodescriptie en audio-ondertiteling. In deze video staan het huis en de werken van Peter Paul Rubens centraal. Curator en directeur Ben Van Beneden leidt de kijker rond en deelt zijn kennis over deze Vlaamse Meester.

Wat dit audiodescriptie-project extra bijzonder maakte, was dat we gekozen hebben voor ‘extended audiodescriptie’ of EAD. Bij zo’n ‘verlengde audiodescriptie’ pauzeren we de video af en toe zodat er meer tijd is om extra beschrijvingen toe te voegen.

Wie bij ons een opleiding heeft gevolgd, zal nu waarschijnlijk even de wenkbrauwen fronsen, omdat we er altijd op hameren dat de beschrijvingen precies moeten passen in de pauzes en rustige momenten van de video. Audiodescriptie mag ook zeker geen dialogen of belangrijke achtergrondgeluiden overlappen. Hoe zit het dan met die pauzes voor verlengde audiodescriptie?

Eigenlijk is het heel eenvoudig: na een eerste visie van de oorspronkelijke video’s bleek dat er erg weinig ruimte was om ‘gewone’ beschrijvingen toe te voegen. Dat zou jammer zijn aangezien het om vijf virtuele rondleidingen ging waarin bijzondere kunstwerken werden behandeld. Vandaar de keuze om, waar nodig, de video’s even te pauzeren zodat we op z’n minst die kunstwerken en de musea konden beschrijven. Toch was het niet de bedoeling dat de video’s veel langer zouden worden dan de oorspronkelijke video’s, dus we konden zeker niet ‘onbeperkt’ beschrijvingen toevoegen.

Tot slot hadden we het geluk dat EAD technisch mogelijk was bij deze video’s. Bij een film of tv-serie in de Earcatch-app is zoiets uitgesloten, want de audiobeschrijving loopt synchroon met de filmvoorstelling of tv-uitzending. Als je daar extra informatie zou toevoegen, begint de audiodescriptie al snel uit te lopen, wat niet de bedoeling is. Maar bij het Stay At Home Museum kon het wel – en zo hoefden blinde en slechtziende kunstliefhebbers niks te missen.

De Mona Lisa hangt vrij hoog aan een muur. Mensen staan rijen dik met hun telefoon of fotocamera boven hun hoofd om een foto te maken  van het beroemde schilderij.

Een grote groep mensen verdringt zich bij de Mona Lisa in het Louvre om een foto te kunnen nemen van het schilderij – iets waar bij het Stay At Home Museum geen sprake van was.

Meer info over het toegankelijke Stay At Home Museum vind je hier in het Nederlands  en hier in het Engels.

gepubliceerd op 9 juli 2020

De raphygraaf ontrafeld

In de zomer van 2019 nam de Erfgoedcel Brugge contact met ons op. Ze wilden een video laten maken over de raphygraaf die in het Spermalie-instituut bewaard werd. Een raphygraaf is een bijzondere schrijfmachine waarmee je teksten kon typen in reliëf. Door het reliëf af te tasten, konden ook mensen met een visuele beperking de teksten lezen.

De raphygraaf werd rond 1840 in Frankrijk uitgevonden. Om meer te weten te komen over het toestel werd Mireille Duhen van het Franse Musée Valentin Haüy uitgenodigd in Brugge. Mireille verzamelt oude hulpmiddelen die vroeger door blinden gebruikt werden. Ze heeft ook een raphygraaf in haar collectie, die ze in de video gebruikt om uit te leggen hoe het toestel werkt.

De vertaling, ondertiteling en audiodescriptie bij deze video zijn van onze hand. Maar Erfgoedcel Brugge klopte al vóór de opnames bij ons aan voor advies. Wat het raphygraaf-project voor mij zo speciaal maakt, is dat ik én de Franse dialogen in het Nederlands heb vertaald én de volledige audiodescriptie heb uitgeschreven. Mijn vertaling is dus gebruikt voor de ondertitels, maar ook voor de stem die over de uitleg van Mireille hoorbaar is. We wilden immers dat de video ook toegankelijk zou zijn voor wie blind of slechtziend is, dus moest de vertaling ook te beluisteren zijn.

Nadat de vertaling en ondertiteling klaar waren en de aanvullende beschrijvingen op papier waren gezet, kon alles ter goedkeuring naar de klant. Na een paar kleine aanpassingen gingen de teksten naar Studio Sonart, waar huisstem Dieter Vandepitte de beschrijvingen insprak en zorgde voor een vrouwelijke voice-over die de vertaling voor haar rekening nam.

Het eindresultaat is de video hierboven waarin je een beter beeld krijgt van dit bijzondere voorwerp.

gepubliceerd op 20 april 2020

Naar het theater met audiodescriptie via een app of tablet. Goed idee of…?

Op 5 maart kon je op Shownieuws een item bekijken over de musical Anastasia, die als allereerste theatervoorstelling audiodescriptie krijgt via de Earcatch-app.

Diezelfde week bleek dat ook Vlaanderen niet stilzit wat toegankelijkheid bij theatervoorstellingen betreft toen NTGent zijn theatertabletproject voorstelde. Met die tablet kunnen mensen die doof of slechthorend zijn theatervoorstellingen volgen in Vlaamse gebarentaal of met boventiteling. Wie blind of slechtziend is, kan de vooraf opgenomen audiodescriptie beluisteren.

Bij het project van NTGent zijn wij niet betrokken (zij werken samen met studenten voor de audiodescriptie), maar Earcatch doet wel een beroep op professionals. Aan hun theater-audiodescriptieproject hebben wij wel meegewerkt – maar niet aan Anastasia. Daarnaast verzorgen wij ook live-audiodescripties bij o.a. musicals, denk maar aan de Studio 100-musical 40-45.

De opvallende gevel van het Ohio Theatre met grote letters om optredens aan te kondigen en sfeervolle verlichting boven de ingang

De gevel van het Ohio Theatre uit 1928 
(een foto van David Mark via Pixabay)

Op Facebook liet ik al weten dat ik heel benieuwd ben hoe de ervaringen zullen zijn met de app en de tablet. Op de pagina van Earcatch kwamen al snel reacties van audiodescriptiegebruikers. Zo merkte iemand op dat theater live is en via de app kun je niet improviseren, dus hoe vang je kleine foutjes op van de acteurs of grotere technische problemen? Een live-beschrijver is natuurlijk ter plaatse en kan daarop inspelen.

Nog iemand merkte op dat je bij een live-beschrijving vooraf een inleiding krijgt die vaak gecombineerd wordt met een voeltour over het toneel en/of een korte kennismaking met de acteurs, zodat je als blinde/slechtziende al bekend bent met hun stemmen. Earcatch beloofde ook daar een oplossing voor te hebben. In een ander blogartikel heb ik al een tipje van die sluier opgelicht, trouwens.

Maar de belangrijkste vraag is hoe de gebruikers het zullen ervaren

Het blijft tenslotte een vooraf opgenomen audiodescriptie bij een live-evenement. Ik kan me voorstellen dat mensen dat live-aspect van de beschrijvingen zullen missen. Van de andere kant kun je met de app naar een voorstelling gaan wanneer je maar wil en hoef je niet te wachten tot er een audiobeschreven voorstelling geprogrammeerd wordt.

Op 7 maart stond er een groot artikel over de theatertablet van NTGent in De Morgen en daar las ik dit: “(…) merkt ook wel enkele kinderziekten op. Sommige scènes bleken deze voorstelling sneller gespeeld dan tijdens de repetities, waardoor de ondersteuning op de tablet soms abrupt stopte en overging naar een volgend deel. De keerzijde van de scène-per-scène-oplossing.”

Dat zit zo: de audiodescriptie (en ook de video van de tolk gebarentaal) is niet één groot audiobestand (of videobestand van de tolk) dat tegelijk met de voorstelling wordt opgestart, maar een geheel van korte opnames die een voor een worden afgespeeld. Theater is immers live, wat betekent dat elke voorstelling net iets anders is.

Een van de belangrijkste dingen waar je als live-beschrijver rekening mee moet houden is dat, naarmate een voorstelling langer loopt, de acteurs beter op elkaar ingespeeld raken en ze steeds sneller spelen. Nu is ‘snel’ relatief: het is niet zo dat ze een stuk van anderhalf uur ineens in een uurtje afwerken. Maar waar je bij de eerste voorstellingen misschien twee seconden pauze had tussen twee dialogen, wordt dat er na een tijdje anderhalve seconde of nog maar net een seconde. En in een seconde kun je veel minder zeggen dan in twee seconden natuurlijk.

Het lijkt er dus op dat er nu al een verschil is tussen de repetities, waar de vooraf opgenomen audiodescriptie en vertolking in Vlaamse gebarentaal op gebaseerd zijn, en de voorstelling zoals die gespeeld werd. Mij verbaast dat niet, en ik ben benieuwd hoe ze het gaan oplossen. Wordt vervolgd dus!

gepubliceerd op 18 maart 2020

Hoe schrijf je een audiogids bij een tv-serie?

Op mijn blog kun je regelmatig lezen over de audiogidsen die we schrijven voor museums, maar wist je dat we ook audiogidsen voor tv schrijven? Hier leg ik je uit hoe dat in z’n werk gaat.

Om te beginnen, wat is dat eigenlijk, een audiogids of audioguide? In een museum is dat een gesproken tekst die je begeleidt bij je bezoek. Meestal kun je die tekst beluisteren via een speciaal toestel dat je in het museum kun huren (en soms zelfs gratis kunt lenen). Er zijn ook audiotours die je via je smartphone kunt afspelen.

Wij schrijven vooral teksten voor audiogidsen die gericht zijn op blinde en slechtziende museumbezoekers. Daarin krijg je niet alleen algemene achtergrondinformatie bij kunstwerken. Je hoort ook hoe het werk eruitziet en, indien er tastbaar materiaal is zoals een voelplaat, vertellen we je hoe je dat het best kunt gebruiken.

Bij een tv-serie werkt het anders. Daar gaat het om een gesproken inleiding bij een reeks waarin je kennismaakt met de belangrijkste personages en locaties. Audiogidsen bij tv-series worden speciaal gemaakt voor blinde en slechtziende kijkers als aanvulling op de audiodescriptie. In de audiodescriptie geven we de belangrijkste info mee die je nodig hebt om de serie te volgen, maar voor extra beschrijvingen en achtergrondinfo is doorgaans maar heel weinig plaats. In een audiogids kun je die aanvullende informatie wél kwijt.

Susanne springt een gat in de lucht op het strand van Oostende

Een enthousiaste Susanne die een gat in de lucht springt op het strand van Oostende op een gure februaridag. Niet zomaar een februaridag, maar 02-02-2020, wat een wereldwijde palindroomdag was (ook in de VS, waar ze de maand vóór de dag zetten). Het was ook de 33ste dag van het jaar en aangezien het een schrikkeljaar is, waren er nog 333 dagen te gaan. En oh ja, ik werd die dag 44 jaar…

Welke informatie geef je in een audiogids bij een tv-serie?

Het belangrijkste is dat je beschrijft hoe de personages en de belangrijkste locaties uit de reeks eruitzien. Onlangs hebben we de audiogids voor Dertigers een update gegeven. Daarin beschrijven we onder andere het uiterlijk van nieuwe personages uit de reeks. De bestaande personages zijn immers al beschreven in de audiogids van seizoen 1, waar we uiteraard naar verwijzen in de nieuwe gids. Ook leggen we kort uit wat de relatie is tussen de personages en welke evoluties er zijn bij oude bekenden uit de reeks.

Ook de locaties zijn belangrijk. In seizoen 2 van Dertigers zijn sommige personages verhuisd. In de audiogids vertellen we hoe die nieuwe woningen eruitzien en hoe ze zijn ingedeeld. Veel scènes in de reeks spelen zich binnenshuis af, dus dan kan het handig zijn om te weten dat de slaapkamer van Pieter en Saartje en die van Lucas uitkomt op de tuin én dat je beide slaapkamers bereikt via de keuken.

Om de audiogids wat levendiger te maken voegen we quotes toe uit de serie. Die quotes helpen de kijker ook om belangrijke stemmen te herkennen.

Een goede quote moet aan een aantal voorwaarden voldoen: zo mag het fragment niet te lang zijn, maar ook niet te kort. Bovendien moet het om een zinvol stukje dialoog gaan. Er mag geen luide muziek op de achtergrond spelen en je mag alleen de stemmen horen die je wilt illustreren. Groepsscènes zijn daarom minder geschikt om quotes uit te selecteren. En tot slot: uiteraard mogen quotes geen spoilers bevatten!

Het belangrijkste is misschien wel dat je heel beknopt moet blijven in je audiogids. Een personage of woning moet in hooguit enkele minuten kort en kernachtig beschreven worden. Op dat vlak is er geen verschil met een audiogids voor een museum of tentoonstelling, want ook daar schets je in een paar minuten hoe een kunstwerk eruitziet.

Hoewel audiogidsen dus een grote hulp zijn om een tv-serie nóg beter te kunnen volgen, biedt enkel de VRT ze aan. De audiogids bij Dertigers kun je nog tot 14 maart beluisteren op VRT NU.

gepubliceerd op 28 februari 2020

 

Ghost Tropic

Een heel bijzondere film die we het afgelopen jaar hebben beschreven was Ghost Tropic van regisseur Bas Devos.

Het verhaal is eenvoudig: schoonmaakster Khadija valt na een lange werkdag in slaap op de metro en mist haar halte. Er zit niets anders op dan te voet naar huis te gaan, dwars door Brussel. Wat volgt is volgens de recensie op bruzz.be “een film die gloeit ondanks de winterkou”.

Twee vrouwen met paraplu's staan op de Grote Markt. De gebouwen achter hen baden in het licht.

De Grote Markt in Brussel op een regenachtige avond – geen beeld uit Ghost Tropic, maar een eigen foto

Heel lang geleden, toen ik in Brussel studeerde, heb ik bijna hetzelfde meegemaakt als Khadija in de film! Alleen was ik niet in slaap gevallen, maar ben ik ooit ’s nachts in Simonis gestrand omdat er geen metro’s meer reden. Ik ben toen helemaal naar mijn kot (B) / kamer (NL) in Schaarbeek gewandeld, midden in de nacht.

De trailer van Ghost Tropic, met Nederlandse ondertitels

Opvallend aan de film is het trage tempo waarin alles zich afspeelt, of zoals deze recensent het beschrijft: “De eerste vijf minuten gebeurt er niets meer dan het duister dat invalt. Er wordt ons meteen duidelijk gemaakt dat Ghost Tropic zijn tijd zal nemen.”

Wij hebben de audiodescriptie geschreven bij deze poëtische film én de stemregie gedaan bij de audiodescriptie-opnames. Meestal is het puzzelen om met een paar goed gekozen woorden een scène te typeren tussen de dialogen, dus je zou denken dat een film zoals Ghost Tropic waarin weinig gepraat wordt, ‘makkelijk’ te beschrijven is. Maar behalve de dialogen heb je ook nog muziek en achtergrondgeluiden die een deel van het verhaal vertellen. En het is sowieso niet de bedoeling dat de audiodescriptie-stem de hele film vol zit te kletsen.

Benieuwd hoe we dat aangepakt hebben? Ghost Tropic is nog tot het eind van de maand te zien in verschillende bioscopen.

gepubliceerd op 29 januari 2020

 

Toegankelijke audiogidsen voor museums

De afgelopen maanden hebben we twee toegankelijke audiogidsen uitgewerkt voor museums. De gids voor het Gruuthusemuseum in Brugge is intussen uitvoerig getest en wordt als het goed is nog voor het eind van het jaar ingelezen en verder verwerkt. In het vernieuwde museum vind je 13 voelstations waar je allerlei voorwerpen kunt aftasten: een maquette van het gebouw, staaltjes van materialen en stoffen, eeuwenoude voorwerpen en replica’s daarvan, enzovoort. Vooral kinderen raken graag dingen aan, maar de voelstations verbeteren de beleving van alle bezoekers. Daarnaast is er ook een geurstation. Natuurlijk zijn de voel- en geurelementen ook heel geschikt voor mensen die niet (goed) zien, vandaar dat we er extra aandacht aan besteden in de beschrijvende audiogids voor blinden en slechtzienden.

 Ook hebben we teksten geschreven voor de Begijnhofkerk in Sint-Truiden waarin we onder andere de eeuwenoude muurschilderingen beschrijven. Net zoals in Brugge hebben ze er in Sint-Truiden aan gedacht om de collectie ‘tastbaar’ te maken voor blinde en slechtziende bezoekers door onder andere maquettes en voelplaten te laten maken. Bovendien hebben de gidsen en ‘beeldenfluisteraars’ die mensen rondleiden in de kerk van ons een opleiding gekregen over het audiobeschrijven van kunstwerken.

 Een collage van twee foto's.

Susanne voor de ingang van het vernieuwde AfricaMuseum in Tervuren en een foto van de iconische opgezette olifant in een van de zalen.

Onze inspanningen om beeldende kunst toegankelijk te maken gaan niet onopgemerkt voorbij. Deze maand waren we dan ook uitgenodigd door het vernieuwde AfricaMuseum in Tervuren, waar we een privérondleiding kregen en meteen heel wat tips konden geven. Het museum heeft onder andere een opgezette olifant (die eigenlijk uit twee olifanten bestaat zoals de gids ons vertelde) en nog veel meer bijzondere dingen om te beschrijven.

 gepubliceerd op 30 november 2019

Audiogids voor de Begijnhofkerk in Sint-Truiden

Afgelopen zomer kregen we een aanvraag van het Begijnhof Buurtcomité in Sint-Truiden. Voor het project ‘Door andere Ogen’ wilden ze de eeuwenoude muurschilderingen in de Begijnhofkerk ook toegankelijk maken voor blinde en slechtziende bezoekers. Zo lieten ze in hout maquettes maken en voelbladen in dik papier, maar ze wilden nóg meer doen.

Daarop werkten we een project uit dat uit twee delen bestond. Allereerst zouden we gidsen en vrijwilligers een opleiding geven. Tijdens die opleiding leerden ze hoe ze rondleidingen toegankelijker konden maken voor blinde en slechtziende bezoekers door aanvullende beschrijvingen. De opleiding vond plaats op donderdag 5 september. Enkele dagen later maakte TVL een reportage over de tentoonstelling in de Begijnhofkerk (vanaf 1 minuut 24 seconden). Er is aandacht voor de maquettes en voelplaten én er is een fragmentje waarin een door ons opgeleide gids een muurschildering beschrijft voor een slechtziende vrouw.

Het tweede deel bestond uit een audiogids bij een selectie van achttien kunstwerken in de kerk. Bij het schrijven van de teksten heb ik veel aandacht besteed aan het beschrijven hoe alles eruitziet.

Op de foto: het interieur van de Begijnhofkerk met links achteraan het hoogaltaar met schilderij, rechts voor de kooromgang een muurschildering uit 1310 van Maria Magdalena met Vera-icoon, daar rechts voor een zestiende-eeuwse muurschildering op een pilaar en daartussenin een zijaltaar uit circa 1740. Al deze kunstwerken komen aan bod in de audiogids.

Nu laat ik voor ik aan zo’n opdracht begin klanten altijd weten dat ze niet alleen moeten denken aan ‘audiodescriptie voor blinden en slechtzienden’, omdat audiodescriptie voor veel meer mensen nuttig is. Ik was dan ook erg blij toen ik hoorde dat de teksten op verschillende manieren zullen gebruikt worden. Natuurlijk worden ze ingelezen en gemonteerd tot audiogids zodat de bezoeker bij elk werk een beknopte beschrijving krijgt met verdere uitleg. Maar ze worden ook verwerkt tot infogids voor de ontvangstmedewerkers en vrijwillige begeleiders van bezoekers zodat ook zij er volop gebruik van kunnen maken. En wie weet, worden ze nog op andere manieren ter beschikking gesteld aan de bezoekers.

Erg fijn dus dat ze dat advies hier zo goed opgevolgd hebben!

gepubliceerd op 4 oktober 2019

 

Debat Technologie en/in de Taalsector in Brussel

Op zaterdag 18 mei vond in de Campus Brussel van de KU Leuven een debat plaats met als thema ‘Technologie en/in de Taalsector’. Ik was een van de panelleden.

Het debat werd voorafgegaan door een keynotespeech van Rudy Tirry van vertaalbureau Lionbridge. In een halfuur tijd vertelde Rudy over de recente uitdagingen van technologie in de taalsector en gaf hij een vooruitblik op wat ons in de toekomst zoal te wachten staat.

Wat ik interessant vond, was dat hij voorspelt dat je als vertaler twee kanten op kunt met het oog op de technologische ontwikkelingen die er nog aan zitten te komen. Ofwel ga je voluit voor technologie en word je een echte ‘techno-vertaler’, ofwel ga je voor het supercreatieve vertaalwerk en word je wat hij een ‘bio-vertaler’ noemt. Waar de techno-vertaler zich richt op grootschalige, hoogtechnologische vertaalprocessen en post-editing omarmt, is de bio-vertaler iemand die zich in een niche begeeft waar hij/zij aan kleinschalige projecten werkt voor klanten die hoge kwaliteitseisen stellen. Na afloop heb ik hem gevraagd waar ‘bio’ nu eigenlijk voor staat, maar hij moest me het antwoord schuldig blijven…

Na Rudy’s keynotespeech werd het debat met de andere panelleden geopend. Zelf vertelde ik over mijn ervaringen met technologie in audiovisuele vertaling en mediatoegankelijkheid. De andere panelleden waren Tim Van Hauwermeiren, die werkt als conferentietolk voor het Europees parlement, en Christophe Declercq, die docent is aan de KU Leuven Campus Brussel. Aan de hand van enkele (soms boude) stellingen die Christophe ons voorlegde, kwam het debat al gauw op gang. Ook het publiek kreeg volop de kans om extra vragen te stellen, en dat gebeurde ook regelmatig.

 

Technologie en mediatoegankelijkheid

De eerste vraag die ik kreeg, ging meteen over technologie en mediatoegankelijkheid. Bij mediatoegankelijkheid is het je taak om audiovisueel materiaal toegankelijk te maken voor zo veel mogelijk mensen. Denk maar aan ondertiteling voor doven en slechthorenden, waarbij we niet alleen weergeven wat er gezegd wordt, maar ook hoe en door wie. Een ander voorbeeld is audiodescriptie, een techniek waarbij een extra vertelstem wordt toegevoegd aan een film of tv-programma zodat iemand die blind of slechtziend is alles goed kan volgen. Hier heeft technologie een belangrijke rol gespeeld om ons werk bij de gebruikers te krijgen.

Ik vertelde dat, toen ik me tien jaar geleden volop met audiodescriptie ging bezighouden, het erg moeilijk bleek te zijn om het aanvullende commentaar bij het doelpubliek te krijgen. In Nederland waren er welgeteld vier bioscopen die de nodige apparatuur hadden om audiobeschreven voorstellingen te organiseren. In België was er geen enkele, dus als daar een film met audiodescriptie vertoond werd, moest de apparatuur uit Nederland komen…

Sinds 2015 is er een app (de Earcatch-app) waarmee je als blinde of slechtziende heel eenvoudig een film of tv-serie kunt volgen, thuis of in de bioscoop. Voor de film/serie begint, download je de audiodescriptie in de app en dan wordt het extra commentaar automatisch afgespeeld.

Intussen wordt er ook gewerkt aan een vergelijkbare app voor ondertiteling en audiodescriptie bij live-voorstellingen. In het publiek bleek overigens een enthousiaste Earcatch-gebruiker te zitten, die nog maar eens benadrukte hoe belangrijk dergelijke apps voor haar als slechtziende zijn.

 

Het panel in volle actie tijdens het debat

De impact van technologie op het werk van de audiovisueel vertaler

Wat later in het debat kwam er een vraag uit het publiek over live-ondertiteling. Een mooi voorbeeld van hoe technologie wordt ingezet bij het werk zelf. Ik vertelde dat live-ondertiteling in het Nederlandse taalgebied vaak gebeurt door middel van spraakherkenning of respeaking. Daarbij herhaalt de ondertitelaar dat de sprekers zeggen waarbij hij/zij tegelijkertijd samenvat en indien nodig de tekst wat stroomlijnt. Vervolgens worden deze teksten in ondertitelvorm uitgezonden. Het hele proces duurt slechts enkele seconden, zodat het een supersnelle manier is om ondertitels aan te maken en uit te zenden. Zelf werk ik niet met spraakherkenning, maar in mijn team zit een ondertitelaar die spraakherkenningssoftware ook gebruikt voor niet-live werk. Daarnaast heb ik een tijdje samengewerkt met iemand die met een Veyboard  ondertitelde.

Tim Van Hauwermeiren, de tolk in het panel, voegde daaraan toe dat hij ook al experimenten met spraakherkenning / live-ondertiteling had bijgewoond en dat hem was opgevallen dat de interpunctie dan vaak ontbrak. Dat komt doordat de ondertitelaar niet alleen de tekst moet respeaken, maar terwijl hij/zij dat doet ook de interpunctie toevoegt. Dat is iets waar je in het begin voortdurend aan moet denken, maar wat daarna een automatisme wordt. Zozeer zelfs, dat een respeaker die ik ken ooit bekende dat ze na een lange werkdag de telefoon opnam met ‘hallo vraagteken’.

We mogen ook niet vergeten dat we als Nederlandstaligen nog heel veel geluk hebben dat er spraakherkenningssoftware bestaat voor onze taal. Voor ‘kleinere’ talen is dat vaak niet het geval en dan is snel typen het enige alternatief. Die opmerking bracht ons bij Afrikaanse talen, waarvoor automatische vertaling nog in de kinderschoenen staat.

 

Lang leve de technologie voor de audiovisueel vertaler?

Waar technologie naar mijn mening geen toegevoegde waarde heeft, is in het vertaalproces zelf. Ik vertaal veel commentaarteksten bij documentaires voor de VRT en daarbij is de opdracht expliciet om heel vrij te vertalen. In feite zou je het zelfs herschrijven kunnen noemen: wollige zinnen schrappen, grondig samenvatten, nieuwe informatie toevoegen… Het kan en moet zelfs allemaal om tot een tekst te komen die vlot leest en aangepast is aan het doelpubliek. CAT-tools en machinevertaling zijn nutteloos bij dat soort vertaalwerk.

Ook bij het ‘gewone’ ondertitelwerk zijn CAT-tools e.d. niet echt nuttig. Tijdens het debat gaf ik als voorbeeld het SUMAT-project, een groot onderzoek dat de EU een aantal jaar geleden gesubsidieerd heeft. Het uitgangspunt was dat ondertiteling bij uitstek geschikt zou zijn voor machinevertaling omdat het toch om korte zinnetjes gaat. Toen ik dat zei, klonk er gelach op uit de zaal. En inderdaad, het resultaat van die automatisch vertaalde ondertitels was erg pover.

Zelfs als de vertaalsoftware rekening houdt met de technische beperkingen die typisch zijn voor ondertiteling, dan nog gaat het vaak mis. Met die technische beperkingen bedoel ik het maximumaantal karakters dat er op een ondertitelregel past (meestal rond de 40 karakters inclusief spaties) en de leessnelheid. De leessnelheid is de verhouding tussen de tijd dat de ondertitel in beeld blijft staan en de hoeveelheid tekst in die ondertitel. Hoe korter de ondertitel in beeld staat, hoe minder tekst erin mag staan, anders krijgen de kijkers het niet op tijd gelezen.

Met deze twee parameters wordt tot op zekere hoogte rekening gehouden, maar het allerbelangrijkste is de context. En die context zit hem in ondertiteling vaak in het beeld én de manier waarop iets gezegd wordt.

 

Een donkerblauw notitieboek met het logo van de KU Leuven en een bijpassende pen

Na afloop van het debat kregen we een totaal niet-technologisch cadeau als bedankje

Machinevertaling in ondertiteling

Een klein voorbeeld. Een zinnetje zoals ‘Are you all right?’ kun je op veel verschillende manieren vertalen. Maar als het gezegd wordt door een soldaat in een oorlogsfilm die rakelings een kogel heeft weten te ontduiken en z’n strijdmakker kreunend naast zich ziet liggen dan is ‘alles kits?’ geen geschikte vertaling, ook al is het lekker kort… Een mens weet dat, een computer niet.

Op de receptie achteraf vertelde Rudy Thirry mij dat de huidige machinevertalingen daar heel waarschijnlijk wel rekening mee zullen houden omdat die contextgevoelig vertalen. In dit geval zou de software uit de voorafgaande ondertitels moeten kunnen afleiden dat het om een oorlogsfilm gaat, bijvoorbeeld doordat er wapens en munitie vermeld worden of doordat woorden als ‘soldaat’, ‘militair’ en ‘leger’ voorkomen in de film. Daardoor zal er eerder een passende vertaling voorgesteld worden als ‘Ben je ongedeerd?’ en niet ‘Alles kits?’. In die zin gaat de techniek dus heel snel vooruit.

Een laatste reden waarom ik niet geloof in het gebruik van machinevertaling bij ondertiteling is dat het alleen werkt als je een uitgeschreven brontekst hebt, maar veel ondertitelwerk gebeurt op gehoor.

 

Worden we allemaal vervangen door robots?

Het zal duidelijk zijn dat ik niet geloof dat vertalers snel vervangen zullen worden door robots, maar er zijn natuurlijk wel ontwikkelingen waardoor een deel van het werk geautomatiseerd zal worden. Ook wie zich bezighoudt met mediatoegankelijkheid ontsnapt daar niet aan.

Zo is er de automatische ondertiteling van YouTube, die weliswaar lang niet perfect is, maar soms kan helpen om je een idee te vormen van waar een video over gaat. Er wordt ook gewerkt aan apps die beelden kunnen herkennen en beschrijven, maar voorlopig leveren die nog geen al te beste resultaten op met bewegende beelden. En naast audiodescripties die worden opgenomen in een gespecialiseerde studio met professionele inlezers, wordt er volop geëxperimenteerd met synthetische stemmen, die soms niet van menselijke stemmen te onderscheiden zijn.

Tot slot hebben we het in het debat even gehad over crowdsourcing als mogelijke concurrentie voor de professionele markt naast machinevertaling, maar we waren het er vrij snel over eens dat dat wel meevalt. Veel vertaalwerk dat gecrowdsourcet wordt zou sowieso nooit bij een professionele vertaler belanden en veel crowdsourcers stoppen ook al heel gauw (vaak al na één opdracht, zo blijkt uit onderzoek). Als voorbeeld van crowdsourcing in mediatoegankelijkheid haalde ik Scribit aan, waarbij vrijwilligers YouTube-video’s beschrijven.

Kortom: in twintig jaar tijd is mijn werkomgeving grondig veranderd door technologie en de komende twintig jaar zal dat ongetwijfeld opnieuw gebeuren. Ik ben benieuwd wat de toekomst ons brengt!

gepubliceerd op 24 mei 2019

 

Voor de tweede keer live-audiodescriptie bij 40-45

Op zondag 24/02 was ik (Susanne) voor de tweede keer de vertelstem voor 200 blinde en slechtziende musicalliefhebbers en begeleiders tijdens de spektakelmusical 40-45. Ook deze keer was onze tribune volledig uitverkocht.

Hoewel het ‘live-audiobeschrijving’ heet, is het niet zo dat ik zomaar wat zit te improviseren. Al enkele weken voor de eerste audiobeschreven voorstelling op 2 december 2018, ging ik samen met een collega de musical voor een eerste keer bekijken en kreeg ik het scenario en enkele video- en geluidsopnames om mij zo goed mogelijk voor te bereiden. Zo schreef ik een volledig uitgewerkt script met daarin de teksten van de acteurs, de liedteksten én alle info over wat er op en rond het podium te zien was. Daartussen kwamen dan mijn aanvullende beschrijvingen van visuele informatie die je nodig hebt om als blinde/slechtziende toeschouwer alles te kunnen volgen.

Een still uit de musical, waarbij de actie op het podium vanuit vier hoeken gefilmd wordt

Een still uit de musical, vanuit de vier gezichtspunten zoals in de regiekamer.

Oefenen maar!

Aangezien er ruim twee maanden tussen de eerste audiobeschreven voorstelling en de tweede zat, moest het script opnieuw gecheckt en ingeoefend worden met enkele recente opnames én organiseerden we een nieuwe ‘dry run’. Daarbij doen we de volledige audiodescriptie zonder publiek. Vooral de timing is hierbij belangrijk. Bovendien zijn er intussen verschillende castwissels geweest en ook daar moeten wij rekening mee houden. Elke acteur legt immers andere accenten in de teksten. Net als tijdens de echte voorstelling krijgen wij bij de ‘dry run’ de beelden te zien op een scherm dat in vier stukken is verdeeld zodat wij de acties op het speelvlak vanuit verschillende standpunten kunnen volgen.

 

Spektakel verzekerd

Nu is 40-45 niet voor niets een spektakelmusical en dat moest ook blijken uit de audiodescriptie (AD). Een hele uitdaging zijn de rijdende tribunes. Anders dan bij veel andere musicals, zit je bij 40-45 als toeschouwer niet altijd op een afstandje naar de acties op een podium te kijken. Doordat de tribunes rijden, verandert je gezichtspunt voortdurend, en natuurlijk moet de audiobeschrijver daar rekening mee houden. Bovendien staan de tribunes soms zo opgesteld dat je als toeschouwer letterlijk deel uitmaakt van de actie.

En net als bij andere live-evenementen, worden ook de andere zintuigen niet vergeten in de beschrijvingen. Ik wil niet te veel verklappen voor de mensen die nog naar 40-45 gaan, dus verwijs ik naar twee andere evenement waarvoor we al verschillende keren de live-audiodescriptie hebben verzorgd. Om te beginnen de Gouden Boomstoet in Brugge: https://www.nevero.be/live-audiodescriptie-tijdens-de-gouden-boomstoet/. Tijdens die stoet komt er op een gegeven moment een vuurspuwende draak voorbij, en de geur van de rook is iets wat we op de een of andere manier moeten verduidelijken in de beschrijvingen. En tijdens het Buitenbeenpop-festival gaan er regelmatig confettikanonnen af: https://www.nevero.be/live-audiodescriptie-op-buitenbeenpop/. Ook die info geven we mee in de audiodescriptie zodat de mensen weten waarom ze ineens allerlei slingers over zich heen krijgen…

 

Enthousiaste fans + extra voorstelling

Ook deze keer kregen we na afloop mooie feedback van een enthousiaste AD-gebruiker:

Ik ben vandaag geweest. Zelfs met een kleine technische onderbreking ving Susanne Verberk dit heel goed en rustig op. Alles wat er gebeurde tijdens de onderbreking liet ze ons weten. En zodra het verhaal verder ging, nam ze de draad schitterend op alsof er nooit een onderbreking geweest is. Ook door trager, sneller praten, intonatie, klank, stemgeluid liet ze ons de emotie voelen die al aanwezig was door de sfeer, muziek, geluiden of momentopname tijdens een scène. (…) Dank aan Studio 100, Lesley, Susanne, VeBeS en alle vrijwilligers die hieraan mee hebben gewerkt en zich hebben ingezet om dit mogelijk te maken.

Op 26 mei komt er een volgende voorstelling met audiodescriptie, maar ook deze tribune is al volledig uitverkocht…

 

gepubliceerd op 6 maart 2019