Interpreting

L’INTELLIGENZA ARTIFICIALE E IL FUTURO DELL’INTERPRETAZIONE DI CONFERENZA

L’intelligenza artificiale, più propriamente denominata con l’acronimo inglese AI (artificial intelligence), sta prendendo sempre più piede in molti ambiti della nostra quotidianità, sia privata che professionale. Nel settore della traduzione tecnica la “Machine Translation” oggi e prima ancora la “Computer Aided Translation” sono oramai diventate delle fedeli compagne di viaggio dei traduttori in grado di velocizzare il loro lavoro e talvolta anche di migliorarlo.

Come sappiamo, il lavoro dell’interprete si basa solo sulla lingua orale e ad oggi può sembrare irrealistico il fatto che una macchina possa sostituire la parola dell’interprete. Non è così, perché anche per noi interpreti la “Machine Interpreting” o meglio l’ “Augmented Human Interpreting” rappresentano le frontiere del nostro orizzonte professionale. Ma di cosa si tratta in realtà? Dobbiamo veramente temere che un giorno, nemmeno troppo lontano, anche noi interpreti verremo sostituiti da una macchina?

A tal proposito ho fatto alcune domande a Claudio Fantinuoli, docente e ricercatore presso l’Università di Magonza/Germersheim, che ha dedicato buona parte della sua ricerca a questi aspetti davvero interessanti applicati all’interpretazione di conferenza.

Domanda: Claudio, innanzitutto ti ringrazio per avermi dedicato il tuo tempo. Prima di iniziare, puoi spiegare in breve di cosa ti occupi e quali sono i tuoi principali ambiti di ricerca? Magari qualcuno dei miei lettori non è ancora a conoscenza della tua preziosa e interessante attività.

Risposta: Mi interesso di tutti quegli aspetti che hanno a che fare con le tecnologie nell’ambito della comunicazione orale multilingue. In primis mi occupo dell’ideazione e dello sviluppo di sistemi per il supporto dell’interprete professionista, i cosiddetti computer-assisted interpreting tools. Attualmente il focus è sul supporto in tempo reale, ovvero la macchina che si trasforma in un suggeritore di informazioni, traduzioni, numeri, nomi propri, a disposizione dell’interprete nel caso ne dovesse aver bisogno. Una sorta di collega virtuale, insomma. L’altra grande tematica, a cui mi sono avvicinato solo più di recente, è invece l’interpretazione automatica. La mia prospettiva è quella comunicativa. Ovvero lo studio di come la comunicazione orale multilingue funzioni se mediata dalla macchina. In particolare mi occupo del suo uso, al momento ancora embrionale, in ambito monologico, simultanea e consecutiva per intenderci. L’obiettivo è capire in modo scientifico quali saranno i limiti, quali le situazioni in cui potrà venire usata con successo, ecc.

Domanda: Nei tuoi contributi hai parlato spesso del CAI ovvero del “Center for Augmented Interpretation”. Ci puoi spiegare cosa si intende innanzitutto per “Augmented Interpretation”, in cosa consiste questo centro e quali importanti strumenti di lavoro siete stati in grado di sviluppare?

Risposta: L’Augmented Interpretation fa proprio riferimento al supporto all’attività dell’interprete mediante strumenti informatici. Un’attività in cui al centro assoluto rimane l’interprete, ma che sfrutta il potenziale delle tecnologie moderne per alleggerire l’interprete di alcune attività gravose, la preparazione di una bozza di glossario per esempio, o per aiutarlo a garantire un servizio sempre più professionale, suggerendo la terminologia specifica di un determinato cliente. Si tratta di aiuti puntuali, che non stravolgono l’attività così come la conosciamo, ma che ambiscono a migliorarne workflow e qualità. Nel nostro centro CAI abbiamo sviluppato diversi prototipi di suggeritori automatici basati sullo speech recognition e continuiamo ad assemblare dei motori di interpretazione automatica per studiarne l’impatto in situazioni di comunicazione reale. La tecnologia ha ancora molta strada da fare.

Domanda: Devo ammettere che avere un assistente automatico in cabina che ci aiuti con i numeri sia un’idea fantastica. Statisticamente parlando, i numeri sono le cose che sbagliamo di più in cabina e la collaborazione con la compagna o il compagno di cabina in questo è fondamentale, soprattutto quando si devono tradurre cifre e numeri dal tedesco. Quindi se non ho capito male, in caso di “Speech Recognition”, dovremmo fare un po’ quello che fanno i nostri colleghi traduttori ovvero post-editing? Possiamo fidarci? Ovvero abbiamo veramente il tempo di rielaborare i risultati che ne derivano? Quali sono i pro e i contro, se ci sono?

Risposta: Vi sono tante cose in cui noi umani siamo più bravi delle macchine, ma ci sono alcune cose in cui le macchine sono imbattili. I numeri ad esempio. La qualità della trascrizione automatica ha fatto passi da gigante e mi parrebbe incomprensibile non sfruttarla proprio in quegli ambiti in cui la parola orale è così centrale come appunto in interpretazione. L’idea originale la presentai ad una conferenza nel 2017, tra gli sguardi un po’ divertiti dei convenuti, ma ora finalmente sta trovando la sua realizzazione in diversi progetti di ricerca e commerciali. Non si tratta di lavorare con l’intera trascrizione in tempo reale, ma di presentare all’interprete solo quelle che chiamo Unità di Interesse, ovvero i classici problemi della simultanea – numeri, termini specialistici e nomi propri – per cui la macchina è in grado di offrire un supporto di qualità. In pratica lo speech recognition ascolta l’oratore e i modelli linguistici (basati sul famoso machine learning) selezionano le informazioni di cui sopra, magari indicandone anche il contesto. Insomma dire bene un numero come 534.987 è importante (in base ai contesti potrebbe essere sufficiente solo l’ordine di grandezza), ma è anche importante darne il riferimento. Gli esperimenti condotti finora hanno dimostrato che la qualità dell’interpretazione ne risente positivamente, quindi sì, sembra proprio vi sia il tempo per rielaborare i dati. Ma d’altronde non ci dovrebbe stupire. Lo abbiamo sempre fatto in cabina, quando la collega o il collega ci scriveva sul foglio un numero o una parola, ad esempio. Aggiungiamo un elemento di potenziale distrazione (andando ad aumentare il famoso carico cognitivo), ma lo diminuiamo grazie ai suggerimenti puntuali. Quello che importa è il risultato di questa equazione. Stiamo valutando ora i risultati di un esperimento che abbiamo condotto con circa 20 interpreti della Commissione Europea. Sapremo presto se le nostre ipotesi verranno confermate o meno.

Domanda: Un’ultima domanda, prima di salutarci. Siamo in un periodo in cui, come sappiamo, il “Remote Simultaneous Interpreting” offre l’unica vera alternativa che ci permette ancora di lavorare finché non sarà finita la pandemia. Credi che ci potranno essere ulteriori sviluppi in tal senso? Mi spiego. Quotidianamente mi ritrovo ad affrontare qualche difficoltà dovuta alla mancanza della presenza fisica di una compagna o di un compagna di cabina che per forza di cose non può offrirti a distanza lo stesso tipo di aiuto di quando si lavorava insieme in cabina. Credi che potrà svilupparsi una sorta di “virtual booth partner” basato sull’intelligenza artificiale che ci permetta anche di lavorare da soli?

Risposta: Non vi sono dubbi. Molto presto sarà normale potersi avvalere di un partner virtuale, sia per il remoto che in presenza, un po’ come oggi consultiamo una pagina web o una banca dati elettronica. Ovviamente non sarà un partner con cui scambiarsi occhiate di complicità professionale, con cui fare quattro chiacchiere nelle pause o con cui progettare una nuova campagna di acquisizione clienti. Questa è e continuerà ad essere la bellezza dei partner in carne ed ossa. Non si sostituirà a loro, ma sarà un nuovo strumento di cui disporre per dare quel quantum in più alla propria professionalità. 

Grazie mille, Claudio, il tuo intervento è stato davvero interessante e credo lo sarà anche per i miei lettori.

Write a comment