Tradurre il software nelle varie lingue è uno di quei mestieri invisibili e allo stesso tempo indispensabili dell’IT di cui si parla solo quando riesce male. Abbiamo deciso di gettarvi uno sguardo con Licia Corbolante , nel suo passato quasi venti anni di servizio a Microsoft, interventi a conferenze e seminari in giro per il mondo, e oggi curatrice di un interessante blog sull’argomento.
Punto Informatico: Quanto influenza il nostro lessico la localizzazione italiana degli applicativi di uso quotidiano? Entrano neologismi o calchi prima alieni e, se sì, con quali esiti?
Licia Corbolante: L’inglese è quasi sempre la lingua di partenza e ha fatto entrare nel gergo comune parecchi prestiti come mouse , password , browser , dei quali non possiamo fare a meno e che potrebbero fare pensare a un’invasione di anglicismi. In realtà la penetrazione di questi termini è ancora piuttosto bassa e in genere limitata a nuove funzionalità, a particolarità specifiche del sistema operativo o comunque ambiti tecnici. Eventuali prestiti e calchi nei programmi che usiamo quotidianamente sono spesso recepiti da altri campi (tipografia, editoria, fotografia, finanza ecc.): la localizzazione si è limitata a dare loro più visibilità, diffondendo concetti altrimenti poco conosciuti.
Trovo piuttosto molto interessanti i neologismi semantici, parole comuni che acquisiscono un nuovo significato, come finestra per indicare un’area dello schermo. Entrano rapidamente nel lessico e volte fanno addirittura passare in secondo piano le accezioni esistenti, basti pensare a chiavetta , che fino a qualche anno fa indicava solo un utensile e ora invece fa subito venire alla mente un supporto di memoria rimovibile o un modem USB. Un paio di altri esempi: mobile , scaricare , motore (di ricerca, ad esempio), navigare o la ricerca che qualcuno ha fatto proprio ieri per arrivare al mio blog: “aggettivi per descrivere la chiocciola riferito all’animale”.
PI: Come viene decisa la terminologia usata nei prodotti, in particolare il nome di nuove funzionalità?
LC: Si analizza il concetto rappresentato dal termine originale, il contesto di utilizzo, e si determina se si tratti di un neologismo o di un termine già documentato, se sia un generico o specializzato, se venga usato solo in ambito informatico o anche altrove, quali siano i termini e concetti correlati ecc. In base a queste informazioni si imposta la ricerca per l’italiano, cercando una soluzione coerente con la terminologia già in uso. Un caso particolare sono i concetti nuovi o poco diffusi appena introdotti in inglese perché un corrispondente italiano spesso non esiste ancora o non è attestato. Vengono fatte diverse valutazioni ed eventualmente consultati esperti prima di decidere come procedere: ad esempio se adottare un prestito straniero (come netbook ), un calco lessicale ( senza fili dall’inglese wireless ), un calco semantico ( postare modellato sul verbo post ), ricorrere a soluzioni ad hoc ( procedura guidata per wizard ) o creare un neologismo ( animoticon ). Non sempre si riesce ad anticipare quelle che saranno le effettive preferenze del mercato e così anche dopo il rilascio del prodotto si continua a monitorare l’evoluzione della terminologia per modificarla, se il caso, nella versione successiva. I principali produttori di software danno inoltre molta importanza all’input degli utenti, ad esempio nel Portale linguistico Microsoft si può commentare il gergo tecnico usato nei prodotti e segnalare eventuali errori oppure si può partecipare al Microsoft Terminology Community Forum per discutere una selezione di termini con altri utenti.
PI: Come si rimedia quando si scopre che la resa errata di un termine ormai ha svariate revisioni del programma alle spalle e milioni di utenti abituati a quella interfaccia (ad esempio l’ equivoco paragrafo/paragraph di Office)?
LC: Gli errori terminologici dovuti a un’interpretazione scorretta del termine originale sono per fortuna abbastanza rari e sono spesso un’eredità delle vecchie versioni di un programma, localizzate quando la gestione della terminologia aveva ancora un ruolo defilato. Se vengono identificati si fa una valutazione dei costi del cambiamento e soprattutto dell’impatto che avrebbe sull’esperienza d’uso: se si ritiene che la maggioranza degli utenti sia ormai abituata a un termine non del tutto adeguato ma ormai associato a una funzionalità o a un concetto specifici, si rinuncia a introdurne un nuovo, appropriato ma magari non subito riconoscibile, che potrebbe causare più confusione che effettivi benefici, come nel caso di capoverso in sostituzione di paragrafo.
Per eventuali altri tipi di errore si procede sempre con la correzione nel nuovo rilascio del prodotto, in particolare se si tratta di risolvere possibili incongruenze (traduzioni diverse associate a un unico termine inglese) oppure se è stata fatta confusione in caso di polisemia (ad esempio in inglese frame può indicare un fotogramma, una cornice attorno a un’immagine, un frame di una pagina Web o un frame inteso come unità di informazione). I sistemi di gestione della terminologia orientati al concetto aiutano comunque a risolvere le ambiguità durante la localizzazione e ulteriori controlli vengono fatti con vari strumenti linguistici, quali i cosiddetti consistency checker per rilevare disuguaglianze.
PI: In che modo è cambiato e dove sta andando questo lavoro?
LC: Quando ho iniziato io in questo settore non sempre software e documentazione erano ottimizzati per la localizzazione e l’internazionalizzazione era un concetto quasi sconosciuto! Gli strumenti non erano molto sofisticati e a volte poco intuitivi, non si faceva abbastanza attenzione alla terminologia, che veniva raccolta in semplici elenchi solo durante la traduzione. I principali produttori di software svolgevano direttamente la maggior parte delle attività di localizzazione, si limitavano a esternalizzare solo la traduzione di testo ad agenzie nei singoli paesi e lo rivedevano prima di utilizzarlo.
Ora le esigenze di internazionalizzazione e localizzabilità sono adeguatamente descritte e prese in considerazione fin dalle fasi iniziali del ciclo di vita del prodotto, gli strumenti di localizzazione si sono molto evoluti, viene data grande importanza alla gestione della terminologia documentandola in appositi database prima che inizi la localizzazione, i flussi di lavoro e ruoli sono ben definiti e quasi tutte le attività, incluse le verifiche di qualità, sono esternalizzate e gestite da società specializzate multilingue. Credo sia anche interessante notare come negli ultimi anni i principali produttori di software commerciale abbiano cominciato a condividere informazioni ed esperienza in questo campo, mettendo a disposizione risorse e facilitando lo scambio di idee e di best practice fra i loro esperti dell’argomento.
In futuro, presumo verranno sviluppati strumenti ancora più sofisticati e che integrano tecnologie semantiche, i database terminologici si muoveranno verso ontologie complesse e la traduzione automatica avrà una sempre maggiore applicazione, grazie anche alla qualità in continuo miglioramento. Il coinvolgimento delle community, il crowdsourcing di cui si parla molto ultimamente, avrà probabilmente sempre più importanza: l’esperienza di Sun e di Facebook, tra i tanti, è rilevante.
PI: Come siamo messi in Italia? Valgono gli stessi problemi degli altri paesi?
LC: Da un punto di vista linguistico vale la pena sottolineare che, a differenza di altri paesi, in Italia non sono attivi enti di standardizzazione terminologica (come invece accade, tra gli altri, in Francia e in Islanda, in quest’ultimo paese per citare una caso estremo computer è stato reso con profeta di numeri , ndr), non bisogna sottostare a particolari regolamentazioni o a scelte politiche che costringono a cambiamenti di termini anche molto comuni: è il mercato a decidere la terminologia. Nonostante la mancanza di linee guida comuni, in Italia c’è una notevole uniformità stilistica e anche terminologica tra i prodotti più diffusi, molto più che nel resto d’Europa: basta confrontare le guide di stile per la localizzazione disponibili in rete, ad esempio di Sun (e OpenOffice), Mozilla, Microsoft, per notare i molti punti in comune e le poche differenze. È tutto a vantaggio di noi utenti: passando da un prodotto a un altro identifichiamo subito le espressioni già note e non dobbiamo imparare ad associare nomi diversi alle stesse funzioni, mentre uno stile subito riconoscibile rende le informazioni più familiari e più veloci da assimilare.
PI: Chi credi ricopra meglio questo ruolo tra un informatico con una solida conoscenza dell’inglese e un laureato in lingue con adeguata dimestichezza dell’argomento? Esiste un percorso formativo ottimale? Hai dei consigli per chi aspirasse a tale professione?
LC: Questo processo si è notevolmente specializzato e prevede vari ruoli, solo alcuni dei quali richiedono competenze linguistiche. Nel caso specifico di chi traduce stringhe e testo, il localizzatore, in genere la formazione è linguistica e preferibilmente sono stati seguiti dei corsi di traduzione. Direi che non sono necessarie competenze informatiche specifiche ma sicuramente è importante essere un utente avanzato di più prodotti, quindi avere familiarità con funzionalità e istruzioni anche complesse e la capacità di acquisire rapidamente una buona conoscenza degli strumenti di localizzazione, ad esempio i sistemi di traduzione assistita e di gestione della terminologia. Sempre più università e istituzioni private includono la localizzazione nei loro percorsi formativi ma a giudicare da alcuni programmi sembrerebbe venga dato parecchio spazio agli strumenti e forse un po’ meno alle attività di analisi e di ricerca che invece sono fondamentali per interpretare correttamente il materiale che si sta localizzando, identificare eventuali problemi, suggerire soluzioni e capire quando è necessario ricorrere al supporto degli informatici o di altri esperti.
a cura di Fabrizio Bartoloni
I precedenti interventi di F.B. sono disponibili a questo indirizzo