Dalle cuffiette che sussurrano frasi tradotte in un orecchio ai grandi modelli linguistici che riscrivono intere conversazioni in un’altra lingua, la traduzione automatica è uscita dai dizionari ed è entrata nella vita quotidiana.
(di Gianni Rusconi – ilsole24ore.com) – I contesti dove questo nuovo “ecosistema” trova applicazione sono tanti: una telefonata di lavoro o una video call in lingua straniera, ma anche un viaggio all’estero o qualsiasi occasione dove si deve parlare con un interlocutore che si esprime con un idioma diverso dal nostro. Oggi le traduzioni in tempo reale elaborate dall’intelligenza artificiale sono accessibili attraverso un’ampia batteria di strumenti, da dispositivi di uso comune come auricolari e smartphone alle chatbot che abbiamo tutti iniziato a conoscere molto bene. Un vero e proprio ecosistema, per l’appunto, che sta abbattendo le barriere linguistiche, anche se per parlare di perfezione c’è ancora strada da fare. Non siamo certo nello scenario immaginato da Douglas Adams con il suo “Babel fish” che permette di capire qualsiasi lingua della galassia, insomma, ma è anche vero – e non è un particolare da poco – che in questo campo ci giocano tutte le grandi firme tech, da Google a Microsoft, da Meta ad Apple passando per i principali produttori asiatici. Prendiamo la società della Mela: con l’ultima versione di iOs, la funzione Live Translation è arrivata sugli AirPods e consente di tradurre in real time una conversazione faccia a faccia, ascoltando la voce tradotta direttamente negli auricolari. Basta un gesto o un comando a Siri e la tecnologia invisibile che tanto piace ad Apple entra ancora una volta in scena sfruttando le capacità dell’AI. Meta, da parte propria, ha portato la traduzione vocale direttamente dentro gli occhiali Ray-Ban di seconda generazione, confermando la visione di una realtà aumentata che ci libererà dai canonici schermi: l’assistente intelligente integrato interpreta ciò che l’utente ascolta o dice, restituendo l’elaborato tramite i mini-speaker dell’apparecchio o trascrivendo il testo nell’app Meta AI. Altro “fronte caldo” delle traduzioni pilotate dall’AI è quello delle piattaforme di messaggistica, e qui l’esempio più popolare è quello di WhatsApp, dove la trasformazione di intere conversazioni o singoli messaggi avviene sul device dell’utente, rispettando la crittografia end-to-end.

La traduzione AI è diventata quindi una funzione strutturale degli smartphone. Samsung ha aperto la strada dotando i suoi Galaxy (dalla Serie S24 in avanti) di interprete simultaneo per gestire conversazioni faccia a faccia e telefonate, Google ha risposto con il suo Voice Translate integrato nei Pixel 10 che traduce le chiamate preservando il timbro vocale originale grazie all’elaborazione on-device e sulla stessa strada si sono incamminate le aziende cinesi, come Xiaomi, Oppo e soprattutto Honor, che con i Magic V5 ha integrato a bordo dispositivo un large speech model completo per attivare la traduzione automatica direttamente dal telefono, sganciandosi dal cloud.
La partita fra le BigTech è aperta anche sulle piattaforme di collaborazione in uso ad aziende e professionisti, con Google Meet e Microsoft Teams a sfruttare agenti AI proprietari o software di terze parti per assicurare la traduzione simultanea con voce sintetica e rendere questi strumenti sempre più utili e funzionali in riunioni e contesti di business. Interessante, in quest’ottica, l’ultima “trovata” della tedesca DeepL, vale a dire DeepL Voice, una tecnologia (già integrata in Teams e Zoom Meetings) che consente di parlare nella propria lingua durante una call mostrando sottotitoli tradotti in tempo reale agli altri partecipanti e tradurre dialoghi dal vivo via smartphone. Gli ultimi annunci della stessa Google e di OpenAI, infine, hanno riportato l’attenzione sulle chatbot e i modelli di intelligenza artificiale generativa. Con ChatGPT Translate, OpenAI inserisce il tassello della traduzione automatica nella sua galassia di servizi e lo fa con un elemento distintivo: il testo tradotto letteralmente è un punto di partenza per rielaborare l’output in funzione del contesto, trasformandolo in un contenuto “su misura”. TranslateGemma è invece l’ultima offensiva di Google: non un servizio consumer “tout court” ma una famiglia di modelli “open-weight” (di cui vengono rilasciati i pesi pre-addestrati per essere scaricati ed eseguiti localmente in modo personalizzato) pensati per sviluppatori e ricercatori e costruiti su Gemma 3, disponibili in tre taglie (4, 12 e 27 miliardi di parametri) e capaci di tradurre fino a 55 lingue. L’addestramento in due fasi di questo modelli punta a traduzioni più naturali e contestuali, ma ciò che rende l’annuncio importante, probabilmente, è la volontà di BigG di portare la sfida sui tool di traduzione a livello di infrastruttura.