Nel silenzio che separa settanta milioni di persone dal resto del mondo, la tecnologia sta costruendo ponti inaspettati. Sono i numeri della comunità sorda globale, una popolazione equivalente a quella di un grande Paese europeo, eppure spesso invisibile nelle statistiche dell’accessibilità. Mentre le città si riempiono di rampe per carrozzine e segnali acustici per non vedenti, la comunicazione per chi non può sentire resta un territorio inesplorato, affidato a pochi interpreti e a una consapevolezza sociale ancora fragile.
L’Africa orientale, in particolare il Kenya, sta diventando un laboratorio sorprendente per l’innovazione nell’accessibilità linguistica. Qui, dove le risorse sono limitate ma l’ingegno abbonda, giovani sviluppatori stanno creando soluzioni che potrebbero cambiare il volto della comunicazione globale. Terp 360, un’applicazione che traduce voce e testo in lingua dei segni attraverso avatar tridimensionali, rappresenta uno degli esperimenti più avanzati in questo campo. Sviluppata da Elly Savatia e dal team di Signvrse, l’app nasce dall’osservazione diretta di un problema sistemico: aule universitarie con centinaia di studenti sordi e un solo interprete disponibile, costretto a spostarsi da una classe all’altra lasciando intere fasce orarie scoperte.
Quando la tecnologia diventa interprete
Il funzionamento di Terp 360 si basa su un’architettura a tre livelli: riconoscimento vocale, traduzione automatica e rendering gestuale. A differenza dei primi tentativi di digitalizzazione della lingua dei segni, che producevano movimenti robotici e difficilmente interpretabili, questa nuova generazione di applicazioni punta sulla naturalezza espressiva. Gli avatar non si limitano a riprodurre segni statici, ma incorporano le sfumature facciali e corporee che costituiscono la grammatica non verbale delle lingue dei segni.
Il database dell’applicazione conta attualmente oltre 2300 segni, un vocabolario che copre le conversazioni quotidiane ma che deve ancora espandersi per affrontare terminologie specialistiche. I test condotti su circa duemila utenti hanno mostrato risultati incoraggianti in termini di comprensibilità, anche se permangono sfide significative legate alle varianti regionali delle lingue dei segni e alle differenze culturali nella gestualità.
Il mercato degli interpreti e il divario globale
La scarsità di interpreti qualificati non è solo una questione africana. Negli Stati Uniti, secondo i dati del Registry of Interpreters for the Deaf, ci sono circa 15.000 interpreti certificati per una popolazione sorda stimata in oltre 500.000 persone. In Europa la situazione varia drammaticamente da Paese a Paese: mentre nazioni come la Svezia hanno investito massicciamente nella formazione e nel riconoscimento professionale degli interpreti, in altre regioni il servizio è praticamente inesistente. Il costo medio di un’ora di interpretariato si aggira tra i 60 e i 150 dollari, una cifra proibitiva per molte famiglie e per istituzioni con budget limitati.
Questa disuguaglianza economica crea una stratificazione nell’accesso ai servizi. Gli ospedali delle grandi città possono permettersi interpreti professionisti, ma le cliniche rurali no. Le università private garantiscono supporto agli studenti sordi, mentre quelle pubbliche faticano a coprire le ore di lezione. Le aziende tecnologiche offrono benefit inclusivi, mentre piccole imprese non possono sostenere tali costi. L’intelligenza artificiale si inserisce in questo vuoto, non come sostituto ideale ma come soluzione pragmatica a un problema che non può aspettare.
Oltre la traduzione: le sfide dell’espressività
La lingua dei segni non è semplicemente una trasposizione gestuale delle lingue vocali. Ogni comunità sorda ha sviluppato una propria lingua con grammatica, sintassi e idiosincrasie culturali uniche. L’American Sign Language (ASL) differisce profondamente dalla British Sign Language (BSL), nonostante l’inglese sia la lingua vocale di riferimento per entrambe. In Africa coesistono decine di varianti, spesso non documentate sistematicamente.
Gli avatar digitali devono affrontare una complessità linguistica che va oltre il movimento delle mani. Le espressioni facciali non sono ornamenti ma elementi grammaticali: sopracciglia alzate possono trasformare un’affermazione in domanda, mentre il movimento del busto indica il soggetto della frase. La velocità di esecuzione, le pause, l’intensità dei gesti contribuiscono al significato. Replicare questa ricchezza espressiva richiede modelli di intelligenza artificiale sempre più sofisticati, capaci di catturare non solo la meccanica ma la semantica della comunicazione.
L’educazione come frontiera dell’inclusione
L’espansione prevista di Terp 360 in Rwanda e Uganda solleva una questione più ampia: fino a che punto la tecnologia può compensare l’assenza di educazione diffusa sulla lingua dei segni? Alcuni Paesi scandinavi hanno introdotto elementi base di lingua dei segni nei curricoli scolastici, creando generazioni di udenti capaci di comunicare a livello elementare con persone sorde. Questa scelta educativa ha prodotto effetti misurabili sull’inclusione sociale e sull’occupazione della comunità sorda.
L’Italia, ad esempio, ha riconosciuto la Lingua dei Segni Italiana (LIS) solo nel 2021, con decenni di ritardo rispetto ad altre nazioni europee. Il riconoscimento legale, tuttavia, non si è ancora tradotto in insegnamento sistematico nelle scuole o in servizi di interpretariato capillari. La tecnologia rischia di diventare una scorciatoia che perpetua l’ignoranza collettiva, permettendo alla maggioranza udente di evitare l’impegno di apprendere anche solo i fondamenti di una lingua parlata da milioni di concittadini.
Il futuro della comunicazione inclusiva
Le applicazioni di intelligenza artificiale per la traduzione in lingua dei segni si stanno moltiplicando. Google ha presentato prototipi di traduzione in tempo reale, Microsoft ha integrato funzioni di accessibilità nei propri sistemi operativi, startup in tutto il mondo stanno sperimentando approcci diversi. Il mercato dell’accessibilità tecnologica è stimato in crescita del 12% annuo, spinto sia da obblighi legislativi sia da una sensibilità crescente verso l’inclusione.
Ma la vera sfida non è tecnologica. È culturale. Un’app può tradurre un discorso, ma non può costruire empatia. Può facilitare una transazione commerciale, ma non può creare amicizia. Può rendere accessibile un’informazione, ma non può generare appartenenza. La comunità sorda non chiede solo di essere capita, ma di essere parte integrante della conversazione sociale. E questo richiede uno sforzo che nessuna intelligenza artificiale, per quanto avanzata, può compiere al posto dell’umanità.
L’esperienza di Savatia in Kenya dimostra che le soluzioni più innovative spesso nascono dove il bisogno è più urgente e le risorse più scarse. La domanda che l’Occidente dovrebbe porsi è se aspetterà che la tecnologia risolva un problema che potrebbe essere affrontato con investimenti in educazione e cultura, oppure se coglierà l’opportunità di costruire società autenticamente bilingui, dove la sordità non sia una condizione che richiede mediazione, ma una differenza linguistica rispettata e valorizzata.
No#News Magazine è il periodico dell’ozio, non nell’accezione oblomoviana del temine, ma piuttosto in quella dell’Antica Roma dell’otium, ovvero del tempo (libero) da impiegare in attività di accrescimento personale. L’ozio, quale uso ponderato del tempo.
Una luogo di analisi e dibattito (senza essere troppo pomposi) sulle numerose sfaccettature e forme che la cultura può assumere e della pienezza di emozioni che questa può dare.
Una rivista che osserva e narra il fermento delle “nove arti” e che indaga la società odierna al fine di fornire approfondimenti meditati e di lungo respiro.

