L’intelligenza artificiale è ancora così popolata di criticità che le applicazioni su larga scala su cui tutti scommettono sono ancora di là da venire. Spesso balzano alle cronache casi che fanno rumore: se un cartello stradale ha degli adesivi appiccicati in un certo modo, è molto probabile che le auto a guida automatica non ne riconoscano il significato e possano scambiare uno stop con una velocità ridotta, se va bene. E’ solo un esempio.
Il problema allora è individuare cosa non vada nell’intelligenza delle macchine e come si possa risolvere. Sarà questo uno dei compiti nelle mani dell’Osservatorio Europeo sull’intelligenza artificiale, appena nato e che avrà alla guida Marcello Pelillo, docente di Computer Science all’Università Ca’ Foscari e direttore dello European Centre for Living Technologies. Contemporaneamente, Ca’ Foscari, assieme ai team di ricerca di Cagliari, Siena, Firenze, ha comincerà a breve un progetto tutto italiano proprio sulle criticità della AI: 3 anni di tempo e 915 mila euro per mettere nero su bianco alcune soluzioni.
Professore, cos’è questo nuovo Osservatorio europeo?
«L’Osservatorio nasce da un più ampio progetto europeo, avviato a gennaio di quest’anno, lo AI4EU. Un impegno considerevole, parliamo di 20 milioni di euro di fondi Horizon 2020 e79 partner coinvolti. E’ un progetto che risponde a una necessità: stretta nella morsa tra Stati Uniti e Cina, per la prima volta l’Unione Europe prova a tracciare una propria strategia nel campo delle tecnologie intelligenti».
Dunque, l’Osservatorio è parte di questa strategia.
«Sì, l’Osservatorio è uno strumento per far dialogare, per la prima volta, soggetti pubblici e privati, grandi imprese e centri di ricerca, governi e studiosi di paesi diversi che si riuniscono per dotare l’Unione Europea di una visione propria e quindi di una strategia a lungo termine. Abbiamo tre anni di tempo. Pensiamo di realizzare workshop e consultazioni pubbliche aperte ai cittadini europei. Per questo lavoreremo in quattro working group su altrettante questioni-chiave che interrogano l’intelligenza artificiale: il campo etico, politico, socio-economico e culturale. Cioè gli ambiti in cui tutte le criticità che verifichiamo nelle applicazioni intelligenti vengono alla luce causando problemi anche estremamente delicati».
Lei di recente in un saggio su SciTech Europe ha indicato tre criticità: opacità, stupidità e neutralità. A che grado di maturità è l’intelligenza artificiale?
«Da 2012, anno in cui si è cominciato a utilizzare il deep learning, la soglia di errore nella classificazione delle immagini si è abbassata drasticamente: prima si aggirava attorno al 26% e dopo di allora al 16%. La velocità dei miglioramenti è impressionante: gli ultimi studi hanno ulteriormente abbassato quella soglia fino al 3,8%. Sulla stessa base di dati, la percentuale di errore umano è stimata al 5%. Significa che abbiamo macchine super-human? La risposta è no. C’è una aleatorietà talmente grande che quei dati svelano solo una parte di verità».
Come affrontare dunque le tre criticità?
«Credo che la chiave stia nella prima, l’opacità, ed è su quella che più ci si sta concentrando. Se e quando riusciremo a risolverla, anche le altre due potranno essere affrontate. Dico se e quando, perché la soluzione è ancora lontana. Il problema sta nel fatto che i modelli di deep learning delle macchine che non sono trasparenti: è come avere delle enormi black boxes con milioni di dati e di parametri che devono essere sintonizzati contemporaneamente in fase di apprendimento. Il fatto è che di fronte a risultati erronei, noi non sappiamo come “aprire” quelle scatole e come intervenire per “aggiustarle”. Dunque, il primo obiettivo è di renderle più trasparenti. Ora, ad esempio, si sta provando con tecniche di debugging, l’intervento sugli algoritmi, importandone il metodo al machine learning. Ad ogni modo è chiaro che opacità e stupidità vanno di pari passo».
E la neutralità?
«Una macchina impara dei dati e quei dati possono avere dei pregiudizi, dipendendo da un fattore umano: chi e come sceglie quei dati, come li associa, da dove li prende. Un esempio eclatante è quello della coppia afroamericana “riconosciuta” da Google come gorilla: in questo caso opacità, stupidità e neutralità si intrecciano. A distanza di tre anni, Google non è ancora riuscito a venirne a capo. Ma attenzione: quel fattore umano sarà sempre irriducibile, i dati avranno sempre un pregiudizio. Il problema è renderlo insignificante. E questo ci porta a un’altra cosa».
Cosa?
«Prendiamo
Compas, il programma utilizzato da
alcune corti americane per predire il livello di recidiva di un criminale e
aiutare i giudici a dettare le sentenze. Con quali criteri? Con che capacità di
giudizio? Qui le tre criticità tornano ancora, aprendo una questione etica e
politica enorme. Individuare dei limiti rientrerà nel lavoro del nostro Osservatorio,
il che potrebbe tradursi in linee guida, provando a trovare un equilibrio tra libertà
di ricerca ed effetti sociali. Non solo: sono tutte aperte le questioni di chi
detiene questi strumenti e l’uso che ne fa, che sia un privato che ha il
monopolio o che sia un’entità statuale».
Sembra pessimista.
[sorride] «I problemi che abbiamo di fronte sono complessi e chiedono il coinvolgimento di tutti gli attori in gioco e del livello politico e decisionale in particolare. Grandi aziende cinesi stanno trattando milioni di dati di riconoscimento visuale di altrettante persone e cercano ad esempio un modo per procedere per clustering, quindi raggruppare foto simili delle stesse persone. Quali risvolti pone questa operazione? Quale rapporto si apre tra entità statuali e privati? Oppure, esempio meno compromesso con le questioni etiche: quando saranno sicure le auto a guida automatica? Davvero sostituiranno tout court il traffico? Io credo di no, almeno nel breve e medio periodo, e penso che potranno circolare in certi contesti urbani in qualche modo protetti. Ecco, anche per questo saranno così importanti le linee-guida che usciranno dal lavoro dell’Osservatorio europeo».
la Stampa