PER “CORREGGERE” INTELLIGENZA ARTIFICIALE UN OSSERVATORIO EUROPEO A CA’ FOSCARI

Ha preso il via, in questi giorni di gennaio, AI4EU, un grande progetto europeo (79 partner, 20 milioni di finanziamento Horizon 2020) che intende coinvolgere ricercatori, innovatori e i talenti europei che si occupano di intelligenza artificiale. L’obiettivo è quello di rafforzare le competenze, promuovere nuove scoperte, ma anche dirimere le questioni etiche e valoriali che lo sviluppo di tanta dirompente innovazione può sollevare. L’Università Ca’ Foscari Venezia, attraverso lo European Centre for Living Technologies, si occuperà di creare un osservatorio sull’etica dell’intelligenza artificiale, in collaborazione con alcuni tra i massimi esperti, come Luc Steels, visiting professor a Ca’ Foscari. “Compito dell’osservatorio è proteggere la società europea dai possibili abusi di questa tecnologia – ha spiegato Marcello Pelillo, professore di Intelligenza artificiale a Ca’ Foscari e direttore di Eclt – assicurando il rispetto dei valori umani e delle regole europee, fornendo alla comunità di esperti e alle autorità europee informazioni aggiornate sulle conseguenze degli abusi”. A complicare la sfida, come ha scritto Pelillo in un articolo per SciTech Europa, ci sono tre aspetti critici legati all’intelligenza artificiale: opacità, neutralità e stupidità. Enrico Costa per il magazinenews di CF ha scritto un testo su questo progetto europeo. L’opacità degli algoritmi di machine learning, argomenta il professore cafoscarino, va di pari passo con la loro precisione. Più l’intelligenza della macchina riesce ad estrarre da una mole enorme di dati quelli che le sono utili e apprendere come migliorare la propria performance, più questa operazione sarà oscura per gli utenti, ma anche per gli esperti che volessero correggerla. “L’applicazione della AI in campi in cui si trattano dati sensibili – ha concluso Pelillo – può essere frenata dalla difficoltà degli utenti a comprendere la logica sottesa al lavoro degli algoritmi”. Inoltre, gli algoritmi, come tutta la tecnologia, non sono neutrali, bensì risentono dei pregiudizi, degli errori e delle distorsioni di chi li crea e gestisce. Celebre il caso di Tay, un software di Microsoft capace di gestire in modo automatico delle conversazioni su Twitter, che fu spento dopo sole 24 ore perché iniziò a rispondere ‘a tono’ a delle provocazioni, diffondendo messaggi razzisti e a sfondo sessuale. Per spiegare il comportamento stupido dell’intelligenza artificiale, Pelillo ha citato la terza legge della stupidità umana dell’economista Cipolla: una persona stupida è una persona che causa un danno ad un’altra persona o gruppo di persone senza nel contempo realizzare alcun vantaggio per sé od addirittura subendo una perdita. “Un ricercatore diede in esame l’immagine di un autobus a un potente algoritmo, che la identificò subito – è l’aneddoto che ha raccontato Pelillo – poi alterò qualche pixel e l’immagine che per un occhio umano era ancora un autobus, per il computer diventò uno struzzo. Immaginiamo quanto potrebbe essere pericolosa questa ‘stupidità’ dell’AI se applicata, ad esempio, alla guida autonoma”.
(nella foto sede centrale università Cà Foscari).

Lascia una risposta