Intelligenza Artificiale. L’esigenza di un maggior controllo.

history 3 minuti di lettura

Il mondo dell’informatica in questi giorni è attento a quanto sta accadendo alla Conferenza Google I/O 2019. Il gigante del web prosegue spedito, come molte altre aziende, negli sviluppi dell’Intelligenza Artificiale che grazie a tutti i dispositivi che ognuno di noi usa è diventata protagonista della nostra esistenza.
La sua diffusione  avviene anche tramite il potenziamento degli algoritmi che sono alla base del funzionamento delle applicazioni. Qui, dando un’occhiata ai vari reportage sulla Conferenza nel web, portiamo ad esempio il caso dei grandi miglioramenti della tecnologia Duplex. Una tecnologia che consente ad un robot di fare delle chiamate, per nostro conto, ad esempio per prendere un appuntamento dal medico. Questa è una funzione dell’Assistente Google che è stata costruita con la rete neurale partendo da Tensor Flow, una libreria open source di Google, per l’apprendimento automatico (machine learning), tecnologia con la quale il software che apprende da sé. Per fare in modo che il tutto funzionasse e gli esempi di telefonate fatte dai robot sono straordinarie per fluidità e chiarezza, l’azienda ha fornito al sistema, per apprendere, un grandissimo numero di conversazioni telefoniche anonime, utili per interpretare il linguaggio umano e riprodurre la conversazione robot-operatore umano.

Comunque è solo un granello di una spiaggia molto grande dove tutte le aziende si stanno muovendo o per produrre sistemi con IA o per usarla. Ma in questo articolo non vogliamo occuparci di contenuti e progetti ma ricordare quanto sia delicata e potenzialmente pericolosa questa tecnologia senza un controllo, delle regole, dei paletti che possano ridisegnare confini e modalità di accesso.

A questo proposito facciamo nostre le parole chiarificatrici in un articolo su Nature, perché ricche anche di casistiche reali, di Yochai Benkler, professore di studi giuridici imprenditoriali alla Harvard Law School di Berkman e co-direttore alla facoltà del Berkman Klein Center for Internet & Society della Harvard University, a proposito degli algoritmi.
Il suo intento è quello di chiedere un maggior controllo sull’indipendenza della ricerca e «sul fatto che l’industria debba condividere dati sufficienti al fine di essere tenuta responsabile», perché i danni che potrebbe provocare alle comunità sono enormi. E così parlando degli algoritmi che sono oramai dietro tante attività della nostra vita quotidiana, dalla guida delle auto alle ricerche su internet all’ascolto della musica alle cure mediche ai finanziamenti, scrive che «poiché gli algoritmi sono basati su dati esistenti che riflettono le disuguaglianze sociali, rischiano di perpetuare l’ingiustizia sistemica a meno che le persone non progettino consapevolmente misure compensative. Ad esempio, i sistemi di intelligenza artificiale per predire la recidività potrebbero incorporare un controllo differenziato delle comunità bianche e nere o quelli per valutare le probabilità di successo nelle candidature potrebbero basarsi su uno storico delle promozioni di genere. All’interno di una scatola nera algoritmica, i pregiudizi sociali sono resi invisibili e inspiegabili. Se progettati solo per scopi di lucro, gli algoritmi necessariamente divergono dall’interesse pubblico: asimmetrie informative, potere contrattuale ed esternalità pervadono questi mercati. Ad esempio, Facebook e YouTube traggono profitto dalle persone che rimangono sui loro siti e offrono agli inserzionisti la tecnologia per fornire messaggi mirati. Questo potrebbe rivelarsi illegale o pericoloso. Il Dipartimento per gli alloggi e lo Sviluppo Urbano degli Stati Uniti ha incolpato Facebook di effettuare discriminazione negli annunci di case (correlati a razza e religione potrebbero essere usati per influenzare chi vede un annuncio). L’algoritmo di raccomandazione di YouTube è stato implicato nell’alimentare cospirazioni anti-vaccino. Considero questi tipi di servizi come emanazioni dell’industria high-tech: portano profitti, ma i costi sono sostenuti dalla società. (Le aziende hanno dichiarato che lavorano per garantire che i loro prodotti siano socialmente responsabili)» [1].

Non mi sembra ci sia molto altro da aggiungere se non che è urgente una ripresa del controllo pubblico sulle regole e sul loro rispetto da parte delle multinazionali che sempre più, attraverso attività di lobbing, influenzano le legislazioni e portano a creare istituzioni di giudizio non indipendenti.
Ciro Ardiglione

[1] Yochai Benkler, “Don’t let industries write the rules for AI”, https://www.nature.com/articles/d41586-019-01413-1, 1 Maggio 2019; Nature 569 , 161 (2019).

newsletter mentinfugaIscriviti alla newsletter

-----------------------------

Se sei giunto fin qui vuol dire che l'articolo potrebbe esserti piaciuto.
Usiamo i social in maniera costruttiva.
Condividi l'articolo.
Condividi la cultura.
Grazie

In this article