lunedì, Ottobre 18

Intelligenza artificiale: i passi dell’UE Il piano istituzionale europeo e le pratiche per l'implementazione dell'I.A.

0

Nicola Gatti sintetizza come si sia operato nell’ultimo anno, descrivendo l’intero processo che va dall’Ue agli Stati membri, per arrivare all’Italia: “A gennaio 2017 il parlamento europeo ha approvato il report ‘European civil law rules on robotics, primo passo verso una legge europea per regolamentare il settore dell’intelligenza artificiale (I.A.) e della robotica. In attesa che la Commissione europea decida se accettare quanto indicato dal report e di varare una legislazione continentale su questi temi – dagli aspetti di responsabilità civile in caso di danno arrecato da dispositivi robotici e di intelligenza artificiale fino alla costituzione di un’agenzia europea per il settore – il parlamento continua a promuovere la discussione sulle azioni necessarie per regolare il settore. Già nel report era stata auspicata l’istituzione di un codice di condotta etica che ricercatori, progettisti, ingegneri e tecnologi che lavorano nelle varie applicazioni di robotica e Ia dovrebbero adottare su base volontaria per autocertificare comportamenti conformi a standard etici e legali condivisi a livello europeo. In seguito il parlamento ha anche lanciato una consultazione pubblica – aperta da febbraio a giugno 2017 con contributi non solo dai Paesi membri – per raccogliere opinioni sugli aspetti etici, legali, economici e sociali dell’innovazione. I risultati sono stati da poco pubblicati e hanno confermato la necessità di leggi specifiche su robotica e I.A. Il 90% considera una priorità regolare i problemi relativi a privacy, etica e diritti umani che potrebbero nascere dall’introduzione di queste tecnologie in svariati settori, dalle automobili a guida autonoma ai droni per uso civile, fino alla presenza di medici-robot negli ospedali. Quasi la totalità di coloro che hanno risposto alla consultazione (96%) si augura, inoltre, che la regolamentazione avvenga in maniera concertata a livello europeo o internazionale, così da assicurare controlli più efficaci”.

“In attesa dell’Europa, gli Stati membri stanno cominciando ad affrontare la questione a macchia di leopardo. In Italia persino in settori non propriamente innovativi come la Pubblica amministrazione e l’ambito sanitario c’è chi se ne sta occupando, con manifesti, tavoli e task force, anche istituzionali. Nella pubblica amministrazione è nata la task force sull’Intelligenza artificiale, promossa dall’Agenzia per l’Italia digitale della presidenza del Consiglio, con lo scopo di «studiare le opportunità offerte dall’Intelligenza artificiale per migliorare i servizi pubblici e semplificare la vita dei cittadini». Il primo compito del gruppo – composto da 30 esperti (di cui solo 9 donne) – sarà produrre entro inizio 2018 un “libro bianco’ con cui suggerire eventuali progetti pilota e le azioni necessarie ad allinearsi alle prassi internazionali di utilizzo virtuoso di tecnologie di I.A. nei circuiti della pubblica amministrazione. A questo lavoro (che si svolge in diretta Facebook) si affianca la nascita di una community, ospitata dal sito ad hoc ia.italia.it, in cui i temi etici imperversano in molti thread di discussione (sia in italiano sia in inglese – anche se di commentatori non madrelingua italiani ce ne sono ben pochi e in generale la community stenta a decollare). Le applicazioni di soluzioni innovative di IA necessitano di un preciso framework legale per poter garantire trasparenza, protezione dei dati personali e tutela dei diritti delle persone fisiche e giuridiche. L’obiettivo di questa sfida, trattata dalla ‘task foce IA’, è mappare il contesto giuridico ed evidenziare le principali problematiche, delineando e suggerendo un corretto perimetro di applicazione”.

Una questione specifica, con risvolti anche sia sul piano democratico che sulla formazione e l’istruzione ai vari livelli, è se esistano evidenze rispetto alla possibilità che sviluppare l’intelligenza artificiale possa contribuire alla riduzione del digital divide, cioè, del divario esistente tra chi ha accesso al mondo digitale e chi ne è privo. Non è facile rispondere a tale interrogativo. Ida Cortoni, in relazione a ciò, si esprime così: “Al momento non conosco statistiche e dati relativi al rapporto fra digital divide e sviluppo dell’IA, tuttavia rispondo  alla domanda riprendendo l’approccio sulle ‘capabilities’ di Amartya Sen e Martha Nussbaum, che ha ispirato molti personali interventi di ricerca in questo ambito, per riflettere sulla relazione fra IA e digital divide. Secondo gli autori, l’implementazione delle cosiddette libertà strumentali e strutturali all’interno di un contesto sociale favorisce certamente lo sviluppo delle cosiddette libertà individuali o capabilities, rendendo il cittadino libero di costruirsi la vita che desidera. In riferimento al digitale, la diffusione e applicazione di normative che favoriscano l’inclusione del digitale, l’investimento di risorse in questo ambito, l’attivazione di politiche che lo regolano e regolamentano, nonché una discreta dotazione infrastrutturale e tecnica in un contesto sociale non possono far altro che favorire e incentivare la diffusione di una cultura sulla comunicazione e sul digitale, integrata nelle attività della quotidianità, che certamente può ridurre il digital divide. Detto ciò, la disponibilità delle libertà strutturali non sempre si traduce in altrettante libertà individuali, ovvero, pur avendo un contesto sociale, politico, economico e sociale orientato verso l’inclusione del digitale, non è detto che il singolo individuo sia in grado, o abbia semplicemente la volontà, di mettere al servizio i servizi sociali offerti per il potenziamento delle proprie possibilità, formarsi per conoscere e gestire meglio la società contemporanea. In tal senso, la sua capacitazione si trasforma in incapacitazione, trovandosi coinvolto, tanto da esserne responsabile, del proprio digital divide”. Sintetica la valutazione di Nicola Gatti: “Su questo non so dire nulla. Ho trovato alcuni articoli che dicono il contrario, cioè che il digital divide aumenterà. Questi non sono, però, articoli scientifici”.

Dopo un’ampia disamina sia sul quadro normativo che sullo stato dell’arte, appare inevitabile chiedersi quali siano le frontiere attuali su cui si sta orientando la ricerca per i prossimi anni. In merito a ciò, Ida Cortoni spiega che “Dal punto di vista della ricerca universitaria, i campi disciplinari che si occupano di questi argomenti sono molteplici: dalla pedagogia alla sociologia, dalle scienze della comunicazione all’ingegneria, dalle neuroscienze alla stessa psicologia. Nel mio settore, quello dei processi culturali e comunicativi, la ricerca si sta orientando prevalentemente su due questioni: quella relativa allo sviluppo di indicatori connessi alle competenze digitali a partire dai quali lavorare sulle strategie e gli strumenti per valutare e certificare le competenze digitali; quella relativa all’analisi del contesto sociale familiare e scolastico entro cui maturano alcune competenze digitali, nonché i pregiudizi, propensioni, atteggiamenti di fruizione che si riflettono nel comportamento fruitivo del giovane. A riguardo cito le ultime esperienze di ricerca condotte nel mio dipartimento, il CoRIS della Sapienza, in questo ambito e rivolte prevalentemente ai bambini della scuola dell’infanzia. Parlo di due ricerche (Infanzia digitales e Media usage in pre-school) incentrate sulla sperimentazione di un protocollo formativo sull’integrazione delle app nelle attività didattiche con bambini di 4-5 anni. Queste ricerche si sono focalizzate sia sulle osservazioni delle implicazioni cognitive e metacognitive legate all’utilizzo del mezzo sui bambini under 6, che delle strategie didattiche più appropriate da mettere in campo in forme di sperimentazione che prevedono l’integrazione del digitale. Non a caso gli stessi poli tematici sono stati oggetto di recente dibattito dal Ministro dell’Istruzione, riguardo alle opportunità di integrazione dello smartphone a scuola”.

Nicola Gatti pone una riflessione di metodo: “Sarebbe opportuno definire cosa si intende per intelligente e cosa no. Buona parte dei dispositivi di nuova generazione sono detti smart, ma non sono da considerarsi intelligenti, almeno per l’accezione usata nella comunità scientifica. Esiste un abuso del termine intelligenza artificiale, soprattutto per i prodotti commerciali. Capire cosa è intelligente e cosa no è stato uno dei compiti principali dell’Osservatorio in Intelligenza Artificiale del Politecnico di Milano, di cui sono uno dei 3 direttori. Solo in alcuni campi ci sono vere soluzioni di AI commerciali. Tra questi, applicazioni di elaborazioni del linguaggio naturale (riconoscimento del parlato, comprensione del linguaggio scritto, sintesi vocale) e tecniche di riconoscimento di immagini tramite reti neurali (deep learning). Per quasi tutte le atre applicazioni, le tecniche proposte in letteratura scientifica sono molto lontane da essere commercializzate in prodotti di massa. Queste sono utilizzate soprattutto in applicazioni che sono studiate ad hoc. In buona parte sono progetti accademici oppure progetti svolti in collaborazione tra aziende e accademia. Detto questo, nella comunità scientifica di intelligenza artificiale non si sono affatto studiate applicazioni per smartphone e dispositivi elettronici negli ultimi 10 anni. Questo rafforza quanto detto sopra, cioè, che quello che si trova negli smartphone non è, a parte rarissimi casi, AI. Non c’è un’area di ricerca principale in cui si lavora adesso. Il mondo dell’AI è difficile da raccontare, troppo sfaccettato, troppo dispersivo”.

Visualizzando 2 di 2
Visualizzando 2 di 2
Condividi.

Sull'autore

End Comment -->