Zangrillo (ministro PA):
“Un confronto multidisciplinare che fa progredire il dibattito sull’innovazione nel nostro paese”
(aun) – Perugia 24 set. 024 – Il convegno “IA nella PA: sfide e opportunità dell’intelligenza artificiale per la Pubblica Amministrazione di domani”, organizzato dalla Scuola Umbra di Amministrazione Pubblica e tenutosi martedì 24 settembre a Villa Umbra, ha affrontato le complesse questioni tecnologiche ed etiche che la Pubblica Amministrazione deve saper cogliere per ripensare il futuro.
L’evento, parte del ciclo di incontri “Formare per Innovare”, ha esplorato le implicazioni giuridiche, amministrative ed etiche dell’introduzione dell’IA nel settore pubblico.
“L’intelligenza artificiale è già tra noi – ha dichiarato Paolo Zangrillo, ministro per la pubblica amministrazione, nel suo videomessaggio ai partecipanti –. Siamo secondi al mondo nell’applicazione di strumenti di IA nei servizi pubblici e primi tra i paesi che hanno proposto progetti per futuri sviluppi. L’introduzione di queste tecnologie ci sta permettendo di ridurre la burocrazia e migliorare l’efficienza dei servizi ai cittadini. Tuttavia, al centro di tutto rimane il capitale umano. La priorità è formare i dipendenti pubblici affinché possano affrontare queste innovazioni con competenza e fiducia. In questo senso, la Scuola Umbra di Amministrazione Pubblica è un prezioso alleato nella diffusione della conoscenza e delle competenze necessarie. Senza un’adeguata preparazione del personale, rischiamo che l’innovazione non porti i risultati desiderati.”
Marco Magarini Montenero, amministratore unico della Scuola, ha aggiunto:
“La nostra missione non è solo formare, ma anche anticipare le sfide future. Dobbiamo essere in grado di captare i segnali del cambiamento e trasmettere queste conoscenze ai dipendenti pubblici, ai dirigenti e ai leader delle nostre istituzioni. Dietro ogni tecnologia, infatti, c’è una visione strategica, e la nostra strategia è chiara: fornire ai dipendenti pubblici non solo strumenti tecnici, ma anche la capacità di adottare e adattare queste tecnologie con saggezza e responsabilità. Questo non significa solo sapere come utilizzare l’intelligenza artificiale, ma anche comprendere le sue implicazioni etiche e sociali, anticipando i rischi e massimizzando le opportunità. L’IA è un’opportunità straordinaria per migliorare i servizi pubblici, ma senza una visione chiara e una preparazione adeguata, rischiamo di perdere il controllo del processo.”
Il convegno, coordinato da Corrado Giustozzi, esperto di sicurezza informatica e IA, e Lorenzo Allegrucci, vicepresidente dell’associazione ItaliaOggi, si è articolato in due panel tematici.
Nel primo, “IA e PA: aspetti strategici”, Mario Nobile, direttore generale dell’Agenzia per l’Italia Digitale (AgID), ha sottolineato l’importanza storica dell’intelligenza artificiale, osservando come tecnologie simili siano già in uso dagli anni Sessanta e come la loro evoluzione stia ora entrando in una fase di crescita esponenziale.
“Il nostro obiettivo principale è comprendere come e dove possiamo declinare le applicazioni dell’intelligenza artificiale all’interno della PA, identificando quei settori strategici dove queste tecnologie possono creare un vero vantaggio per le nostre comunità. Dobbiamo sfruttare queste opportunità per migliorare l’efficienza dei servizi pubblici, ma al contempo dobbiamo farlo con un approccio etico e sostenibile.”
Stefania Stefanelli, professoressa associata di diritto privato all’Università degli Studi di Perugia, ha affrontato l’AI Act europeo, descrivendo un approccio prudente, ma evidenziando l’uso di IA in settori sensibili, come la violenza familiare.
“L’intelligenza artificiale, così come è regolata dall’AI Act europeo recentemente approvato, rappresenta un progresso fondamentale per la società. Tuttavia, è essenziale capire come mettere a sistema le sue applicazioni più sofisticate, come ad esempio negli ambiti della giustizia e della protezione delle persone. Queste tecnologie possono fare molto, ma la loro gestione deve essere oculata, poiché un uso non controllato potrebbe avere effetti dannosi”.
Sauro Angeletti, direttore dell’ufficio per l’innovazione amministrativa e la formazione del Dipartimento Funzione Pubblica, ha posto l’accento sulla necessità di formazione specifica per il personale della PA, ribadendo l’importanza di non lasciare l’IA nelle sole mani di esperti tecnici. “Siamo già in ritardo su questo fronte. L’introduzione dell’intelligenza artificiale nella PA non può essere lasciata nelle mani dei cosiddetti ‘smanettoni’. Ogni dipendente deve avere le competenze necessarie per operare con questi nuovi strumenti. Altrimenti, ci ritroveremo a fronteggiare una burocrazia difensiva e una resistenza al cambiamento che potrebbe compromettere i benefici che queste tecnologie possono portare. La formazione deve essere interdisciplinare e di alta qualità, perché solo così possiamo garantire una transizione fluida verso l’era digitale.”
Anna Corrado, magistrata del TAR Lombardia, ha discusso la difficoltà della PA nel tenere il passo con l’automazione rispetto al settore privato, sottolineando la necessità di contemperare l’uso delle nuove tecnologie con il principio della sorveglianza umana e delle responsabilità amministrative.
“La Pubblica Amministrazione, rispetto al settore privato, incontra più difficoltà nell’adottare nuove tecnologie. Tuttavia, sono convinta che, con il tempo, riuscirà a trasformare le sue procedure in funzione delle nuove tecnologie. Il problema principale rimane la formazione del personale, che spesso è in ritardo rispetto alle innovazioni. Dovremo bilanciare l’automazione con la necessità di mantenere sempre un controllo umano sulle decisioni automatizzate, assicurando che la responsabilità amministrativa non venga mai meno.”
Eugenio Albamonte, pubblico ministero specializzato in crimini informatici e cyberterrorismo, ha evidenziato come l’intelligenza artificiale possa trovare applicazione anche nelle indagini sulla criminalità informatica:
“Lo scenario attuale vede conflitti a bassa intensità e difficili da attribuire, spesso provenienti da contesti ibridi nazionali e internazionali. Le nostre banche dati, spesso gestite da aziende private, rappresentano una vulnerabilità importante. Tuttavia, strumenti di IA, come i trojan, permettono di intercettare conversazioni online e scritte, mettendo le attività investigative allo stesso livello di quelle criminali. Questi strumenti ci permettono di affrontare le minacce digitali con un approccio più rapido e mirato, ma dobbiamo essere consapevoli che anche i criminali utilizzano le stesse tecnologie. Pertanto, è una sfida continua che richiede aggiornamenti costanti sia nelle tecnologie sia nelle competenze di chi le utilizza.”
Nel pomeriggio, il secondo panel denominato “IA e PA: aspetti tecnologici, etici e giuridici” ha ospitato gli interventi di: Stefano Quintarelli (imprenditore del digitale fondatore di Rialto Ventures), che ha approfondito la storia e lo sviluppo applicativo negli ultimi decenni dei sistemi algoritmici che hanno generato i sistemi di intelligenza artificiale. Successivamente, Giuseppe Corasaniti (professore ordinario di informatica giuridica, Università Mercatorum) e Federica Fedorczyk (postdoctoral researcher in diritto presso la New York University), hanno delineato i confini giuridici e i rischi connessi alle attuali applicazioni dell’intelligenza artificiale. Vittorio Calaprice (rappresentanza in Italia della Commissione Europea) sviluppato ulteriormente ha e un approfondimento specifico sull’etica dell’intelligenza artificiale da parte di Nicola Donti (filosofo e formatore in comunicazione). Spazio, poi, al panorama sulle applicazioni già operative nelle pubbliche amministrazioni a cura di Gianni Dominici (amministratore delegato Forum PA).