Sconto crediti fiscali

Finanziamenti e contributi

 

Test di conformità per applicazioni di AI: così si tutela la privacy


Si chiama InfoAICert ed è curato dall’università di Genova e da Tinexta Infocert che, insieme, affrontano la sfida della futura certificazione di conformità per l’intelligenza artificiale in un progetto di ricerca applicata orientato a creare un sistema di certificazione in Europa, simile al marchio CE, per garantire tutti i requisiti richiesti dall’AI Act europeo.

Vuoi acquistare in asta

Consulenza gratuita

 

Ne abbiamo parlato con il Fabio Roli, responsabile scientifico del progetto.

L’AI act e le sue prescrizioni

L’Artificial Intelligence Act (AI Act), è il regolamento dell’Unione Europea che introduce nuove regole sull’uso dell’AI, classificandone le applicazioni per livello di rischio.

Tra le aree a rischio “alto” vi sono i dispositivi medici, ma anche gli strumenti in grado di influenzare comportamenti e decisioni individuali.

In questo contesto nasce la necessità di uno standard di valutazione della conformità dell’AI, come spiega il professor Roli “non tutto sarà soggetto a certificazione: dipenderà dal rischio per i cittadini, solo le applicazioni dell’AI che il regolamento europeo considera ad alto rischio saranno soggette a valutazione della conformità e quindi certificate. Ma se si acquistano giocattoli con un bollino di sicurezza, è giusto che anche un prodotto che usa AI abbia un marchio che tuteli l’utente finale da ogni forma di rischio o potenziale danno che può dipendere spesso da come l’AI è stata progettata e addestrata”

La Fondazione SERICS e la ricerca in cyber security

La Fondazione SERICS (Security and RIght in CyberSecurity Digital Space) grazie al PNRR promuove l’innovazione e la ricerca nel campo della sicurezza informatica e della protezione dei diritti digitali.

Opportunità uniche acquisto in asta

 ribassi fino al 70%

 

Dalla sua costituzione ha avviato 10 spoke di ricerca sui temi della security applicata e, recentemente, grazie al progetto ARTIC è stato possibile contribuire alla divulgazione di vulnerabilità informatiche nei sistemi anticollisione degli aerei.

Fra i 10 spoke, ciascuno caratterizzato da un tema portante, lo spoke 3 si propone di analizzare le metodologie di attacco emergenti e di sviluppare metodi avanzati per la rilevazione di attacchi e l’individuazione di linee guida per la progettazione di sistemi informatici che garantiscano una ridotta vulnerabilità a nuove categorie di attacco.

Fra i quattro progetti che costituiscono l’AT 3, c’è il progetto “Project Science and engineering Of Security of Artificial Intelligence (SOS_AI)” coordinato dal Professore UNIGE Fabio Roli.

I punti cardine del progetto InfoAICert

Proprio l’esperienza della ricerca SOS_AI sulla valutazione di AI è alla base del progetto InfoAICert che, partito il primo maggio 2025 (durata 5 anni) con la collaborazione del partner Tinexta Infocert e il coinvolgimento e del laboratorio sAIfer dell’Università di Genova (75 ricercatori e professori provenienti da tutta Italia e da altri paesi, distribuiti tra le sedi di Genova e Cagliari), si propone di promuove l’innovazione e la ricerca nel campo della sicurezza informatica e della protezione dei diritti digitali mediante la realizzazione di una piattaforma di servizi in grado di valutare con specifici test tecnici la conformità di sistemi di intelligenza artificiale al regolamento europeo, garantendo trasparenza, sicurezza, assenza di bias discriminatori e tutela dei dati personali.

Il progetto si rivolge a produttori e fornitori di sistemi che usano l’AI che potranno utilizzare la piattaforma per i loro test pre-commercializzazione. Il progetto InfoAICert è stato finanziato dal bando FISA, Fondo Italiano Per Le Scienze Applicate.

L’idea alla base di questo tipo di progetti, spiega il prof. Roli è “prendere idee di ricercatori universitari che siano ancora TRL basso (il Technology Readiness Level è un sistema di misurazione che indica il livello di maturità di una tecnologia, utilizzato per valutare quanto una tecnologia sia avanzata nel suo sviluppo, dalla ricerca di base fino all’applicazione industriale n.d.r.) e vedere se esiste un attore industriale che la apprezza e vi investe per trasformarla in un prototipo pronto per la commercializzazione sul mercato (TRL 7 e 8)”.

“In questo caso”, continua il responsabile scientifico del progetto, “i risultati di SOS_AI potranno essere incorporati in una piattaforma che fornisca un servizio di verifica di conformità rispetto alla legislazione europea dell’AI act, secondo cui un prodotto di AI per usi ad alto rischio, deve poter essere verificato per analizzarne la conformità alla direttiva europea. Quanto più tali test sono standardizzati e automatizzabili e tanto maggiore potrà essere la capacità degli enti tecnici certificatori di dare risposte qualitativamente elevate”.

Il professor Roli spiega ancora che l’obiettivo ultimo del progetto è “costruire un mercato europeo in cui i consumatori possano fidarsi delle tecnologie che usano ogni giorno perché l’IA sta entrando in modo pervasivo nella nostra vita e dobbiamo essere certi che lo faccia in modo etico, sicuro e controllato”.

Mutuo 100% per acquisto in asta

assistenza e consulenza per acquisto immobili in asta

 

Dunque, se l’Europa con l’AI act ha avviato un percorso di AI “made in Europe” che tenga insieme innovazione tecnologica e rispetto dei diritti fondamentali dei cittadini, il progetto si propone di essere uno attuatore di tali principi di affidabilità e regolamentazione per contribuire ad AI ‘a misura di cittadino’.

Il sistema di test delle applicazioni di AI

In termini di test capaci di valutare e verificare applicazioni di intelligenza artificiale è cruciale adottare sia standard che test specifici. L’università di Genova è coinvolta nei tavoli di standardizzazione del CEN (Comité Européen de Normalisation) e del CENELEC (Comité Européen de Normalisation Électrotechnique) ma a seconda dei dati di applicazione e di cosa usa un’applicazione, i test possono essere molto diversi.

In proposito, il professor Roli spiega che “Gli specifici test tecnici dipendono dallo specifico aspetto del sistema di AI soggetto a valutazione. Nel caso del progetto InfoAICert l’obiettivo concreto tenendo conto delle prescrizioni di legge dell’European AI Act, quello di sviluppare dei test tecnici, il più possibile quantitativi e oggettivi che consentano di ‘verificare’ se le prescrizioni di legge dell’European AI Act sono soddisfatte, e quindi se il sistema di AI è ‘’conforme’ all’European AI Act”.

In sostanza, aggiunge, “la traduzione di prescrizioni in test serve a ottenere il CE MARK ovvero il bollino europeo di conformità secondo diversi criteri: security, robustezza, trasparenza, privacy e data governance, equità, impatti ambientali ed altre caratteristiche generali”.

Per individuare e concretizzare un sistema certificativo di criteri allineati all’AI act, è necessario capire cosa misurare e come. Spiega il prof. Roli “che questa è la sfida che ci siamo posti nel nostro progetto e che abbiamo chiamato “debugging the security evaluation for AI systems”.

Lo scopo è proprio quello di validare i test di validazione dell’AI per evitare di dire che un sistema di AI è sicuro/conforme quando invece non lo è (falso positivo).

Le esperienze ed i risultati del progetto SOS AI sono la base di partenza del progetto InfoAICert. SOS_AI è stato un progetto di ricerca di base (fino a TLR 2, 3) che si è occupato di sviluppare le metodologie alla base di test tecnici misurabili per ‘verificare’ se le prescrizioni di legge dell’European AI Act fossero soddisfatte.

Dilazione debiti

Saldo e stralcio

 

InfoAICert riparte da lì e aggiunge attività di ricerca industriale (svolta dall’azienda Tinexta Infocert), per arrivare ad una piattaforma con TLR 7 che consenta di fornire un servizio di ‘compliance’ mediante test tecnici misurabili.

Applicazioni e usi della piattaforma di test

Attualmente il progetto è nella sua fase di partenza ma idealmente lo schema di funzionamento il processo nella figura sottostante.

L’accesso alla piattaforma potrà essere reso disponibile ai certificatori, spiega il prof Roli “sottomettendo il sistema di AI nella forma di codice eseguibile, oppure dando l’accesso via API o anche fornendo una descrizione precisa di come è fatto il sistema AI nella forma di un AI Bill of Materials.

Un ulteriore elemento di innovazione sarà infatti quello di definire una descrizione proprietaria standardizzata di un sistema AI che chiameremo AI Bill Of Materials.

Eventualmente è stato anche prevista la possibilità di verificare la conformità di un sistema di AI durante la fase di sviluppo del sistema”.

Il modello e la sua Bill of material potranno essere analizzati da sistemi automatici di validazione ottenendo una stima di ciò che è migliorabile in termini di affidabilità e robustezza.

Assistenza per i sovraindebitati

Saldo e stralcio

 

L’output potrà essere presentato in forma di report finale riassuntivo corredato da un documento di score card che certificano l’assessment avvenuto.

I tempi di questo processo saranno stimati e definiti durante lo svolgimento del progetto stesso.

Elementi vantaggiosi del progetto

Sviluppi ulteriori della piattaforma sono previsti in un’ottica europea.

Il prof. Roli specifica, infatti, che “l’obiettivo è quello di sviluppare una piattaforma per il mercato europeo, che consenta ai produttori/fornitori di sistemi di AI di valutare la conformità del loro sistema di AI e fargli ottenere il CE MARK che sarà obbligatorio per commercializzarlo in Europa. La durata di 5 anni del progetto è compatibile con tale ambizioso obiettivo”.

Data la peculiarità degli obiettivi di questo progetto tutto italiano, l’Italia potrebbe essere vista come capofila sui temi della conformità per i sistemi di AI perché chiarisce il prof. Roli “si può dire che questo progetto è l’unico del suo genere in Italia e pertanto consentirà all’Italia di essere sulla frontiera della tenuta sotto controllo e regolamentazione dell’AI mediante lo sviluppo di test tecnici, il più possibile quantitativi e oggettivi, capaci di verificare la conformità di livello europeo stabilità dall’AI act”.



Source link

***** l’articolo pubblicato è ritenuto affidabile e di qualità*****

 

Prestiti aziendali immediati

anche per liquidità

 

Visita il sito e gli articoli pubblicati cliccando sul seguente link

Source link

Dilazione debiti

Saldo e stralcio