Siamo nel pieno del dibattito sull’IA: una parte della ricerca spinge verso l’efficacia tecnologica, un’altra parte mira ad una comprensione più profonda dell’IA, metodologicamente parallela allo studio scientifico della mente umana. Mentre i ricercatori muovono questi due assi, ogni utilizzatore pretende dall’intelligenza artificiale strumenti che potenzino la sua capacità di pensare, non che la sostituiscano. In ambiti ad alto impatto regolatorio sono inoltre richieste affidabilità e sicurezza, affinché le scelte sull’uso dell’IA siano consapevoli e giustificabili. Desideriamo tutti che l’IA impari, ma che si adatti con discrezione ai vari contesti e rispetti la dignità di chi ne beneficia. Ciascuno vorrebbe che l’IA ci affianchi nel lavoro quotidiano e affronti anche compiti complessi, pur lasciando spazio al ragionamento e all’intuizione.
Mentre la ricerca avanza, il comune utilizzatore nel tentativo di familiarizzare con l’IA sfida i legislatori a chiarire i limiti e gli obiettivi come, ad esempio, che debba comunicare in modo semplice, empatico e responsabile, che sia inclusiva e che sia guidata da norme etiche, responsabilità condivisa e una governance trasparente. Fino a non molto tempo fa l’approccio all’uso dei software è stato semplice perché ci siamo affidati a programmi basati su regole precise; adesso l’IA è capace di comportarsi in modi non sempre prevedibili (fattore di percezione negativo) e sorprendenti (fattore di percezione positivo) rispetto alle necessità originarie. In questo contesto, la domanda che ci si pone è se l’IA sia già in grado, entro un perimetro controllato, di fornire esiti affidabili e adeguati alle nostre esigenze di applicazione.

Potenziare le nostre capacità preservando etica e metodologia
Tutti concordano sull’urgenza di sperimentare con l’IA molteplici ambiti, ma riconoscono altrettanto profondamente la necessità di rispondere alle esigenze specifiche di ciascun settore, nonché di definire perimetri chiari, una governance robusta e una responsabilità condivisa. La discussione odierna deve quindi includere pratiche di validazione rigorose, tracciabilità delle versioni dei modelli, gestione dei bias e strumenti di interpretabilità sufficientemente pratici. Il perimetro controllato non deve essere una limitazione, ma una cornice necessaria per tradurre l’innovazione in benefici concreti e sicuri.
Alcuni esempi, in piena fase di attuazione, mostrano come l’intelligenza artificiale possa imparare e potenziare l’operatività senza sostituire l’intelligenza naturale: in produzione e nella supply chain l’IA può supportare i piani di manutenzione e la previsione di guasti, contribuendo a ridurre scarti e notevoli ritardi; nell’assicurazione qualità può facilitare la generazione di documentazione regolatoria e il controllo di alcune attività; nello sviluppo clinico può aiutare il disegno di studi più efficienti; nella ricerca di base accelerare la scoperta di nuovi farmaci offrendo screening virtuale su ampi spazi molecolari e proponendo scaffolds innovativi. Questi ambiti, convergono nel principio che l’IA, guidata da governance e controllo dell’essere umano, può tradursi in progressi concreti e misurabili.
Il framework regolatorio in Europa
Le attività regolatorie nel settore Lifescience sono tradizionalmente guidate dalle normative GxP e per l’uso dei sistemi computerizzati esiste un capitolo dedicato, l’undicesimo che è in fase di aggiornamento. L’uso dell’IA deve ancora integrarsi in questo quadro normativo, tenendo alto il livello di attenzione sull’integrità dei dati, la tracciabilità, la capacità di rispondere ad una ispezione e la gestione delle modifiche per il mantenimento dell’IA in uno stato controllato durante il suo ciclo di vita. Attendiamo adesso un framework regolatorio che accompagni l’uso dell’intelligenza artificiale durante il ciclo di vita dei farmaci: dalla scoperta alla produzione, dalla farmacovigilanza ai dossier regolatori. L’obiettivo è fornire una cornice unica di responsabilità e di verifiche che dimostri l’IA affidabile, tracciabile e allineata ai principi di qualità del quadro normativo europeo ed internazionale. In questa cornice, ogni modello basato sull’IA non deve essere una scatola nera, ma un sistema soggetto al controllo umano, dove la gestione del rischio continua ad essere basata sui principi promossi dalle linee guida internazioniali. L’intento della regolamentazione è seguire dei passi in un ordine cronologico ben definito come sotto:
- Il primo passo è sicuramente la fase di analisi della qualità dei dati perché alimenta la correttezza delle decisioni dell’IA. Si deve puntare alla capacità di selezione e di rappresentatività dei dati che devono coprire l’intero spazio di impiego. Si richiedono inoltre campioni di dati di dimensioni adeguate ed una verifica da parte di esperti specializzati in questo settore.
- Il secondo passo è la assicurazione di indipendenza dei dati di test che non devono essere usati durante l’addestramento; la divisione del set di dati richiede anche la tracciabilità ovvero registrare quali dati sono stati usati, quando, quante volte; ed evitare il riutilizzo non autorizzato.
- Il terzo passo è l’adeguatezza dei test previa identificazione delle metriche (es. accuratezza, sensibilità, specificità, F1, ecc.). Si richiedono la realizzazione di un piano di test con obiettivi, metriche e script per dimostrare che il modello funzioni correttamente sul nuovo dataset.
- Il quarto passo è la governance dopo il rilascio in produzione in termini di controllo delle modifiche e delle configurazioni, controllo periodico o continuo dei risultati e supervisione umana.
Conclusioni
È lecito chiedersi se esistano progressi concreti nel cammino verso una governance dell’IA nel Lifescience. In Akkodis abbiamo avuto l’opportunità di sperimentare, come l’IA possa generare maggiore efficienza operativa, supportata da una governance chiara che colloca la sicurezza dei prodotti e la qualità dei dati al centro delle scelte tecniche. Tuttavia, l’efficacia degli inevitabili sforzi che bisogna sostenere dipende dall’equilibrio tra innovazione e rigore normativo, nonché dall’impegno condiviso di enti regolatori, settori industriali e tutta la comunità scientifica. È essenziale promuovere standard comuni e un modello di human-in-the-loop che mantenga la responsabilità umana nelle fasi critiche. Se sapremo coniugare il progresso con le responsabilità, l’IA potrà contribuire a migliorare la sicurezza, l’efficacia dei trattamenti, stimolando ulteriori investimenti in ricerca e innovazione.
In Akkodis abbiamo diversi gruppi di lavoro italiani ed europei sul tema dell’intelligenza artificiale, in particolare uno che abbraccia Italia e Spagna volto alla creazione di AI Agent che possano sia diventare i super esperti a livello di conoscenze normative che semplificare attività operative unitarie.
Il nostro impegno sul tema è attualmente sia formativo che informativo e per questo abbiamo deciso di chiudere l’anno con un evento sull’IA per condividere lo stato dell’arte dei progetti di Intelligenza artificiale in atto nel panorama dei produttori di equipment, software, analisti di dati e esperti di governance per l’aderenza regolatoria. Scopri di più sull’evento Akkodis del 18 novembre a Firenze.




