Cinque considerazioni critiche sono al cuore di una nota sull’utilizzo dell’intelligenza artificiale (IA) nel ciclo di sviluppo dei farmaci che EFPIA, la Federazione europea dell’industria farmaceutica innovator, ha recentemente pubblicato sul suo sito.
L’iniziativa si colloca all’interno del dibattito sui contenti finali dell’EU AI Act europeo e delle azioni messe in campo dal Network europeo delle autorità regolatorie (EMRN) per supportare le aziende con nuove linee guida e azioni di supervisione in riferimento al sempre più esteso utilizzo di strumenti di sviluppo dei nuovi medicinali basati sull’intelligenza artificiale.
Le cinque aree chiave per EFPIA
La nota della rappresentativa dell’industria innovator parte dall’evidenziare l’importanza della esenzione per le intelligenze artificiali dedicate alla ricerca scientifica prevista al Considerando 25 e agli artt. 2.6 e 2.8 dell’EU AI Act. Esenzione che negli intenti della nuova legislazione europea punta a supportare l’innovazione e la libertà delle scienze. Secondo EFPIA, tale esenzione dovrebbe venire applicata a tutti gli strumenti AI utilizzati in R&D come pura conseguenza del loro unico utilizzo in quest’ambito.
Secondo la Federazione, inoltre, la maggior parte degli utilizzi dell’intelligenza artificiale per lo sviluppo di medicinali non potrebbe venire configurato come IA ad alto rischio, ai sensi della versione corrente dell’EU AI Act. La nota sottolinea infatti come, nel caso in cui non si dovesse applicare l’esenzione, la maggior parte degli utilizzi dell’IA per le attività di R&D comporti tipicamente il ricorso a software abilitati dall’intelligenza artificiale e che non sono regolati all’interno di nessuno dei quadri legali di riferimento descritti dall’Annex I (compresi quelli per i dispositivi medici). Tali software non sarebbero neppure inclusi tra gli usi ad alto rischio ai sensi dell’Annex III. Come conseguenza, tali software non potrebbero qualificarsi legalmente come ad alto rischio ai sensi dell’AI Act.
Il settore dello sviluppo medicinale in Europa, aggiunge anche EFPIA, è già molto regolato al fine di garantire la sicurezza e l’efficacia dei medicinali, compresi quelli innovativi. Le disposizioni legislative già esistenti sarebbero sufficientemente flessibili, secondo la Federazione, per creare le basi corrette a includere l’utilizzo dell’IA nello sviluppo dei medicinali.
Le nuove linee guida EMA sull’uso dell’intelligenza artificiale nel ciclo di vita dello sviluppo farmaceutico, inoltre, forniranno secondo EFPIA un ulteriore livello di supervisione dell’IA a integrazione del quadro regolatorio e legislativo esistente. Da questo punto di vista, la rappresentativa industriale commenta in modo positivo l’approccio produttivo e basato sul rischio adottato da EMA per valutare l’utilizzo dell’intelligenza artificiale in relazione ai medicinali, a partire dalla consultazione sul reflection paper e dal piano di lavoro pluriennale sull’IA. La linea guida sull’utilizzo dell’intelligenza artificiale nel ciclo di vita dei farmaci, attesa per il 2024 e che dovrebbe tenere conto dei rischi potenziali associati al ricorso a queste tecnologie, dovrebbe essere sufficiente per EFPIA a garantire, insieme alla normativa vigente, una governance adeguata dell’IA in per lo sviluppo dei medicinali.
Obiettivo ultimo di tale governance, sottolinea ancora la nota, dovrebbe essere una linea guida fit-for-purpose e basata sul rischio per la supervisione, che sia calibrata sullo stato normativo e sul contesto d’utilizzo. Da questo punto di vista, aggiunge EFPIA, gli strumenti normativi tradizionali potrebbero trovare difficoltà nel tenere il passo di tecnologie in rapidissima evoluzione come quelle dell’intelligenza artificiale. L’industria farmaceutica necessiterebbe, quindi, di linee d’indirizzo dinamiche, flessibili e a prova di futuro, che tengano in debito conto le specificità correlate all’uso previsto e al contesto e che includano anche un’appropriata supervisione umana.
La nota sottolinea anche come sarebbe opportuno prevedere distinzioni in base al ruolo svolto dall’intelligenza artificiale, allo stadio di sviluppo nel quale viene utilizzata, all’impatto esercitato sulla valutazione beneficio-rischio associata alle decisione regolatorie sul medicinale e al livello di supervisione e controllo umani sul processo decisionale.