In un Editoriale sottoscritto da un gruppo interdisciplinare di 24 scienziati di chiara fama e pubblicato sulla prestigiosa PNAS, la comunità scientifica viene sollecitata a seguire cinque princìpi di responsabilità umana quando utilizza l’intelligenza artificiale nella ricerca, sollecitando le Accademie Nazionali delle Scienze a costituire un Consiglio strategico sull’uso responsabile dell’IA per fornire una guida e una supervisione continua sulle responsabilità e sulle migliori pratiche man mano che la tecnologia si evolve.
Si susseguono le analisi sull’impatto economico e sociale delle nuove tecnologie basate sull’Intelligenza Artificiale (IA). L’intelligenza artificiale (AI) genera testi, video e immagini difficilmente distinguibili da quelli umani, con il risultato che spesso non sappiamo più cosa sia reale.
La scienza prospera grazie alla riproducibilità, alla trasparenza e alla responsabilità, e la fiducia nella ricerca deriva in particolare dal fatto che i risultati sono validi indipendentemente dall’istituzione in cui sono stati prodotti. Inoltre, i dati alla base di uno studio devono essere pubblicati e i ricercatori devono assumersi la responsabilità delle loro pubblicazioni.
Ma cosa succederebbe se l’IA fosse coinvolta nella ricerca?
Gli esperti utilizzano da tempo gli strumenti di intelligenza artificiale per progettare nuove molecole, valutare dati complessi e persino generare domande di ricerca o dimostrare una congettura matematica. L’Intelligenza Artificiale sta cambiando il volto della ricerca e gli esperti stanno discutendo se sia ancora possibile fidarsi dei risultati.
All’inizio del 2024, la National Academy of Sciences degli Stati Uniti, l’Annenberg Public Policy Center dell’Università della Pennsylvania e l’Annenberg Foundation Trust a Sunnylands hanno convocato un gruppo interdisciplinare di 24 esperti per esplorare le sfide poste dall’uso dell’Intelligenza Artificiale nella ricerca, i cui risultati sono riassunti nell’Editoriale “Protecting scientific integrity in an age of generative AI”, pubblicato il 21 maggio 2024 sulla rivista Proceedings of the National Academy of Sciences (PNAS).
Il gruppo comprendeva esperti in scienze comportamentali e sociali, etica, biologia, fisica, chimica, matematica e informatica, nonché leader nel campo dell’istruzione superiore, del diritto, della governance, dell’editoria e della comunicazione scientifica. Le sue discussioni sono state informate da una serie di documenti commissionati, pubblicati in Issues in Science and Technology, che hanno esplorato vari aspetti dell’intelligenza artificiale e del suo utilizzo e governance.
L’editoriale sottolinea come i progressi nell’intelligenza artificiale generativa rappresentino un momento di trasformazione per la scienza, che accelererà la scoperta scientifica, ma sfiderà anche le norme e i valori fondamentali della scienza, come la responsabilità, la trasparenza, la replicabilità e la responsabilità umana.
“Accogliamo con favore i progressi che l’intelligenza artificiale sta apportando alle discipline scientifiche, ma dobbiamo anche essere vigili nel sostenere norme e valori scientifici di lunga data – ha affermato la Presidente dell’Accademia nazionale delle scienze Marcia McNutt, co-autrice dell’editoriale – Ci auguriamo che il nostro articolo possa stimolare la riflessione tra i ricercatori e porre le basi per sforzi concertati per proteggere l’integrità della scienza poiché l’intelligenza artificiale generativa viene sempre più utilizzata dalla ricerca”.
Nell’editoriale gli autori esortano la comunità scientifica a seguire 5 princìpi di responsabilità umana quando si conducono ricerche che utilizzano l’intelligenza artificiale:
1. Divulgazione e attribuzione trasparenti. I ricercatori dovrebbero rendere pubblici gli strumenti e gli algoritmi utilizzati e identificare chiaramente il contributo delle macchine e degli esseri umani.
2. Verifica dei contenuti e delle analisi generati dall’intelligenza artificiale. I ricercatori rimangono responsabili dell’accuratezza dei dati e delle conclusioni che ne traggono, anche se hanno utilizzato strumenti di analisi dell’intelligenza artificiale.
3.Documentazione dei dati generati dall’intelligenza artificiale. I dati generati dall’intelligenza artificiale devono essere etichettati in modo che non possano essere confusi con dati e osservazioni del mondo reale.
4. Etica ed equità. Gli esperti devono garantire che i loro risultati siano scientificamente validi e non arrechino danni. Ad esempio, il rischio che l’IA venga “distorta” dai dati di addestramento utilizzati, ovvero le informazioni che vengono immesse nel sistema, devono essere ridotti al minimo.
5. Monitoraggio continuo, supervisione e impegno pubblico. I ricercatori, insieme ai politici, alla società civile e alle imprese, dovrebbero monitorare l’impatto dell’intelligenza artificiale e adattare metodi e regole secondo necessità.
Gli autori chiedono inoltre l’istituzione da parte delle Accademie nazionali delle scienze, dell’ingegneria e della medicina, di un Consiglio strategico sull’uso responsabile dell’intelligenza artificiale nella scienza per fornire una guida e una supervisione continua sulle responsabilità e sulle migliori pratiche man mano che la tecnologia si evolve.
“Le opportunità e le sfide senza precedenti presentate dall’IA non possono essere gestite tutte in una volta poiché continueranno ad evolversi e ad essere fondamentalmente diverse nei prossimi anni e decenni – ha postato Saul Perlmutter, Professore di Fisica a Berkeley, Università della California, Premio Nobel nel 2011 per la scoperta dell’accelerazione dell’espansione dell’universo e co-autore dell’Editoriale – Dobbiamo quindi essere pronti durante questo periodo di profondo e rapido cambiamento per affrontare rapidamente e rispondere agilmente agli sviluppi. Questo è il motivo per cui proponiamo un nuovo Consiglio strategico sull’intelligenza artificiale per studiare, monitorare e affrontare l’evoluzione degli usi dell’intelligenza artificiale nella scienza”.
Immagine di copertina: fonte Università del Michigan