Intelligenza artificiale: perché un suo uso indiscriminato è un pericolo per la produzione del sapere

IN un articolo pubblicato su Nature Astronomy lo scienziato SISSA Roberto Trotta mette in guardia contro la “paccottiglia scientifica IA”
Immagine
Trotta

“Se il processo difficile e faticoso di imparare a ragionare come uno scienziato viene sostituito da un semplice comando a ChatGPT, il pensiero critico, la profondità di analisi e le stesse competenze che permettono a scienziate a scienziati di supervisionare il lavoro dell’IA si ridurranno molto. I giovani ricercatori rischiano di diventare poco più che prompt engineer: persone che sanno soltanto chiedere all’AI le cose nel modo più efficace possibile. E questo, per il mondo della ricerca, è un problema”. È quanto sostiene Roberto Trotta, professore di Fisica Teorica alla Scuola Internazionale Superiore di Studi Avanzati – SISSA di Trieste, in un commento pubblicato di recente su Nature Astronomy, in cui esplora il crescente impiego dell’intelligenza artificiale nel processo scientifico. Una tendenza che, secondo Trotta, non è priva di criticità per il mondo accademico.

Un impiego dell’IA sempre più vasto nel mondo della ricerca

Nel mondo della ricerca gli strumenti dell’intelligenza artificiale potrebbero essere utilizzati in una varietà di compiti fino a poco tempo fa considerati essenzialmente umani: dalla formulazione delle domande di ricerca alla scrittura dei progetti, all’interpretazione dei dati, fino alla scrittura degli articoli. Del resto, osserva Trotta nel suo articolo su Nature Astronomy, un assistente di ricerca virtuale ha già dimostrato di saper generare centinaia di articoli scientifici inventati ma plausibili in un solo pomeriggio. Uno di questi è stato accettato ad Agents4Science 2025, la prima conferenza in cui l’IA firma tutti i contributi.

Tra scarsa originalità e allucinazioni 

Le questioni in gioco, spiega Trotta, sono assai delicate e non coinvolgono solo le capacità dei ricercatori di oggi e, soprattutto, di domani. Riguardano anche la produzione scientifica stessa: per esempio, la limitata abilità dell’IA nel generare contenuti davvero originali e non semplicemente derivativi. Senza contare le cosiddette “allucinazioni”, cioè contenuti inventati presentati come fatti, un problema che continua a emergere anche nelle versioni più recenti dei modelli di IA. Errori di questo tipo, avverte Trotta, diventeranno sempre più difficili da individuare. C’è poi la questione della scarsa trasparenza del processo logico con cui l’IA arriva ai risultati, con il rischio di ottenere evidenze sempre più opache perché difficilmente riproducibili. Una “paccottiglia IA” che rischia di invadere l’accademia.

IA che produce, IA che controlla

E i problemi non finiscono qui. Grazie alla potenza degli strumenti di IA, la quantità di articoli scientifici prodotti ogni anno è destinata a crescere ulteriormente, aggravando il carico su un sistema editoriale che già oggi fatica moltissimo a gestire l’enorme mole di lavori. Con il rischio, come ha osservato il premio Nobel per la Chimica 2009, Venki Ramakrishnan, che “alla fine questi articoli saranno tutti scritti da un agente IA, e poi un altro agente IA li leggerà, li analizzerà e ne produrrà un riassunto per gli esseri umani”.

Il necessario tocco umano nella scienza

Per evitare “questa corsa agli armamenti dell’IA”, in cui studenti, scienziati e istituzioni rischiano di rimanere intrappolati, anche per l’accelerazione di un processo che pare non conoscere pausa, Trotta nel suo commento richiama la necessità urgente di un dibattito ampio che coinvolga l’accademia nelle sue più diverse discipline. Il tocco umano della scienza, sottolinea l’esperto, è indispensabile. Senza di esso, sostiene Trotta, l’avanzamento della conoscenza risulterebbe compromesso nella sua stessa essenza.

L'Articolo originale in Nature Astromony

 

COMUNICATO STAMPA (181.08 KB)