L’IA ha assimilato testi dal genere fantasy a classici della letteratura: scopriamo come la selezione dei libri influisce sulle risposte fornite da ChatGPT
Un recente studio condotto dal ricercatore David Bamman dell’Università di Berkley ha svelato i 50 libri, tra cui noti titoli di fantascienza e fantasy come “Harry Potter”, utilizzati per addestrare l’intelligenza artificiale di ChatGPT, sviluppata da OpenAI. La scoperta è stata fatta casualmente durante l’analisi di “Orgoglio e pregiudizio” di Jane Austen, e ha indotto il team di ricercatori a indagare più a fondo le fonti letterarie sottostanti alla conoscenza del modello di IA.
Bamman e il suo team, nel tentativo di decifrare i meccanismi interni del chatbot, hanno sviluppato un approccio di “archeologia dei dati”. Hanno interrogato ChatGPT sulla sua conoscenza di vari libri, attribuendo un punteggio a ciascuno. Il punteggio più alto indicava una maggiore probabilità che il libro fosse stato incluso nel set di dati di formazione del software.
I risultati hanno rivelato un vasto elenco di classici come “Moby Dick”, “La lettera scarlatta”, “Il colore viola”, “Quel che resta del giorno” e “Furore”. Tuttavia, i titoli con la più alta percentuale di familiarità per l’IA erano prevalentemente di genere fantascientifico e fantasy, tra cui “Harry Potter e la pietra filosofale” di J.K.Rowling, “1984” di George Orwell, “Il Signore degli Anelli”, “Fahrenheit 451”, “Il mondo nuovo”, “Neuromante” di William Gibson e “Il cacciatore di androidi” di Philip K. Dick.
Tuttavia, la domanda che si pone Bamman riguarda l’influenza di queste fonti sulla formazione dei modelli di IA. “Cosa succede quando un bot assimila narrativa su tutti i tipi di mondi oscuri e distopici? In che modo questo genere può influenzare il comportamento di questi modelli in modi non strettamente letterari o narrativi?” chiede il ricercatore.
Un’ulteriore questione è quella legata all’apertura dei set di dati utilizzati per addestrare queste IA. Al momento, molti set di dati, incluso quello di OpenAI, non sono accessibili, alimentando preoccupazioni relative alla disinformazione o all’informazione distorta. Sebbene il CEO di OpenAI, Sam Altman, abbia pubblicamente richiesto la regolamentazione dell’IA, la questione della trasparenza rimane aperta.