ChatGPT Search: tra citazioni corrette e informazioni false

persona che scrive al computer

Negli ultimi mesi, ChatGPT ha dimostrato di essere uno strumento incredibilmente versatile per rispondere a domande, generare contenuti e supportare ricerche specifiche. Tuttavia, l’affidabilità delle informazioni fornite da questo avanzato modello di intelligenza artificiale è oggetto di dibattito. Studi recenti hanno evidenziato che le risposte di ChatGPT, specialmente quando utilizzato come motore di ricerca (nella modalità nota come SearchGPT), possono risultare inaccurate o addirittura errate, sollevando dubbi sull’opportunità di affidarsi all’AI come principale fonte di informazioni.

Limiti strutturali di ChatGPT come motore di ricerca

A differenza dei tradizionali motori di ricerca, ChatGPT non effettua una ricerca diretta sul web per raccogliere dati aggiornati. Le sue risposte derivano esclusivamente dal vasto dataset con cui è stato addestrato, che non include necessariamente informazioni recenti o specifiche. Questo significa che il modello può produrre risposte obsolete o inesatte, in particolare riguardo a eventi in corso o argomenti che richiedono aggiornamenti in tempo reale.

Nel tentativo di offrire risposte rapide e contestualizzate, ChatGPT può anche generare informazioni che sembrano verosimili ma che non lo sono. Questo accade quando il modello presenta dati inventati o distorti in modo convincente, rendendo difficile per gli utenti distinguere il vero dal falso. Tali imprecisioni diventano particolarmente problematiche quando si cerca di ottenere citazioni affidabili per lavori accademici o articoli giornalistici.

Dati dello studio: affidabilità e citazioni

Un recente studio di The Tow Center dell’università della Columbia ha analizzato l’affidabilità delle risposte fornite da SearchGPT. Dai dati raccolti emerge che:

  • 47% delle risposte sono completamente sbagliate;
  • 30% delle risposte sono parzialmente errate;
  • Solo il 24% delle risposte è risultato corretto.

Per quanto riguarda le citazioni incluse nelle risposte:

  • Nel 43% dei casi vengono riportate citazioni errate;
  • Il 33% dei casi include citazioni corrette;
  • Nel restante 24% dei casi non è fornita alcuna fonte.

Questi risultati evidenziano una limitazione significativa: l’incapacità di ChatGPT di navigare autonomamente su internet e aggiornare il proprio database in tempo reale. Inoltre, il training del modello si interrompe a un punto fisso nel tempo, limitandone ulteriormente l’affidabilità su argomenti recenti o in continua evoluzione.

 

Articoli correlati