Venerdì 18 ottobre | 18.30-19.00
Piazza dei Signori
Negli ultimi anni, l’intelligenza artificiale generativa, e in particolare i modelli linguistici di grandi dimensioni (Large Language Models – LLM), ha rivoluzionato il modo in cui raccogliamo, analizziamo e comunichiamo i dati. Strumenti come i chatbot e gli assistenti virtuali sono diventati parte integrante della nostra vita quotidiana, migliorando l’accesso alle informazioni, semplificando i processi di interazione digitale e rendendo più immediata e naturale la comunicazione tra esseri umani e macchine.
Tuttavia, se da un lato queste innovazioni hanno portato a enormi progressi, soprattutto in termini di efficienza e scalabilità, dall’altro pongono nuove sfide per la statistica ufficiale, quali ad esempio la gestione della qualità dei dati e il controllo delle “allucinazioni” dell’AI.
In questo intervento esploreremo alcuni casi d’uso degli LLM applicati alla statistica ufficiale, analizzeremo le principali sfide introdotte dal loro utilizzo e discuteremo dell’AI Act europeo, un tentativo di regolamentare questo settore in rapida evoluzione. Infine, rifletteremo sulle implicazioni future, ricordando che, sebbene questi strumenti rappresentino una frontiera innovativa, siamo solo all’inizio di un percorso che richiede consapevolezza, precauzione e collaborazione interdisciplinare.