Venerdì 20 ottobre | 15.30
Piazza Borsa

Nell’intelligenza artificiale (AI) la statistica è onnipresente, al punto che è difficile tracciare una linea netta che separi le due branche. Ad esempio, la maggior parte dei modelli di AI – tutti quelli basati sull’apprendimento automatico (Machine Learning) – sono probabilistici. La statistica convenzionale gioca un ruolo cruciale nella preparazione dei dati da dare in pasto agli algoritmi di Machine Learning e nella scelta delle metriche per misurare il potere predittivo dei modelli di AI. Inoltre, in alcuni problemi pratici di Machine Learning, i dati sono intrinsecamente sbilanciati. Quante persone studierebbero per un esame a crocette se sapessero che il 99% delle volte la risposta è “vero”? Allo stesso modo, un agente basato sull’AI farebbe fatica ad apprendere da dati similmente sbilanciati. Ridefinire i metodi di valutazione (cioè le metriche), bilanciare la fase di studio (cioè l’addestramento del modello) e ridefinire gli obiettivi dell’apprendimento sono approcci per mitigare queste difficoltà. Attraverso un esempio concreto, lo sviluppo di un sistema d’allerta precoce in ambito finanziario, vedremo come nella pratica si sviluppano questi modelli, mostrando che la statistica guida molte delle scelte che portano alla costruzione di un modello di AI efficace.

Dialogano: