Lun
02
Feb
Seminari e Convegni
Truth in Modeling: How close do we actually get to what we want to model?
Lunedì 2 febbraio 2026 alle ore 16:30 si terrà il seminario intitolato Truth in Modeling: How close do we actually get to what we want to model?, tenuto dal professore Dirk Hovy.
Abstract
Per modellare qualsiasi costrutto (ad esempio, incitamento all'odio, posizione, logica, salute mentale, ecc.), bisogna partire da alcuni presupposti: il costrutto deve esistere, deve essere modellabile e bisogna essere in grado di rilevarlo in modo affidabile. In poche parole, dovrebbe essere vero. Tuttavia, modellare la verità nella pratica è molto meno binario di quanto vorremmo che fosse. In questo intervento sul lavoro completato e in corso nel mio laboratorio, verrà mostrato come molte delle nostre ipotesi sulla validità e la verità dei costrutti debbano essere riesaminate per l'annotazione, i set di dati di riferimento, l'output LLM, le classifiche LLM e persino la pubblicazione. Verranno mostrate prove di ipotesi errate e metodi su come controllare e mitigare tale effetto. È importante sottolineare che tutto ciò non dovrebbe scoraggiare dal cercare di modellare la verità. Tuttavia, dovrebbe rendere ancora più consapevoli degli effetti sottili (e non così sottili) che rendono questa nobile ricerca ancora più difficile di quanto non fosse già.
Relatore: Dirk Hovy - Università Bocconi (Milano)
Biografia
Dirk Hovy è professore presso il Dipartimento di Scienze Informatiche dell'Università Bocconi, preside della Digital Transformation and AI e direttore scientifico dell'unità di ricerca Data and Marketing Insights. In precedenza è stato docente presso l'Università di Copenaghen, ha conseguito un dottorato di ricerca presso l'Information Sciences Institute della USC e un master in linguistica presso l'Università di Marburg in Germania. È interessato a ciò che i computer possono dirci sul linguaggio e a ciò che il linguaggio può dirci sulla società. Si interessa anche alle questioni etiche relative alla parzialità e all'equità algoritmica nell'apprendimento automatico. Dirk è autore di oltre 150 articoli su questi argomenti, di due libri di testo sull'NLP in Python e di un libro di prossima pubblicazione sui limiti dell'IA. Dirk ha co-fondato e organizzato diversi workshop (sulle scienze sociali computazionali e l'etica nell'NLP), è stato organizzatore locale della conferenza EMNLP 2017 e presidente generale dell'EMNLP 2025. Ha ricevuto una borsa di studio ERC Starting Grant 2020 per la ricerca sui pregiudizi demografici nell'NLP. Nel tempo libero ama cucinare, lavorare il cuoio e sollevare oggetti pesanti per poi rimetterli a terra.
Il seminario si svolgerà online a questo link.
Per maggiori informazioni contattare il professore Daniele Quercia.
Abstract
Per modellare qualsiasi costrutto (ad esempio, incitamento all'odio, posizione, logica, salute mentale, ecc.), bisogna partire da alcuni presupposti: il costrutto deve esistere, deve essere modellabile e bisogna essere in grado di rilevarlo in modo affidabile. In poche parole, dovrebbe essere vero. Tuttavia, modellare la verità nella pratica è molto meno binario di quanto vorremmo che fosse. In questo intervento sul lavoro completato e in corso nel mio laboratorio, verrà mostrato come molte delle nostre ipotesi sulla validità e la verità dei costrutti debbano essere riesaminate per l'annotazione, i set di dati di riferimento, l'output LLM, le classifiche LLM e persino la pubblicazione. Verranno mostrate prove di ipotesi errate e metodi su come controllare e mitigare tale effetto. È importante sottolineare che tutto ciò non dovrebbe scoraggiare dal cercare di modellare la verità. Tuttavia, dovrebbe rendere ancora più consapevoli degli effetti sottili (e non così sottili) che rendono questa nobile ricerca ancora più difficile di quanto non fosse già.
Relatore: Dirk Hovy - Università Bocconi (Milano)
Biografia
Dirk Hovy è professore presso il Dipartimento di Scienze Informatiche dell'Università Bocconi, preside della Digital Transformation and AI e direttore scientifico dell'unità di ricerca Data and Marketing Insights. In precedenza è stato docente presso l'Università di Copenaghen, ha conseguito un dottorato di ricerca presso l'Information Sciences Institute della USC e un master in linguistica presso l'Università di Marburg in Germania. È interessato a ciò che i computer possono dirci sul linguaggio e a ciò che il linguaggio può dirci sulla società. Si interessa anche alle questioni etiche relative alla parzialità e all'equità algoritmica nell'apprendimento automatico. Dirk è autore di oltre 150 articoli su questi argomenti, di due libri di testo sull'NLP in Python e di un libro di prossima pubblicazione sui limiti dell'IA. Dirk ha co-fondato e organizzato diversi workshop (sulle scienze sociali computazionali e l'etica nell'NLP), è stato organizzatore locale della conferenza EMNLP 2017 e presidente generale dell'EMNLP 2025. Ha ricevuto una borsa di studio ERC Starting Grant 2020 per la ricerca sui pregiudizi demografici nell'NLP. Nel tempo libero ama cucinare, lavorare il cuoio e sollevare oggetti pesanti per poi rimetterli a terra.
Il seminario si svolgerà online a questo link.
Per maggiori informazioni contattare il professore Daniele Quercia.