Talks
AISec 2013. Ho partecipato al Workshop on Artificial Intelligence and Security (AISec 2013), organizzato contestualmente a CCS 2013, una delle top conference in computer security, tenutosi a Berlino, il 4 Novembre 2013, dove ho presentato il nostro lavoro "Is Data Clustering in Adversarial Settings Secure?". La presentazione è disponibile qui. Alcune foto scattate durante la presentazione sono disponibili qui. Questo articolo è stato il nostro primo lavoro sulla tematica del adversarial clustering. ECML-PKDD 2013. Ho partecipato alla European Conference on Machine Learning and Principles and Practice of Knowledge Discovery in Databases (ECMLPKDD 2013), a Praga (Rep. Ceca) dal 23 al 27 Settembre 2013, dove ho presentato il nostro paper "Evasion attacks against machine learning at test time" . Le slide della presentazione sono disponibili qui. |
||||||||||
![]() |
BTAS 2012. Ho partecipato alla IEEE Fifth International Conference on Biometrics: Theory, Applications and Systems (BTAS 2012) dal 23 al 26 Settembre 2012, a Washington DC, USA. Ho presentato il lavoro "Learning Sparse Kernel Machines with Biometric Similarity Functions for Identity Recognition," i cui co-autori sono Giorgio Fumera e Fabio Roli. La registrazione della presentazione è disponibile qui. | |||||||||
Dagstuhl Workshop on ML for computer security. Ho partecipato al Dagstuhl Perspectives Workshop on Machine Learning Methods for Computer Security dal 9 al 15 Settembre 2012, a Dagstuhl, in Germania. Ho svolto una presentazione di 30 minuti, dal titolo "Security evaluation of pattern classifiers: lessons learned in Cagliari". Il report del seminario è disponibile qui. |
||||||||||
![]() |
ICML 2012. Ho presentato il paper "Poisoning attacks against Support Vector Machines," su cui ho lavorato insieme a Blaine Nelson e Pavel Laskov, alla 29th International Conference on Machine Learning (ICML 2012, Edinburgh, June 25 - July 1). Questo lavoro dimostra che le Support Vector Machines (e, più in generale, gli algoritmi di apprendimento automatico) sono vulnerabili ad una contaminazione ostile dei dati di addestramento. Il video della presentazione è disponibile qui. |