Di Mitri Gilda

L. Carrozzi, Attacchi di poisoning, come difendersi dall’avvelenamento dei dati

In merito a quanto detto sull'AI, questo articolo mi sembra mettere a fuoco una problematica interessante poco nota, forse, ma non meno grave. Gilda Di Mitri
Il data poisoning consiste in una minaccia alla sicurezza dei sistemi di Intelligenza artificiale (IA) riferito alle componenti di Machine Learning (ML): una modifica “malevola” dei dati di addestramento (training data set) di tali componenti può generare una distorsione dei risultati prodotti dal sistema in favore degli obiettivi perseguiti dall’attaccante. ...

Leggi tutto »