Molti li hanno già chiamati le illusioni ottiche delle reti neurali. In realtà, gli adversarial examples (che potremmo tradurre come "esempi antagonistici") sono un problema esistente per qualsiasi tecnica di machine learning: tramite modifiche impercettibili all'occhio umano, è possibile generare esempi in grado di confondere qualsiasi classificatore, indipendentemente dalla sua accuratezza in fase di training e con altissima probabilità. In pochissimi anni, questi attacchi sono risultati essere
Il mito dell'accuratezza
23, NovL'11 Novembre si è conclusa la quinta edizione del Codemotion Milano, tra le maggiori conferenze italiane dedicate interamente agli sviluppatori. È stata anche la prima edizione che ho seguito interamente come membro del program committee, cercando di dare vita ad una track di interesse dedicata...