Adversariale Robustheit Neuronaler Netze

Adversariale Robustheit Neuronaler Netze by Bijan Kianoush Riesenberg


ISBN
9783961168965
Published
Binding
Paperback
Pages
124
Dimensions
148 x 210 x 7mm

Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veranderungen an der Eingabe vornehmen. Obwohl diese AEnderungen fur den Menschen kaum wahrnehmbar sind, andert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu koennen, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewahrleisten koennen. Hier wird eine UEbersicht uber verschiedene Anwendungsfalle, Angriffe, die daraus entstehenden Problemstellungen, Ansatze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
104.99


This product is unable to be ordered online. Please check in-store availability.
Enter your Postcode or Suburb to view availability and delivery times.


RRP refers to the Recommended Retail Price as set out by the original publisher at time of release.
The RRP set by overseas publishers may vary to those set by local publishers due to exchange rates and shipping costs.
Due to our competitive pricing, we may have not sold all products at their original RRP.