Adversariale Robustheit Neuronaler Netze
Verteidigungen gegen Vermeidungsangriffe zur Testzeit
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren...
alles anzeigen
expand_more
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
weniger anzeigen expand_less
Weiterführende Links zu "Adversariale Robustheit Neuronaler Netze"
Versandkostenfreie Lieferung! (eBook-Download)
Als Sofort-Download verfügbar
eBook
29,99 €
- Artikel-Nr.: SW9783961163960458270
- Artikelnummer SW9783961163960458270
-
Autor
Bijan Kianoush Riesenberg
- Verlag Diplom.de
- Veröffentlichung 29.12.2020
- ISBN 9783961163960
- Verlag Diplom.de