Adversarial machine learning konzentriert sich auf die Anf盲lligkeit der Manipulation eines maschinellen Lernmodells durch irref眉hrende Eingaben. Erfahren Sie, was adversarial machine learning ist und warum es so wichtig ist.
Read in English (Auf Englisch lessen)
Adversarial Machine Learning ist eine Technik, mit der Fachleute Angriffe auf Modelle des maschinellen Lernens (ML) untersuchen k枚nnen, um Schwachstellen zu erkennen und eine Verteidigung gegen b枚sartige Angriffe aufzubauen. Angriffe durch Hacker zielen darauf ab, Modelle des maschinellen Lernens zu manipulieren, indem sie betr眉gerische Eingaben machen. Diese betr眉gerischen Eingaben f眉hren dazu, dass ein maschinelles Lernmodell nicht mehr richtig funktioniert und m枚glicherweise Daten preisgibt oder die Funktion des maschinellen Lernens st枚rt.
Trotz des Namens handelt es sich bei adversarial machine learning um eine Beschreibung von Methoden, die zur Bewertung von Schwachstellen in maschinellen Lernmodellen verwendet werden k枚nnen鈥攅s handelt sich nicht um eine Art von maschinellem Lernen. Der britische Software-Ingenieur John Graham-Cumming f眉hrte das Konzept 2004 ein, als er feststellte, dass Spammer maschinelle Lernanwendungen manipulieren konnten, um Spam-E-Mail-Filter zu umgehen.
Angreifer zielen aus vielen Gr眉nden und mit vielen Methoden auf maschinelle Lernmodelle ab, um sie zu manipulieren. Die Folgen der Manipulation von KI- oder maschinellen Lernsystemen reichen von falschen Ergebnissen generativer KI-Anwendungen bis zu Datenverletzungen.
Da KI ein hei脽es Thema in der Gesch盲ftswelt ist, mit steigender Popularit盲t und zunehmender Aufmerksamkeit, da die Technologie immer mehr M枚glichkeiten zur Automatisierung von Aufgaben bietet, ist das Verst盲ndnis ihrer Schwachstellen entscheidend 蹿眉谤 den Schutz dieser Organisationen vor Cyberangriffen. Das Statistische Bundesamt berichtete im November 2024, dass 20鈥疨rozent der Unternehmen KI-Technologien nutzen, was einem Anstieg von 8 Prozent im Vergleich zum Vorjahr entspricht [].
Der zunehmende Einsatz von KI in der Wirtschaft und insbesondere in Sektoren, die mit Information und Informationssicherheit zu tun haben, unterstreicht die Bedeutung des Schutzes vor angreifenden Angriffen.
Modelle des maschinellen Lernens trainieren sich selbst, um programmierte Aktionen auszuf眉hren, indem sie gro脽e Datenmengen verarbeiten. Sie ordnen Datenpunkte in Kategorien ein und legen Aktionen fest, die auf dem basieren, was das Modell aufgrund seiner Ausbildung verstehen kann.
Adversarial machine learning bezieht sich auf die Unterbrechung dieses Arbeitsablaufs durch die Einf眉hrung eines Inputs, der das Modell zu einer Fehlfunktion verleiten soll. Dies kann auch n眉tzlich sein, um herauszufinden, wie man durch die Manipulation von Daten die gew眉nschten Ergebnisse erzielen kann.
Ein Beispiel, das die potenzielle Gefahr des adversarial machine learnings verdeutlicht, ist die Manipulation autonomer Fahrzeuge. Selbstfahrende Fahrzeuge verwenden Modelle des maschinellen Lernens, um Stra脽enschilder zu interpretieren. Geringf眉gige 脛nderungen an diesen Schildern, wie z. B. das Anbringen eines Aufklebers auf einem Vorfahrtsschild oder eine geringf眉gige 脛nderung des Schildes, die sich auf die Klassifizierung auswirkt, kann zu einer Fehlfunktion des maschinellen Lernmodells f眉hren. Das Fraunhofer-Institut 蹿眉谤 Intelligente Analyse- und Informationssysteme (IAIS) untersucht in seinem Whitepaper Maschinelles Lernen 'on the edge' die Herausforderungen und Risiken von maschinellen Lernsystemen in autonomen Fahrzeugen, einschlie脽lich der Anf盲lligkeit gegen眉ber manipulativen Angriffen [].
Angreifer verwenden im Wesentliche zwei Taktiken, um maschinelle Lernmodelle zu manipulieren: Black-Box- und White-Box-Angriffe. Bei einem White-Box-Angriff hat der Manipulator Zugriff auf den Code des Modells und kann dessen innere Abl盲ufe kontrollieren. Bei einem Blackbox-Angriff hingegen kennt der Angreifer nur die Ausgaben des ML-Modells. Ein Angreifer kann ein maschinelles Lernmodell auch ohne Zugriff auf den Code des Modells manipulieren.
Angriffe auf maschinelles Lernen haben in der Regel dasselbe 眉bergeordnete Ziel, verwenden aber unterschiedliche Taktiken, um es zu erreichen. Diese Angriffe lassen sich in der Regel in eine von drei Kategorien einordnen.
Bei einem Vergiftungsangriff 鈥瀡ergiftet鈥 der Angreifer das maschinelle Lernmodell, sodass es nicht mehr richtig funktioniert, und verunreinigt die Daten, um eine Schwachstelle zu provozieren. Die Spam-E-Mail-Filter von Google sind ein Beispiel 蹿眉谤 Datenvergiftung. Angreifer haben wiederholt versucht, den Google-Filter auszutricksen, indem sie gro脽e Mengen von E-Mails als nicht als Spam eingestuft haben.
Umgehungsangriffe finden auf trainierte ML-Modelle statt. Der Angreifer ver盲ndert eine Eingabe geringf眉gig, um die Art und Weise zu manipulieren, wie das maschinelle Lernmodell sie klassifiziert. Ein Beispiel hier蹿眉谤 w盲re das Anbringen eines Aufklebers auf einem Stoppschild, um das maschinelle Lernmodell eines selbstfahrenden Autos dazu zu bringen, es 蹿眉谤 ein Vorfahrtsschild zu halten.
Umgehungsangriffe zielen oft darauf ab, Spam- oder Malware-Filter zu umgehen, wobei die Angreifer Sprache verwenden oder Software oder E-Mails auf irref眉hrende Weise kennzeichnen. Die Angreifer verwenden Versuch-und-Irrtum-Taktiken, um Einblicke in die Funktionsweise eines maschinellen Lernmodells zu erhalten. So kann ein Angreifer etwa eine gro脽e Anzahl von E-Mails mit unterschiedlichen Formulierungen versenden und beobachten, welche davon einen Spam-Filter passieren.
Bei einem Extraktionsangriff manipuliert ein Angreifer ein maschinelles Lernmodell, um eine Kopie des Modells zu erstellen oder Daten aus dem Modell zu stehlen. Wie Umgehungsangriffe st眉tzen sich Extraktionsangriffe oft auf Schlussfolgerungen, die der Angreifer 眉ber die vom Modell erzeugten Ergebnisse ziehen kann.
Angriffe auf das maschinelle Lernen untergraben die Wirksamkeit von Modellen des maschinellen Lernens. Durch Manipulationen wird Schaden angerichtet, das Vertrauen in die Anwendung des Modells untergraben oder Sicherheitsma脽nahmen wie Filter 蹿眉谤 sch盲dliche Inhalte umgangen.
Ein sch盲dliches Beispiel ist ein Begriff, der sich auf die Eingabe bezieht, die in ein Modell 蹿眉谤 maschinelles Lernen eingespeist wird, um es zu einer Fehlfunktion zu manipulieren. Diese Eingaben m枚gen einem Menschen harmlos erscheinen, aber sie zielen auf die F盲higkeit des maschinellen Lernens ab, die Eingabe richtig zu klassifizieren.
So werden beispielsweise Sicherheitskameras manchmal von maschinellen Lernmodellen gesteuert. Wenn ein Angreifer bemerkt, dass das Sicherheitssystem eines Standorts die Tatsache ber眉cksichtigt, dass eine Wartungsperson das Geb盲ude jede Nacht zu einer bestimmten Zeit betritt, kann das maschinelle Lernmodell jede Aktion zu dieser Zeit zulassen, ohne einen Sicherheitsalarm auszul枚sen. Ein Angreifer, der dies bemerkt, k枚nnte das maschinelle Lernmodell m枚glicherweise so manipulieren, dass es eine Bedrohung 眉bersieht, wenn das Modell jedem erlaubt, das Geb盲ude zu dieser Zeit ohne Sicherheitsalarm zu betreten.
Unternehmen haben mehrere M枚glichkeiten, sich gegen sch盲dliches maschinelles Lernen zu wehren, und es wird 蹿眉谤 sie immer wichtiger, Strategien 蹿眉谤 diesen Zweck zu entwickeln. Angriffe durch maschinelles Lernen sind nach wie vor gef盲hrlich und k枚nnen immer mehr Schaden anrichten, je mehr Unternehmen sich auf KI-Anwendungen verlassen. In Deutschland hat das Bundesamt 蹿眉谤 Sicherheit in der Informationstechnik (BSI) die Auswirkungen von KI auf die Cyber-Bedrohungslandschaft untersucht. Die Studie zeigt, dass KI sowohl von Angreifern als auch von Verteidigern genutzt wird, was die Komplexit盲t der Bedrohungen erh枚ht [].
Viele Unternehmen, darunter Microsoft und Google, stellen ihren Code zum Teil als Open Source zur Verf眉gung, um die Cybersicherheit zu verbessern, insbesondere in einem sich schnell entwickelnden Umfeld wie der k眉nstlichen Intelligenz. Man k枚nnte meinen, dass quelloffener Code zu mehr Manipulationen f眉hren w眉rde, da er 蹿眉谤 eine gro脽e Anzahl von Personen zug盲nglich ist. Open-Source-Code erm枚glicht es jedoch auch Experten auf der ganzen Welt, ihr Wissen in Cybersicherheitsma脽nahmen einflie脽en zu lassen. Da Programmierungsexperten, Forscher und Spitzenfachleute Zugriff auf den Code haben, k枚nnen Unternehmen Schwachstellen leicht erkennen und beheben.
Bestehende Methoden zur Abwehr von Angriffen durch maschinelles Lernen stehen vor einem noch ungel枚sten Problem. Die Verteidigung gegen vorweggenommene oder erkannte Angriffe ist nicht anpassungsf盲hig. Um maschinelle Lernmodelle vor Schwachstellen zu sch眉tzen, m眉ssen sie regelm盲脽ig gewartet werden.
Programmierer passen maschinelle Lernmodelle an, um sich an Bedrohungen anzupassen und sich vor gegnerischen Angriffen zu sch眉tzen, indem sie zwei Haupttechniken anwenden:
Adversarial Training ist ein Protokoll, bei dem Menschen dem Modell sch盲dliche Beispiele 鈥 oder korrupte Eingaben, die maschinelle Lernmodelle zu Fehlfunktionen veranlassen 鈥 zuf眉hren. Das Modell stuft diese bekannten b枚sartigen Eingaben dann als bedrohlich ein. Genauso wie das maschinelle Lernmodell lernt, Daten als Teil seines normalen Prozesses zu klassifizieren, trainiert das Modell auch, St枚rungen abzuwehren. Diese Methode erfordert einen kontinuierlichen Wartungsaufwand und eine st盲ndige 脺berwachung, da sich die Versuche, das maschinelle Lernmodell zu manipulieren, selbst weiterentwickeln.
Die defensive Destillation ist eine 盲u脽erst anpassungsf盲hige Methode zum Trainieren von Modellen des maschinellen Lernens, um gegnerische Angriffe zu verhindern. Ein 鈥濴ehrernetzwerk鈥 trainiert mit einem Datensatz. Ein anderes Netzwerk, das 鈥瀕ernende Netzwerk鈥, verwendet die Klassenwahrscheinlichkeiten des Lehrernetzwerks 鈥 die Wahrscheinlichkeit, mit der das Modell Eingaben klassifiziert鈥攁ls weiche Ziele 蹿眉谤 sein eigenes Training. Da das Lernnetzwerk mit differenzierteren Informationen arbeitet, ist es in der Lage, Informationen auf einer tieferen Ebene zu klassifizieren.听
Malware
Firewall
Netzwerkadministrator
Cybersecurity-Karrieren
Betriebssystem
听
Angriffe durch Angreifer k枚nnen Modelle des adversarial machine learning manipulieren und dazu f眉hren, dass sie nicht richtig funktionieren oder ungenaue Ergebnisse liefern. Unternehmen k枚nnen sich gegen solche Angriffe sch眉tzen, indem sie Techniken wie 鈥濧dversarial Training鈥 und 鈥濪efensive Distillation鈥 einsetzen.
Mit dem Kurs Build Decision Trees, SVMs, Artificial Neural Networks von CertNexus, der auf 糖心vlog官网观看 angeboten wird, k枚nnen Sie tiefer in die Konzepte des maschinellen Lernens eintauchen und sich mit den Schl眉sselkonzepten vertraut machen, die Sie kennen sollten, wenn Sie mit k眉nstlicher Intelligenz arbeiten. Sie werden in der Lage sein, verschiedene Komponenten von neuronalen Netzen zu trainieren und zu bewerten und die Leistung von KI-Anwendungen 蹿眉谤 Aufgaben wie Sprachverarbeitung zu optimieren.
Statistisches Bundesamt. 鈥, https://www.destatis.de/DE/Presse/Pressemitteilungen/2024/11/PD24_444_52911.html?utm_source=chatgpt.com.鈥 Abgerufen am 6 December 2024.
Fraunhofer IAIS. 鈥, https://www.iais.fraunhofer.de/de/publikationen/studien/whitepaper-machine-learning-on-the-edge.html.鈥 Abgerufen am 6 December 2024.
Bundesamt 蹿眉谤 Sicherheit in der Informationstechnik (BSI). 鈥, https://www.bsi.bund.de/DE/Service-Navi/Presse/Pressemitteilungen/Presse2024/240430_Paper_Einfluss_KI_Cyberbedrohungslage.html.鈥 Abgerufen am 6 December 2024.
Redaktion
Das Redaktionsteam von 糖心vlog官网观看 besteht aus 盲u脽erst erfahrenen professionellen Redakteuren, Autoren ...
Diese Inhalte dienen nur zu Informationszwecken. Den Lernenden wird empfohlen, eingehender zu recherchieren, ob Kurse und andere angestrebte Qualifikationen wirklich ihren pers枚nlichen, beruflichen und finanziellen Vorstellungen entsprechen.