KI Sicherheit – Perspektiven auf Risikofaktoren

Gastautor Portrait

Verena Battis

Fraunhofer Institut für Sichere Informationstechnologie

Verena Battis ist wissenschaftliche Mitarbeiterin am Fraunhofer Institut für Sichere Informationstechnologie, welches u.a. IT-Lösungen für Cybersecurity und das Internet der Dinge entwickelt. Seit ihrem Master im Fachbereich Survey Statistics und Economics an der Universität Trier hat sie sich auf den Bereich Künstliche Intelligenz spezialisiert, in welchem sie an privatem und sicherem maschinellen Lernen forscht.

weiterlesen
26. April 2021

KI & Sicherheit kann aus vielen verschiedenen Blickwinkeln betrachtet werden. Zum einen Sicherheit, die durch KI erzeugt wird – sei es im zivilen Kontext bspw. durch Notfallbremsassistenten oder automatisierte Gesichtserkennung an Flughäfen. Im IT-Sicherheitskontext werden maschinelle Lernverfahren, als Teilgebiet der Künstlichen Intelligenz, zur SPAM und Malware Erkennung, zur Benutzer-Authentifizierung und auch zum Identifizieren auffälligen Netzwerkverhaltens eingesetzt, um nur ein paar der Anwendungsgebiete zu nennen.

KI als Werkzeug für Angriffe

KI kann aber eben auch selbst ein Risiko für die Sicherheit darstellen, und zwar in Form von Angriffswerkzeugen. Dabei sind Anwendungen der Künstlichen Intelligenz nicht auf ein bestimmtes Anwendungsgebiet beschränkt, sondern können in einer Vielzahl von Szenarien missbräuchlich eingesetzt werden. Mit Hilfe von KI können beispielsweise Informationen über Personen automatisiert gesammelt und verarbeitet werden. Diese können wiederum genutzt werden, um erfolgreichere Spear phishing Angriffe zu fahren oder um einen weitergehenden Angriff auf den gesammelten Daten zu trainieren. Denkbar wäre hier beispielsweise einen Algorithmus zu trainieren, der das Verhalten eines normalen Nutzers imitiert, um es so einem Angreifer zu ermöglichen, sich unentdeckt in einem Netzwerk aufzuhalten. Alternativ ist es ebenso möglich anhand der gesammelten Daten sogenannte ‚Deep Fakes‘ zu generieren, die zur Denunzierung von Personen, zur gezielten Desinformation oder eben für Social Engineering Angriffe genutzt werden können.

KI-Anwendungen als Ziel

In jedem Fall verletzten sie jedoch die Integrität der Anwendung [...]

Verena Battis

Auf der anderen Seite sind KI-Anwendungen bereits heute tief in unser Leben integriert – manchmal offensichtlicher, wie der Sprachassistent auf dem Smartphone, manchmal weniger offensichtlich in Form von Entscheidungen, die im Bereich des Gesundheitssystems oder der Ressourcenallokation getroffen werden. Während des Trainings, also dem Anlernen der KI-Anwendung, kommt diese zum Teil mit privaten und potenziell sensiblen Informationen in Kontakt, die auch für Angreifer von Interesse sein können. Mögliche Angriffe sind hier, dass versucht wird Datenpunkte, die zum Training des Algorithmus verwendet wurden, zu rekonstruieren (Model Inversion) oder, dass die KI-Anwendung als Ganzes versucht wird zu ‚stehlen‘ (Model Extraction).

Ebenfalls kann ein Angreifer daran interessiert sein, die KI durch sogenannte ‚Adversarial Examples‘ in die Irre zu führen. Diese sind kleine, kaum wahrnehmbare Veränderungen an der Eingabe der Anwendung, welche allerdings dazu führen, dass diese komplett anders reagiert, als sie es auf eine unveränderte Eingabe getan hätte. Im besten Fall sind solche Veränderungen ärgerlich, im schlimmsten Fall können sie jedoch verheerende Konsequenzen haben. In jedem Fall verletzten sie jedoch die Integrität der Anwendung und schädigen so nicht nur das Vertrauen in die entsprechende KI-Anwendung selbst, sondern auch in deren Betreiber.

Angriffsvektoren im Blick behalten

Diese Angriffe machen deutlich, dass es eben auch notwendig ist, die Sicherheit von KI-Anwendungen selbst im Auge zu behalten. Aber auch hier kann und muss die Sicherheit auf verschiedenen Ebenen durchgesetzt werden. D.h. die Systeme, auf denen die KI ausgeführt wird, müssen vor unerlaubten Eindringen und Informationsabgriff geschützt sein. Die Daten, die zum Training der KI verwendet werden, müssen datenschutz- und datensicherheitskonform gelagert, transportiert und verarbeitet werden. Und die KI selbst muss gegen böswillige Angriffe, beispielsweise in Form von robustem Training, geschützt werden.

Diskutieren Sie mit

Ich akzeptiere die Kommentarrichtlinien sowie die Datenschutzbestimmungen* *Pflichtfelder

Artikel bewerten und teilen

KI Sicherheit – Perspektiven auf Risikofaktoren
0
0