Das ist eine für den Ausdruck optimierte Ansicht des gesamten Kapitels inkl. Unterseiten. Druckvorgang starten.

Zur Standardansicht zurückkehren.

Übersicht

1 - KI-Klassen

Systematik von KI-Anwendungen

Ziel des Projektes SENSIBLE-KI ist es, KI-Anwendungen im eingebetteten und mobilen Bereich zu schützen. Um eine möglichst standardisierte Absicherung gewährleisten zu können, ist es notwendig, KI-Anwendungen zu systematisieren. Anhand von diskreten KI-Klassen kann dann der Schutzbedarf ermittelt werden.

Basierend auf der Evaluierung einer großen Anzahl von KI-Anwendungen wurden im Projekt die im Folgenden dargestellten Klassen identifiziert. Es handelt sich dabei um eine vertikale (d.h. mehrdimensionale) Klassifizierung, welche auf verschiedenen Eigenschaften der KI-Anwendungen basiert.

Indem eine Anwendung anhand dieser verschiedenen Ebenen eingeteilt wird, kann ihr ganz individueller Schutzbedarf ermittelt werden.

Herkunft der Inputdaten

Woher kommen die Inputdaten?
Klasse 1:Explizite Nutzereingabe
Klasse 2:Implizite Nutzereingabe (z.B. Tracking)
Klasse 3:Sensor

Art der Daten

Was ist das Format der Inputdaten?
Klasse 1:Bild
Klasse 2:Audio
Klasse 3:Text
Klasse 4:Sonstiges

Personenbezug

Enthalten die Inputdaten sensible Informationen?
Klasse 1:Unkritische Daten
Klasse 2:Daten mit indirektem Personenbezug
Klasse 3:Daten mit direktem Personenbezug

Verarbeitung der Inputdaten

Werden die Inputdaten verarbeitet und wenn ja, wie?
Klasse 1:nein
Klasse 2:ja: automatisiert
Klasse 3:ja: manuell

Vorbereitung der Trainingsdaten

Womit werden die Trainingsdaten vorbereitet?
Klasse 1:Data Cleansing
Klasse 2:Anonymisierungsmechanismen
Klasse 3:Feature Engineering

Trainingszeitpunkte

Wann bzw. wie oft wird das Modell trainiert?
Klasse 1:Modell wird einmalig trainiert (offline learning)
Klasse 2:Modell wird kontinuierlich trainiert (online learning)

Trainingsort

Wo wird das Modell trainiert?
Klasse 1:dezentral und entkoppelt zwischen verschiedenen Geräten
Klasse 2:dezentral und z.B. peer-to-peer zwischen Geräten
Klasse 3:zentral auf Server
Klasse 4:federated

Deployment

Gibt es angreifbare Kommunikationswege?
Klasse 1:Anwendungen, die auf dem Gerät selbst deployt sind und nicht mit einem Server kommunizieren müssen
Klasse 2:Anwendungen, die ein Modell auf dem Server nutzen. Wenn eine Anfrage an die KI auf einem Endgerät kommt, dann wird diese an den Server (über eine API) weitergeleitet und dort beantwortet
Klasse 3:Anwendungen, die ihre Modelle von einem Server bekommen

Art des Modells

Welche Struktur hat das Modell?
Klasse 1:Klassische (nachvollziehbarere) Machine Learning Algorithmen
Klasse 2:Neuronale Netze

Sicherheitsmaßnahmen

Wie wird das Modell geschützt?
Klasse 1:softwareseitig
Klasse 2:hardwareseitig
Klasse 3:beides
Klasse 4:weder noch

Art des Outputs

Was ist die Aufgabe des Modells?
Klasse 1:Klassifizierung
Klasse 2:Regression
Klasse 3:Datenerzeugung

2 - Schutzziele

Schutzziele für KI-Anwendungen

Ein wichtiger Schritt, um die Sicherheit von Systemen, die Künstliche Intelligenz (KI)-Anwendungen verwenden, zu evaluieren, ist es, konkrete Schutzziele für die KI zu definieren. Anhand dieser können die Anwendungen dann bewertet und ihr Schutzbedarf bestimmt werden. In Anlehnung an die klassischen Schutzziele aus der IT-Sicherheit wurden folgende vier Schutzziele herausgearbeitet und auf KI übertragen.

Details zum Angriffsvektor gegen KI-Anwendungen

Der Angriffsvektor gegen KI-Anwendungen lässt sich am besten über das Wissen und die Fähigkeiten der Angreifer beschreiben.

Wissen des Angreifers

Je nachdem, ob ein Angreifer vollen, teilweise, oder keinen Zugriff auf die Interna der KI Anwendungen hat, spricht man von Black-Box, Gray-Box und White-Box-Szenarien. Angreifer können dabei über Wissen und Zugriff auf folgende Aspekte verfügen:

  1. Trainingsdaten der KI-Anwendung
  2. Trainingsalgorithmus
  3. Trainiertes Modell der KI-Anwendung und dessen Parameter

Ein Angreifer, der auf alle drei Aspekte vollen Zugriff hat, wird als Angreifer mit “perfektem Wissen” bezeichnet. Solche Angreifer zu betrachten erlaubt es, worst-case Abschätzungen für die Sicherheit der KI-Systeme durchzuführen.

Jedoch sind derartige Angreifer in der Praxis nicht komplett realistisch. Realistischer sind stattdessen Angreifer mit “begrenztem Wissen”.

Fähigkeiten des Angreifers

Die Fähigkeiten eines Angreifers können anhand des Einflusses, welchen er auf das trainierte Modell der KI-Anwendung und dessen Trainingsdaten hat, folgende sein:

TrainingsdatenKI-Modell
Hinzufügen + Löschen beliebiger Datenpunkte/LabelsUnbegrenzt viele Interaktionen nach dem Training
Hinzufügen + Löschen bestimmter DatenpunkteBegrenzt viele Interaktionen nach dem Training
Veränderung beliebiger/bestimmter DatenpunkteManipulation des Trainingsprozesses

 

Integrität

Integrität von KI-Modellen bedeutet, dass die Modelle “richtige” Vorhersagen auf verschiedensten eintreffenden Daten machen.

Als Beispiel kann man sich einen Spamfilter vorstellen, der auf sinnvollen Daten trainiert wurde. Dieser sollte auch noch korrekt funktionieren, d.h. Spam erkennen, auch wenn ein Angreifer eine Spam-E-Mail gezielt so verfasst, dass sie viele Elemente einer Nicht-Spam-E-Mail beinhaltet.

Details

Integrität kann in KI-Anwendungen auf drei verschiedenen Ebenen beeinträchtigt werden:

  1. Datenebene: Gezielte Korruption der Daten, die das Modell vorhersagen soll.
  2. Modellebene: Gezielte Manipulation des Modellverhaltens oder der Modellparameter.
  3. Output/Objektebene: Gezielte Manipulation der Reaktionen des KI-Systems auf spezifische Modellvorhersagen.

Datenebene

Auf der Datenebene können Inputs des Modells gezielt beeinflusst werden, um zu falschen Vorhersagen zu führen.

Modellebene

Auf der Modellebene können Parameter des Modells während oder nach dem Training so beeinflusst werden, dass das Modell falsche Vorhersagen macht.

Objektebene

Auf der Objektebene können Modelloutputs so manipuliert werden, dass das darumliegende System, welches auf der KI basiert falsch auf den zugehörigen Input reagiert.

Im Kontext der Integrität stehen außerdem die Verlässlichkeit und Beherrschbarkeit. Im Falle der Verlässlichkeit kann ein Angreifer unzulässige Systemzustände bspw. durch unsinnige Eingaben erreichen. Dahingegen ist die Beherrschbarkeit angegriffen, wenn ein Angreifer dem das System auf der Modellebene zu einem nicht-intendierten Verhalten bringen kann.

 

Verfügbarkeit

Bei der Verfügbarkeit in KI-Modellen geht es darum sicherzustellen, dass das Modell die Funktionalität erfüllt, für die es eingesetzt wird.

Nehmen wir als Beispiel nochmal den Spamfilter. Bei der Verfügbarkeit des Modells geht es weniger darum Spam zu verweigern (siehe Integrität), sondern darum sicherzustellen, dass Nicht-Spam Nachrichten durchkommen und die Nutzerin damit ihr E-Mailpostfach sinnvoll nutzen kann.

Details

Wenn ein Angreifer auf die Verfügbarkeit des Modells abzielt, veranlasst er das System dazu, gutartige Instanzen zu verweigern und dadurch nicht richtig zu arbeiten.

Wenn die Ausgabe des ML-Modells in die Funktion des Systems eingebunden ist, kann dies als Denial-of-Service-Angriff betrachtet werden.

 

Vertraulichkeit

Vertraulichkeit beschreibt den Zustand, dass interne Eigenschaften und vertrauliche Informationen über ein trainiertes Modell den Angreifern verborgen bleiben.

Beim Spamfilter sollte es also Angreifern nicht möglich sein, herauszufinden, welche Zeichen, Wörter, oder Formatierungen dieser besonders als Indikatoren für Spam nutzt.

Details

Ein Angriff auf die Vertraulichkeit kann es einem Angreifer ermöglichen, an sensible und vertrauliche Informationen über das trainierte ML-Modell, seine Eigenschaften, Struktur und Parameter zu kommen. Dadurch könnte der Angreifer in der Lage sein, das im Modell repräsentierte geistige Eigentum zu stehlen, gezielter zu manipulieren, oder auch basierend auf dem gewonnenen Wissen die Privatheit der Trainingsdaten anzugreifen.

 

Privatheit

Privatheit bezieht sich im KI-Anwendungsbereich auf die Privatheit der Trainingsdaten, auf denen KI-Modelle trainiert werden. Die Modelle sollten im besten Fall keine privaten Informationen über diese preisgeben.

Bei einem Spamfilter, der auf privaten E-Mails von Alice and Bob trainiert wurde, sollen also weder sein späteres Verhalten noch seine Eigenschaften Rückschlüsse darauf zulassen, was Alice an Bob geschrieben hat.

Details

Bei einem Angriff auf die Privatheit des Modells kann ein Angreifer Informationen über die - möglicherweise sensiblen - Trainingsdaten erlangen. Dies kann schwerwiegende Auswirkungen auf die Privatsphäre der betroffenen Dateninhaber*innen haben.

Ein wichtiger Aspekt im Bereich der Privatheit ist die Anonymität in Abgrenzung zur Pseudonymität. Anonymität kann als der Schutz vor Identifizierung im Allgemeinen, und Pseudonymität als der Schutz vor namentlicher Identifizierung definiert werde. Dies impliziert, dass bspw. zum Erreichen der Anonymität zwei Bilder nicht einander zugeordnet werden dürfen. Speziell während des Trainings von KI-gestützter Identifikation im Bereich der Biometrie kann an Anonymität nicht gewährleistet werden. Hier ist es das schwächere Schutzziel der Pseudonymität zu verfolgen.

 

Zuordnung von Schutzzielen und Attacken gegen KI-Modelle

Es existieren Attacken gegen KI-Anwendungen, welche gezielt die folgenden Schutzziele angreifen.

SchutzzielAttacken
IntegritätAdversarial Attacken
VerfügbarkeitData Poisoning
VertraulichkeitModel Stealing und Model Extraction
PrivatheitModel Inversion, Membership Inference, Attribute Inference, Property Inference
Details zu den Attacken

Adversarial Attacken

Bei Adversarial Attacken manipuliert ein Angreifer einen Datenpunkt, den das fertig trainierte KI-Modell voraussagen soll so, dass die Voraussage des Modells falsch sein wird. Das kann z.B. die gezielte Veränderung von Pixeln in einem Bild sein, sodass das eigentliche Objekt im Bild nicht mehr richtig erkannt wird.

Data Poisoning

Im Data Poisoning geht es darum, dass ein Angreifer schon während des Modelltrainings die Trainingsdaten gezielt manipulieren kann. Dadurch wird die Vorhersagequalität des Modells gezielt manipuliert. Z.B. kann ein Angreifer dies nutzen, um einen Spam-Filter zu umgehen. Wenn das Modell darauf trainiert wurde, gezielt gewählte Worte mit Non-Spam-Nachrichten zu assoziieren, kann ein Angreifer Spam später nicht erkannt werden lassen, indem er diese Worte benutzt.

Model Stealing, Model Extraction

Bei Model Stealing geht es darum, ein trainiertes Modell von seinen eigentlichen Besitzern zu entwenden, z.B. indem es kopiert wird.

Model Extraction ist eine spezielle Form des Model-Stealings, in dem ein Modell über Blackbox-Zugang gestohlen wird. Das heißt, dass ein Angreifer mit dem Modell nur über eine Schnittstelle interagieren kann, aber die erhaltenen Voraussagen des Modells schon gut genug ist, um ein Ersatzmodell zu trainieren, welches das Verhalten des zu Stehlenden aufweist.

Model Inversion

Bei Model Inversion geht es darum, aus einem trainierten KI-Modell Informationen über die Trainingsdaten zu erhalten. Genauer gesagt kann in der Model Inversion eine durchschnittliche Repräsentation der Trainingsdaten (einer bestimmten Klasse) wieder hergestellt werden.

Membership Inference

Membership Inference Attacken beschäftigen sich mit der Frage, ob ein bestimmter Datenpunkt für das Training des Modells benutzt wurde. Dies kann zu Problemen mit der Privatsphäre dieses Datenpunktes führen. Stellt man sich vor, man nutzt einen Klassifikator, der Krebspatientinnen Behandlungsmethoden vorschlägt, so kann man sicher sein, dass dieser Klassifikator auf den Daten von Krebspatientinnen trainiert wurde. Die Information, dass ein konkreter Datenpunkt für das Training verwendet wurde, ist also äquivalent zu der Information, dass das zugehörige Individuum Krebs hat.

Attribute Inference

Bei Attribute Inference geht es darum, anhand öffentlich bekannter Merkmale zu einem Datenpunkt und Zugriff auf ein Modell, welches mit diesem Datenpunkt (und seinen sensiblen und privaten Merkmalen) trainiert wurde, die sensiblen Merkmale zu erfahren.

Property Inference

Bei Property Inference geht es darum, Eigenschaften über das gesamte Trainingsset eines KI-Modells zu erhalten, wie zum Beispiel die Verteilung der Daten. Solche Informationen können zu Privatsphäreproblemen, insbesondere für Minderheiten in der Verteilung führen.

 

Literaturempfehlungen

Dario Amodei, Chris Olah, Jacob Steinhardt, Paul Christiano, John Schulman, and Dan Mané. Concrete Problems in AI Safety. 2016. url: https://arxiv.org/pdf/1606.06565.

Marco Barreno, Blaine Nelson, Anthony D. Joseph, and J. D. Tygar. “The security of machine learning”. In: Machine Learning 81.2 (2010), pp. 121–148. issn: 1573-0565. doi: 10.1007/s10994-010-5188-5. url: https://link.springer.com/content/pdf/10.1007/s10994-010-5188-5.pdf.

Mark Bedner and Tobias Ackermann, “Schutzziele der IT-Sicherheit” Datenschutz und Datensicherheit - DuD 34, no. 5 (May 2010): 323–28, doi: 10.1007/s11623-010-0096-1.

Luis Muñoz-González, Battista Biggio, Ambra Demontis, Andrea Paudice, Vasin Wongrassamee, Emil C. Lupu, and Fabio Roli. “Towards Poisoning of Deep Learning Algorithms with Back-gradient Optimization”. In: Proceedings of the 10th ACM Workshop on Artificial Intelligence and Security - AISec ’17. pp. 27–38. isbn: 9781450352024. doi: 10.1145/3128572.3140451.

Nicolas Papernot. A Marauder’s Map of Security and Privacy in Machine Learning.url: http://arxiv.org/pdf/1811.01134v1. 2016

Nicolas Papernot, Patrick McDaniel, Ian Goodfellow, Somesh Jha, Z. Berkay Celik, and Ananthram Swami. “Practical Black-Box Attacks against Machine Learning”. In: Proceedings of the 2017 ACM on Asia Conference on Computerand Communications Security. Ed. by Ramesh Karri. ACM, 2017. isbn: 9781450349444. doi: 10.1145/3052973.3053009.

Nicolas Papernot, Patrick McDaniel, Arunesh Sinha, and Michael P.Wellman. “SoK: Security and Privacy in Machine Learning”. In: 3rd IEEE European Symposium on Security and Privacy. Los Alamitos, California: Conference Publishing Services, IEEE Computer Society, 2018. isbn: 9781538642283. doi: 10.1109/eurosp.2018.00035.

3 - Software-Maßnahmen

Software-basierte Schutzmaßnahmen gegen Angriffe auf KI-Anwendungen

Im Folgenden wird eine Auswahl an Schutzmaßnahmen vorgestellt, die die Privatsphäre oder Integrität von Machine Learning (ML) Modellen (z.B. neuronalen Netzen) erhöhen sollen.

Weil die Schutzmaßnahmen im Training angewandt werden, wird hier zuerst das Training neuronaler Netze im Allgemeinen beschrieben. Ein neuronales Netz ist eine komplexe mathematische Funktion, die durch mehrere verkettete Schichten, welche aus vielen Parametern bestehen, repräsentiert wird. Im Training lernt ein neuronales Netz mithilfe von Trainingsdaten, die Datenpunkte einer Zieldatenverteilung zu klassifizieren, indem dessen Parameter in einem iterativen Prozess verändert werden. Dabei klassifiziert das neuronale Netz die Trainingsdaten und die Klassifikationen werden durch das Netz zurück propagiert, wobei die Parameter in Richtung der korrekten Klassifikation angepasst werden. Diese Anpassung der Modellparameter wird Gradientenabstieg genannt. Wenn das Modell die Qualität seiner Klassifikationen nicht mehr verbessern kann, wird das Training beendet.


Adversarial Retraining




Adversarial Retraining ist eine Abwehrtechnik gegen sogenannte Adversarial Examples (AE). AEs sind manipulierte Inputs für neuronale Netze, welche zu einer fehlerhaften Vorhersage führen sollen. Dabei ist die Manipulation so subtil, dass sie für den menschlichen Betrachter kaum erkennbar ist. Beim Adversarial Retraining werden solche AEs mit in das Training des zu schützenden Modells aufgenommen, um dessen Robustheit und damit seine Integrität zu erhöhen.

Ein besonders beeindruckendes Beispiel von Adversarial Attacks ist die One-Pixel-Attack. Dabei wird nur ein Pixel in Bildern verändert. Häufig reicht diese kleine Veränderung aus, damit ein neuronales Netz das Bild falsch klassifiziert.


Funktionsweise

Ein AE kann im Rahmen einer Adversarial Attack erzeugt werden, indem ein echter Datenpunkt von dem Zielmodell oder einem ähnlichen klassifiziert wird. Dann wird die Vorhersage durch das Netz bis in den Input hinein zurück propagiert, sodass dieser in Richtung der gewünschten falschen Vorhersage verändert wird. Dadurch wird der Input genau so verändert, dass das Modell ihn schon mit geringer Veränderung falsch klassifiziert. Je nach Art der Adversarial Attack wird der Gradientenabstieg anders und ggf. auch mehrfach durchgeführt. Im Adversarial Retraining werden mithilfe des zu trainierenden Modells AEs aus Trainingsdaten erzeugt und dem Modell als Trainingsdaten gegeben.


Verwendung

Bei linearen Modellen wie zum Beispiel Support Vector Machines oder linearer Regression kann Adversarial Retraining nicht angewandt werden. Neuronale Netze hingegen werden unter Anwendung von Adversarial Retraining tatsächlich robuster gegenüber AEs.


Differential Privacy




Differential Privacy (DP) ist eine populäre Metrik, mit welcher der Einfluss einzelner Daten auf das Ergebnis einer Datenverarbeitung bemessen wird. Dies entspricht gleichzeitig dem Privatsphäreverlust der Personen, zu denen die Daten gehören. Der Privatsphäreverlust wird durch das Hinzufügen von Rauschen in der Datenverarbeitung begrenzt. Ursprünglich kommt DP aus dem Bereich Datenbanken, wird aber seit einigen Jahren auch für privatsphäre-bewahrendes ML benutzt.

Der Netflix-Prize war ein im Jahr 2006 vom Streaming-Dienst Netflix ausgeschriebener Wettbewerb. Ziel war es, den besten Vorhersage-Algorithmus zu finden, welcher das Bewertungsverhalten einzelner Nutzer vorhersagen sollte. Netflix stellte Daten von über 500.000 Nutzern bereit, mit deren Hilfe die Programmierer ihre Algorithmen trainieren konnten. Zwei Wissenschaftler der University of Texas kamen auf die Idee einer sogenannten Linkage Attack. Hierfür wurden die Trainingsdatensätze von Netflix mit den Bewertungen einer anderen Bewertungsplattform namens IMDb abgeglichen. Dadurch konnten tatsächlich einige Nutzer aus den Netflix-Datensätzen identifiziert werden und es gelang eine partielle De-Anonymisierung der Daten.


Funktionsweise

Im ML kann die Privatsphäre von Personen geschützt werden, indem Informationen über deren Daten nur verrauscht in ein neuronales Netz einfließen. Dabei wird der Gradient jedes einzelnen Datenpunkts so gestutzt, dass seine Norm einen gewissen Grenzwert nicht übersteigt und zusätzlich wird der Gradient verrauscht. Mit dieser Technik wird der Privatsphäreverlust nicht nur reduziert, sondern kann auch quantifiziert werden.


Homomorphic Encryption




Homomorphic Encryption (HE) ermöglicht Rechenoperationen wie Addition oder Multiplikation auf verschlüsselten Daten. Die Ergebnisse liegen in verschlüsselter Form vor und sind nur mit Kenntnis des passenden Schlüssels einsehbar. Die Berechnungen liefern dabei die gleichen Ergebnisse, als wären sie auf unverschlüsselten Daten erfolgt.

Forscher arbeiten an praktischen Anwendungen der HE, wie z.B. der Verbesserung der Sicherheit und Transparenz von Wahlen. So könnten mithilfe des Paillier-Kryptosystems verschlüsselte Wahlstimmen automatisch - und damit korrekt - ausgezählt werden, ohne die echten Stimmen zu offenbaren. Dadurch könnte die Unverfälschtheit einer Wahl und gleichzeitig die Privatsphäre der Wähler gewährleistet werden.


Verwendung

HE könnte in ML benutzt werden, um die Privatsphäre sowohl von den Trainingsdaten als auch von Nutzern zu schützen, indem sie ML-Modelle ermöglicht, die verschlüsselte Daten als Input annehmen können und verschlüsselte Vorhersagen ausgeben. Leider wurde bisher noch keine solche Methode für neuronale Netze entwickelt.


Anomaly Detection




Als Anomaly Detection wird die Erkennung von Besonderheiten in Daten genannt. Durch Anwendung von Anomaly Detection können kritische Inputs wie AEs gefiltert werden, sodass die Robustheit und damit die Integrität von ML-Modellen erhöht wird.

Anomalieerkennung findet in vielen Bereichen, wie zum Beispiel der Text- und Bildverarbeitung, Betrugserkennung oder in der Medizin Anwendung.


Verwendung

Um die Robustheit von neuronalen Netzen zu erhöhen, muss ein weiteres Netz parallel dazu genutzt werden, um kritische Inputs zu erkennen und zu entfernen. Dies erfordert zusätzliche Rechenressourcen. Alternativ zum Schutz der Robustheit bzw. Integrität von ML-Modellen kann Anomaly Detection auch für den Schutz der Privatsphäre von Trainingsdaten in ML benutzt werden. So können mittels Membership Inference Attacks bzgl. Privatsphäre besonders gefährdete Trainingsdaten erkannt und aus dem Training ausgeschlossen werden.


Evaluation

Um die Schutzmaßnahmen vergleichen und deren Tauglichkeit für die Anwendung auf leistungsschwächeren Geräten wie eingebettete und Mobilgeräte bewerten zu können, wurden verschiedene ML-Experimente durchgeführt. Dabei wurden neuronale Netze auf dem MNIST- oder dem CIFAR-10-Datensatz mit je einer oder ohne Schutzmaßnahme trainiert. Der MNIST-Datensatz enthält 70.000 graustufige Bilder von handgeschriebenen Ziffern. Der CIFAR-10-Datensatz enthält 60.000 farbige Bilder von verschiedenen Tieren oder Fahrzeugen. Für den MNIST-Datensatz wurde ein Multi-Layer-Perceptron (MLP) mit etwa 670.000 Parametern verwendet, während für den CIFAR-10-Datensatz ein Convolutional-Neural-Network (CNN) mit ca. 5,8 Mio. Parametern gewählt wurde. Die Modelle wurden jeweils in 50 Epochen trainiert und anschließend für die Inferenz von 10.000 Daten benutzt. Für die Inferenz wurde immer die akkurateste Version des Modells über alle Trainingsepochen verwendet und alle 10.000 Inferenzdaten wurden einzeln klassifiziert.


Vergleich der Vorhersagequalität

Die Grafik zeigt den Verlauf der Accuracy (Vorhersagequalität) der ML-Modelle mit verschiedenen Schutzmechanismen für beide Datensätze. Auf beiden Datensätzen ist die Accuracy von Modellen, die mit Differential Privacy geschützt wurden, am schlechtesten. ML-Modelle ohne Schutzmechanismus haben über den gesamten Trainingsverlauf eine sehr ähnliche hohe Accuracy auf beiden Datensätzen. Das Adversarial Training und Retraining beeinflusst die Accuracy auf dem MNIST-Datensatz positiv, während beide auf dem CIFAR-10-Datensatz zu einer verschlechterten Accuracy führen.




Vergleich der Trainingszeit

Eingebettete und Mobilgeräte haben weniger Rechenressourcen als Desktop-PCs, Rack-Server oder Rechen-Cluster. Daher wird das Training von neuronalen Netzen meist auf letzteren durchgeführt. Dennoch ist das Training auf manchen eingebetteten Geräten wie den Jetson-Ge-räten von Nvidia möglich. Die folgende Grafik veranschaulicht die Trainingszeit von ML-Experimenten mit verschiedenen Schutzmechanismen auf zwei verschiedenen Jetson-Geräten sowie einem Desktop-PC. Die Trainingszeit ist in Sekunden auf logarithmischer Skala dargestellt. Trainings ohne Schutzmechanismus und mit Anomaly Detection benötigen etwa gleich viel Zeit, während Differential Privacy eine deutliche Verlangsamung verursacht. Adversarial Training und Retraining benötigen wiederum ein Vielfaches der Trainingszeit von Differential Privacy. Ein klarer Unterschied ist auch zwischen den verschiedenen Geräten zu erkennen. Das Jetson Nano ist wesentlich langsamer als das Jetson Xavier NX, welches seinerseits deutlich langsamer ist als der PC. Da viele Code-Bibliotheken nur sehr umständlich auf den Jetson-Geräten installiert werden können, wurden die Schutzmaßnahmen Anomaly Detection und Adversarial Training bzw. Retraining nicht angewandt.

Vergleich der Inferenzzeit

Die fertig trainierten ML-Modelle wurden auf verschiedenen Geräten ausgeführt, um einzeln alle 10.000 Testdaten eines der beiden Daten-sätze zu klassifizieren. Die durchschnittliche Inferenzzeit pro Datenpunkt ist in der folgenden Grafik für jedes Experiment in Mikrosekunden dargestellt. Für den einfacheren MNIST-Datensatz ist eine klare Ordnung von Inferenzzeiten zwischen den Geräten PC, Jetson Xavier NX, Jetson Nano, Coral Dev Board Mini und Neural Compute Stick 2 (NCS2) zu erkennen, während die Schutzmechanismen keinerlei Einfluss haben. Für den komplexeren CIFAR-10-Datensatz ist der NCS2 schneller als das Jetson Nano. Außerdem ist die Inferenzzeit für alle Schutzmechanismen auf dem gleichen Gerät etwa identisch bis auf Differential Privacy. Dies liegt an einer Modell-Schicht im CNN, die für die Anwendbarkeit von Differential Privacy von einer ähnlichen Schicht ersetzt wurde. Leider konnten keine Experimente auf dem CIFAR-10-Datensatz auf dem Coral Dev Board Mini durchgeführt werden, weil das CNN nicht für dessen Inferenz-Chip namens Edge-TPU kompiliert werden konnte.

Literaturempfehlungen

Goodfellow, I. J., Shlens, J., and Szegedy, C. “Explaining and Harnessing Adversarial Examples” in ICLR (2015).

Abadi, M., Chu, A., Goodfellow, I. J., McMahan, H. B., Mironov, I., Talwar, K., and Zhang, L. “Deep Learning with Differential Privacy” in ACM CCS (2016).

Acar, A., Aksu, H., Uluagac, A. S., and Conti, M. “A Survey on Homomorphic Encryption Schemes: Theory and Implementation” in ACM CSUR (2018).

Chandola, V., Banerjee, A., and Kumar, V. “Anomaly Detection: A Survey” in ACM CSUR (2009).

4 - Hardware-Maßnahmen

Techniken des Trusted-Computing zum Schutz von KI-Anwendungen gegen Angreifer

Evaluierungsübersicht – Trusted Computing Verfahren

Gruppierung und allgemeine Übersicht

Die Verfahren des Trusted Computing wurden in zwei Gruppen unterteilt, die sich in der Umsetzung der Ziele des Trusted Computing unterschieden. Der Gruppe Trusted Execution Environments und verwandte Technologien sind Implementierungen zugeordnet, die dazu Technologien des vorhandenen Anwendungsprozessors nutzen. Die Gruppe Tamper Resistant Hardware hingegen bildet spezifische Hardware-Module ab, die die Ziele des Trusted Computing umsetzen bzw. deren Umsetzung ermöglichen.

Trusted Execution Environments (TEEs) und Frameworks

Basis Technologien

Die Idee eines Trusted Execution Environments (TEE) ist die Trennung sicherheitskritischer Prozesse und ihrer Daten von nicht-vertrauenswürdigem Code. Im Falle von TEEs umfasst Letzterer auch das reguläre Betriebssystem mit all seinen Prozessen (Rich Execution Environment (REE)). Das TEE hat also sein eigenes Betriebssystem und eigene Prozesse (Trusted Applications (TAs)). Um diese Trennung sicherzustellen und den Bereich des TEE auch vor den Eingriffen des REEs zu schützen, muss eine hardwarebasierte unterliegende Technologie genutzt werden. Im Folgenden werden die dafür von verschiedenen Hardwareherstellern bereitgestellten Technologien beschrieben:

TrustZone (TZ) ist eine Technologie, die auf (manchen) ARM Cortex-A Prozessoren verfügbar ist. Sie ermöglicht die Trennung von Ressourcen in eine “Secure World” und eine “Non-Secure World”. Diese Trennung wird durch bestimmte Prozessorbits und sichere Kontextwechsel umgesetzt. Die von TrustZone kontrollierten Ressourcen umfassen den Hauptspeicher, bestimmte Peripheriezugriffe und die Ausführungszeit. Wegen der hohen Verbreitung von ARM Cortex-A Prozessoren in den Bereichen der Mobilgeräte und der eingebetteten Systeme ist diese Technologie auf vielen Embedded- und Mobilgeräten verfügbar.

TrustZone-M (TZM) ist die entsprechende Technologie für ARM Cortex-M Prozessoren mit dem Unterschied, dass hierbei die Kontextwechsel mittels Branch Instructions ablaufen. Dadurch verursachen diese eine geringere Verzögerung. TrustZone-M ist optimiert für Geräte mit Low Power Profilen.

Intel SGX ist eine Instruction Set Extension, verfügbar auf einigen Intel x86 Prozessoren, zur Separation des Speichers in sogenannte “Enclaves”. Diese Enclaves werden verschlüsselt, um illegitime Zugriffe zu verhindern. Intel SGX kann mehrere sichere Bereiche in Form der Enclaves bereitstellen, kontrolliert jedoch nur den Zugriff auf deren Speicher. Eine zusätzliche Absicherung von Peripherie ist nicht vorgesehen.

AMD SEV/PSP ist die Virtualisierungstechnologie von AMD. Sie nutzt den AMD Platform Security Processor (PSP), welcher wiederum ein ARM Chip mit TrustZone ist. Der PSP ist zuständig für die Generation und Verwaltung von Schlüsselmaterial, welches für die Verschlüsselung der Speicherbereiche sowie der CPU-Register der sicheren “Guests” genutzt wird.

RISC-V Physical Memory Protection (PMP) ist ein Modul der RISC-V Architektur, mit welchem Speicherzugriff-Policies über den Prozessor umgesetzt werden können. Die Absicherung von Speicherbereichen kann bei RISC-V basierten TEEs zum Schutz der “sicheren Welten” genutzt werden.

Implementierungen

Beschrieben werden pro Lösung jeweils die notwendigen Voraussetzungen des Anwendungsprozessors bzw. des genutzten Gerätes (Plattform) und ob die Implementierung mit der GlobalPlatform TEE API Specification konform ist (GP Compliance).

Tabelle 1: Kommerzielle / Proprietäre Lösungen

NamePlattformGP ComplianceKommentar
Qualcomm TEE (QTEE / QSEE)TZJa (SFS API)Nutzt neben TrustZone auch die Secure Processing Unit (SPU) (mancher) Qualcomm SoCs. Zertifizierungen: FIPS 140-2 Level 1 (Crypto Lib), FIPS Level 2 (crypto engine core), FIPS Level 1 (PRNG), FIPS Level 1 (Inline Crypto engine)
KinibiTZJaImplementierung für Exynos Chips von Trustonic. Zertifizierungen: Common Criteria (TEE)
TEEGRISTZJaFür Samsung Exynos. TEEGRIS hat ab dem Samsung Galaxy S10 Kinibi auf vielen Samsung-Smartphones abgelöst.
iTrusteeTZJaImplementierung von Huawei. Hat Huaweis vorherige Implementierung, Trusted Core, auf neuen Huawei-Smartphones abgelöst. Zertifizierungen: CC EAL2+
Kinibi-MTZMk. A.Implementierung für Arm Cortex-M Prozessoren von Trustonic. Momentan nur für Microchips SAM L11 verfügbar.

 
Tabelle 2: Forschungs- bzw. Open-Source-Projekte

NamePlattformGP ComplianceKommentar
TrustyTZ, Intel SGXNeinOpen-Source-Implementierung von Android
GoTEETZNeinOpen-Source-Implementierung von f-secure. Bisher nur für folgende SoCs: NXP i.MX6ULL, NXP i.MX6ULZ.
OP-TEETZJaOpen-Source-Implementierung von Linaro bzw. dem TrustedFirmware-Projekt.Die Zielplattform ist ein Linux-Kernel ohne externe TRH mittels TrustZone. Designziele umfassen: Isolation, geringer Speicherverbrauch und Portabilität.
uTangoTZMNeinOpen-Source-Projekt in Entwicklung. Zielplattformen sind IoT Geräte. Ziel ist ein Multi-World TEE mit Mikrokernel-Ansatz und Zero Trust Model: Die Trusted Worlds laufen in TZ Non-Secure Mode. Wenn sie nicht laufen, werden die Daten in der Secure World gespeichert. Nur uTango selbst läuft im Secure Mode. Das Projekt hat eine kleine Trusted Computing Base von 6KB, die sich durch ihre geringe Größe leichter verifizieren lässt.
Trusted FirmwareTZ, TZMNeinImplementierung von Linaro und dient als Basis für TEEs auf ARM Cortex-A und -M Plattformen. Ermöglicht Secure Boot, verschiedene Crypto-Funktionen, sicheren Speicher und Attestation. Referenzimplementierung mit Secure Monitor für TrustZone und damit nutzbar als Basis für TEE-Implementierungen auf ARM Prozessoren.
Pelagi EnclaveRISC-V (PMP)NeinEin laufendes Open-Source-Projekt mit dem Ziel, ein TEE für RISC-V Plattformen zu entwickeln. Skalierbar und basiert auf RISC-Vs PMP Feature. Bisher sind kaum Informationen verfügbar, wie genau Pelagi Enclave eingestezt werden soll bzw. was es genau ist und welche Features bereitgestellt werden.
MultiZone SecurityRISC-V (PMP)NeinOpen-Source Implementierung von Hex Five. Die Implementierung ermöglicht unbegrenzt viele sichere Umgebungen parallel und ist konfigurierbar durch Policies.
KeystoneRISC-V (PMP)NeinOpen-Source-Framework zum Entwickeln von TEEs für RISC-V Prozessoren. Bietet monitorbasierte Primitive zum Entwickeln von, auf Bedürfnisse verschiedener Umgebungen (z. B. IoT vs. Server) angepasste, TEEs.

 

Tamper Resistant Hardware (TRH)

Typen

Die verschiedenen Typen von TRH sind schwierig voneinander abzugrenzen, da kein Konsens zu herrschen scheint, wann welcher Begriff genutzt wird. Lediglich Trusted Plattform Modules (TPMs) sind durch die Trusted Computing Group (TCG) fest spezifiziert. Im Folgenden werden deshalb die Typen, wie sie in diesem Dokument genutzt werden, beschrieben. Wenn die Implementierung keiner dieser Beschreibungen entspricht, wurde in der Auflistung die Herstellerbezeichnung verwendet.

Trusted Plattform Module (TPM): Verfügt über sicheren Speicher, Funktionen zur Schlüsselgeneration und -verwaltung, einen Random Number Generator (per Spezifikation ist kein True Random Number Generator (TRNG) nötig) und Attestation-Funktionen. Spezifiziert von TCG und standardisiert in ISO/IEC 11889. TPM 1.2 und 2.0 sind die aktuell existierenden Versionen, wobei sich die beiden Varianten in Details unterschieden.

Secure Element (SE): Vor physischen Manipulationen geschütztes Modul mit eigenem Prozessor, welches Möglichkeiten zur Schlüsselgeneration und -verwaltung sowie Crypto-Primitive wie Hash-Funktionen und Verschlüsselungsfunktionen bietet. Eigener Speicher ist optional und implementierungsabhängig.

Implementierungen

Für jede TRH ist jeweils der Typ analog zur obigen Beschreibung angegeben, sowie – im Falle der Mobilgeräte – die Plattform, in welche die Lösung integriert ist. Bei “stand-alone” Produkten, die je nach Schnittstelle mit beliebigen Plattformen genutzt werden können, ist dies entsprechend vermerkt.

StrongBox Keymaster API von Android ist eine mit Android Version 9 eingeführte API, die es Anwendungsentwicklern ermöglicht sicherzugehen, dass ihr Schlüsselmaterial von einem mit den StrongBox Anforderungen (separate CPU, sicherer Speicher, ein TRNG1, Maßnahmen gegen Manipulationen) konformen Secure Element verwaltet und gespeichert wird. Bei TRH aus dem Mobilbereich ist deshalb angegeben, ob die jeweilige Lösung mit der StrongBox API genutzt werden kann (StrongBox).

Tabelle 3: Tamper Resistant Hardware

NameTypPlattformStrongBoxKommentar
Titan MSE>= Google Pixel 3JaSeparater Chip von Google, der vor dem Boot mithilfe einer im Chip gespeicherten Signatur verifiziert, ob das Gerät manipuliert wurde. Übernimmt die Verifizierung der LockScreen-Entsperrung, Schlüsselspeicherung und si-chert Firmwareupdates ab. Basiert auf einem ARM Cortex-A3. Bietet Schutz vor Side-Channel-Angriffen und hat eine Tamper Detection. 64 KB Flash Speicher verfügbar.
Apple Secure EnclaveSecure EnclaveiOS, >= iPhone 5sk. A.Sicherheits-Subsystem integ-riert in Apple systems on chip (SoCs). Umfasst den Apple Secure Enclave Processor (SEP), 4 MB internen Speicher und externen, direkt angebunde-nen, durch den SEP verschlüsselten, RAM.
Samsung eSE S3K250AFSE>= Samsung Galaxy S20, standaloneJaVermutlich ein Teil der Knox Vault. 252 kB Flash. Zertifizierungen: CC EAL 5+
Samsung eSE S3FV9RRSEstandalonek. A.1.5 / 2.0 MB Flash. Möglicherweise Teil der Knox Vault ab Samsung Galaxy S21. Zertifizierungen: CC EAL 6+
Knox VaultTamper Resistant Environment>= Samsung Galaxy S21JaÄhnlich wie Apple Secure Enclave ist die Knox Vault ein Sicherheits-Subsystem basierend auf einem SE und bietet u. A. sicheren Speicher für Schlüsselmaterial und Daten.
Huawei inSESE>= Kirin 960k. A.Security Chip eingebettet in den AP in HiSilicon Kirin 960, 970, 980, 710 (P 30 line, Mate 20 line). Zertifizierungen: CFNR Technology Certification of Mobile Financial Service Chip Security, China UnionPay Card Chip Security Specifications, Certificate for Commercial Cipher Product Models, EMVCo (für Kirin 980)
Qualcomm SPUSE>= Qualcomm Snapdragon 855JaIntegriertes Sub-System auf einigen Qualcomm SoCs mit u. A. Schlüsselverwaltung, Crypto-Funktionen und -Beschleunigern. Zertifizierungen: EAL 4+
TPM 1.2TPMstandaloneNein (kein TRNG)Siehe Abschnitt “Typen”. Schnittstelle und andere nicht spezifizierte Details implementationsabhängig.
TPM 2.0TPMstandaloneNein (kein TRNG)Siehe Abschnitt “Typen”. Schnittstelle und andere nicht spezifizierte Details implementations- und profilabhängig.
Microchip ATECC608SEstandalonek. A.Sicherer Schlüsselspeicher für bis zu 16 Elemente. Bietet Signatur- und Hash-Operationen und AES-Verschlüsselung .
NXP EdgeLock SE050SEstandalonek. A.Bietet Signatur- und Hash-Funktionen, AES-Verschlüsselung und 50kB sicheren Flash. Verbindung mit dem Host via I2C Interface. Zertifizierungen: EAL 6+

 

Evaluierungskriterien

Zur Evaluation einiger, für das Projekt SENSIBLE-KI vielversprechend erscheinenden Implementierungen wurden die folgenden Evaluierungskriterien festgelegt:

  • Zugänglichkeit bzw. Einstiegshürden:
    Die Attraktivität für Entwickler bzw. die Wahrscheinlichkeit der tatsächlichen Nutzung der Verfahren wird durch hohe Einstiegshürden und ggf. mit dem Einsatz dieser, verbundene Kosten negativ beeinflusst.

  • Funktionsumfang:
    Der tatsächliche Funktionsumfang der konkreten Verfahren ist vor allem für die spätere Zuordnung der Verfahren zu den KI-Anwendungsfällen relevant. Untersucht wurden hier z. B. welche Crypto-Funktionen umgesetzt wurden und welche Datenmengen mit dem Verfahren abgesichert werden können.

  • Performance:
    Die Nutzung jedes Trusted Computing Verfahrens führt zu zusätzlichem Overhead für beispielsweise Kontextwechsel oder Datenübertragung an ein externes Modul. Um diesen Overhead besser einschätzen zu können, wurden Performance-Messungen für ausgewählte Funktionen des Verfahrens durchgeführt. Diese Ergebnisse sind für die spätere Zuordnung zu den Anwendungsfällen bzw. zur Bewertung der allgemeinen Eignung des Verfahrens wichtig.

  • Marktverbreitung:
    Die Verbreitung einer Lösung hilft bei der Bewertung der Relevanz in der Wirtschaft und wird deshalb – falls möglich – erfasst.

Evaluierte Verfahren - Mobilgeräte

Begründung der Auswahl

Mit Apple und Samsung decken wir zwei der größten Gerätehersteller weltweit ab. Da sich zwischen iOS- und Android-Geräten sowohl Software als auch Hardware stark unterscheiden, ist diese Gegenüberstellung unverzichtbar.

Android-Geräte machen 70% des Smartphone-Marktes aus. Deshalb wurden stellvertretend verschiedene Pixel-Geräte vom Hersteller Google evaluiert, da dort eine optimierte und unveränderte Android Implementierung zur Verfügung steht, welche keine zusätzlichen Hersteller-Apps (sog. Bloatware) enthält.

Von jedem Hersteller wurden High-End Geräte gewählt, da diese jeweils über alle wichtigen, durch den Hersteller zum Zeitpunkt der Evaluierung bereitgestellten, Funktionen verfügen.

Anmerkung zur Performance-Messung

Als Input für die symmetrischen Crypto-Funktionen wurden jeweils Blöcke zufälliger Daten mit einer Größe von 8 MB verwendet.

Da die API für die iOS Secure Enclave nur die Verwendung von asymmetrischer Kryptografie erlaubt , wurde die Performance von AES-Algorithmen via ECIES-Entschlüsselung mit einem secp256r1 –Schlüssel (für AES-128-GCM) bzw. einem secp521r1-Schlüssel (für AES-256-GCM) aus der SE erhoben. Dabei ist zu bemerken, dass die Performance von AES-GCM via ECIES unter iOS nicht mit der Performance von AES-GCM unter Android verglichen werden sollte: beim ECIES-Verfahren wird der in der Hardware gespeicherte Schlüssel nur für die initiale Schlüsselableitung benötigt.

Evaluierungen

Google Pixel (Android mit Tensor SoC und Titan M- bzw. M2-Chip)

  • Zugänglichkeit:
    Google stellt die vollumfängliche, frei verfügbare Android Security Library zur Verfügung, welche eine hohe Qualität aufweist. Außerdem werden Entwickler durch Android-Studio, SDKs sowie große Mengen an Dokumentation und Implementierungsbeispielen unterstützt. Daneben gibt es eine große Community von Android-Entwicklern.

  • Funktionsumfang: Die Android Security Library stellt eine Vielzahl an Verfahren und Algorithmen bereit. Es existieren zahlreiche Algorithmen u.A. für Verschlüsselung (symmetrisch/asymmetrisch), Signaturen, Message Digest, Schlüsselgenerierung, Attestation. Zudem gibt es mit dem Android Keystore System eine API zur sicheren Verwahrung von Schlüsseln. Diese kann auf einigen Geräten mit StrongBox, einem integrierten HSM, genutzt werden. Die Anzahl der speicherbaren Schlüssel ist nicht begrenzt. In der Trusted Execution Engine (Tensor Security Core) können nur die von Google bereitgestellten Algorithmen ausgeführt werden. Auf den evaluierten Geräten wird mit großer Wahrscheinlichkeit Googles eigenes TEE Trusty TEE verwendet, um den Android KeyStore abzusichern, wenn StrongBox nicht genutzt wird bzw. nicht genutzt werden kann.

  • Performance:
    Tabelle 4: Performance – Pixel 5, Android 12

    Algorithmus / ProviderBouncyCastleAndroidKeyStore (Trusty TEE)AndroidKeyStore + StrongBox
    AES-128-GCM645.28 MB/s6.77 MB/s0.01 MB/s
    AES-256-GCM599,19 MB/s6,68 MB/s0,01 MB/s
    HMAC-SHA-2561.398,10 MB/s15,36 MB/s0,02 MB/s
    secp256r1 keygen1.666,67 keys/s39,35 keys/s4,25 keys/s
    secp256r1 ECDSA sign5.882,35 ops/s77,16 ops/s9,54 ops/s
    secp256r1 ECDSA verify2.500,00 ops/s2.500,00 ops/s833,33 ops/s
    Tabelle 5: Performance – Pixel 6 Pro, Android 12
    Algorithmus / ProviderBouncyCastleAndroidKeyStore (Trusty TEE)AndroidKeyStore + StrongBox
    AES-128-GCM838.86 MB/s3.4 MB/s0.04 MB/s
    AES-256-GCM762,60 MB/s4,86 MB/s0,05 MB/s
    HMAC-SHA-2561.677,72 MB/s9,07 MB/s0,05 MB/s
    secp256r1 keygen2.777,78 keys/s112,23 keys/s11,50 keys/s
    secp256r1 ECDSA sign7.692,31 ops/s190,48 ops/s22,64 ops/s
    secp256r1 ECDSA verify4.761,90 ops/s1.694,92 ops/s714,29 ops/s

  • Marktverbreitung: Google Pixel Geräte sind eher gering verbreitet. 2021 lag der Marktanteil in Deutschland bei etwa 1,2% und 3,8% in den USA.

 
Samsung Knox (Android)

  • Zugänglichkeit: Samsung stellt neben der Android Security Library (siehe Google Pixel) eigene freie Bibliotheken unter dem Namen Samsung Knox SDK zur Verfügung. Diese sind weniger umfangreich dokumentiert und weniger stark verbreitet, da sie nur exklusiv für Samsung-Geräte zur Verfügung stehen. Diese machen die hauseigene Hardware Samsung Knox Vault nutzbar.

  • Funktionsumfang: Zusätzlich zur Android-Bibliotheken stellt Samsung folgende Funktionen zur Verfügung:

    • Weaver (Android-Passwortauthentifizierung),
    • Credential Storage (speichert Schlüssel, biometrische Daten usw.) und
    • Samsung Attestation Key (unterstützt auch Firmware und weitere Geräte).
    • Der Schlüsselspeicher Knox Vault Storage speichert eine unbegrenzte Anzahl an Schlüsseln.
    • Der Knox Vault Processor führt ausschließlich von Samsung zur Verfügung gestellte Algorithmen aus. Auf den evaluierten Geräten wird mit großer Wahrscheinlichkeit Samsungs eigenes TEE TEEGRIS verwendet, welches mit dem Samsung Galaxy S10 eingeführt wurde, um den Android KeyStore abzusichern, wenn StrongBox nicht genutzt wird bzw. nicht genutzt werden kann.
  • Performance:
    Tabelle 6: Performance – Samsung Galaxy A50, Android 11

    Algorithmus / ProviderBouncyCastleAndroidKeyStore (TEEGRIS)AndroidKeyStore + StrongBox
    AES-128-GCM399.46 MB/s5.89 MB/sn.V.
    AES-256-GCM399.46 MB/s5.78 MB/sn.V.
    HMAC-SHA-2561198.37 MB/s14.39 MB/sn.V.
    secp256r1 keygen694.44 keys/s15.89 keys/sn.V.
    secp256r1 ECDSA sign4000 ops/s63.29 ops/sn.V.
    secp256r1 ECDSA verify1724.14 ops/s1298.7 ops/sn.V.
    Tabelle 7: Performance – Samsung Galaxy S20FE, Android 11
    Algorithmus / ProviderBouncyCastleAndroidKeyStore (TEEGRIS)AndroidKeyStore + StrongBox
    AES-128-GCM838,86 MB/s7,9 MB/s0,18 MB/s
    AES-256-GCM838,86 MB/s8,62 MB/s0,18 MB/s
    HMAC-SHA-2561.677,72 MB/s21,51 MB/s0,37 MB/s
    secp256r1 keygen2.000 keys/s11,06 keys/s0,96 keys/s
    secp256r1 ECDSA sign11.111,11 ops/s74,85 ops/s12,17 ops/s
    secp256r1 ECDSA verify4.545,45 ops/s1.960,78 ops/s1.204,82 ops/s

  • Marktverbreitung: Samsung hatte 2021 einen Marktanteil von ca. 20% und ist damit der zweitgrößte Smartphone-Hersteller weltweit.

 
Apple iPhone (Secure Enclave)

  • Zugänglichkeit: Apple stellt die frei verfügbare Bibliothek Apple CryptoKit zur Verfügung, welche eine hohe Qualität aufweist. Außerdem werden Entwickler durch XCode sowie große Mengen an Dokumentation und Implementierungsbeispielen unterstützt. Daneben gibt es eine große Community von iOS-Entwicklern.

  • Funktionsumfang: CryptoKit bietet die Module SecKey API (für asymmetrische Schlüssel), Common Crypto Library (symmetrische Verschlüsselung, hashbasierte MACs, Message Digests, Attestation) und CryptoTokenKit (für Smart-Card-Support). Es kann eine hohe Anzahl an ECC-256Bit-Schlüsseln in einem exklusiven Speicherbereich gespeichert werden. Andere Schlüsselformate werden nicht zur Verfügung gestellt. In der Trusted Execution Engine (Secure Enclave) können nur die von Apple bereitgestellten Algorithmen, also keine eigenen Applikationen, ausgeführt werden.

  • Performance:
    Tabelle 9: Performance – iPhone X

    Algorithmus / Providerohne Secure Enclavemit Secure Enclave
    AES-128-GCM Decrypt2 (ECIES via secp256r1-Schlüssel)763,26 MB/s472,95 MB/s
    AES-256-GCM Decrypt (ECIES via secp521r1-Schlüssel)495,82 MB/sn. V.
    secp256r1 ECDH key exchange3.892,00 ops/s135,97 ops/s
    secp256r1 ECDSA sign3.769,10 ops/s95,36 ops/s
    secp256r1 ECDSA verify5.272,65 ops/s1.492,70 ops/s
    Tabelle 10: Performance – iPhone 12 Pro
    Algorithmus / Providerohne Secure Enclavemit Secure Enclave
    AES-128-GCM Decrypt (ECIES via secp256r1-Schlüssel)1.849,27 MB/s755,34 MB/s
    AES-256-GCM Decrypt (ECIES via secp521r1-Schlüssel)1473,18 MB/sn. V.
    secp256r1 ECDH key exchange3.417,93 ops/s148,43 ops/s
    secp256r1 keygen192,37 keys/s100,93 keys/s
    secp256r1 ECDSA sign3832,87 ops/s124,64 ops/s
    secp256r1 ECDSA verify6416,70 ops/s2181,78 ops/s
    Tabelle 11: Performance – iPhone 13 Pro
    Algorithmus / Providerohne Secure Enclavemit Secure Enclave
    AES-128-GCM Decrypt (ECIES via secp256r1-Schlüssel)1.172,12 MB/s757,24 MB/s
    AES-256-GCM Decrypt (ECIES via secp521r1-Schlüssel)883,49 MB/sn. V.
    secp256r1 ECDH key exchange7.820,13 ops/s212,38 ops/s
    secp256r1 keygen283,47 keys/s135,35 keys/s
    secp256r1 ECDSA sign6.527,13 ops/s193,38 ops/s
    secp256r1 ECDSA verify7.216,83 ops/s3.392,44 ops/s

  • Marktverbreitung: Apple hatte 2021 einen Marktanteil von 19,2% und ist damit der drittgrößter Smartphone-Hersteller weltweit.

 

Übersicht der Ergebnisse

Tabelle 12: Übersicht der Ergebnisse für Mobilgeräte

VerfahrenZugänglichkeitFunktionalitätPerformanceMarktverbreitung
Google Pixelguthochstarke Performance-Einbußen bei Verwendung der “AndroidKeyStore”-TEE gegenüber der Software-Implementierung; sehr starke Einbußen bei Verwendung des “StrongBox”-SEsehr gering
Samsung Knoxgut / mittelhochstarke Performance-Einbußen bei Verwendung der “AndroidKeyStore”-TEE gegenüber der Software-Implementierung; sehr starke Einbußen bei Verwendung des “StrongBox”-SEsehr hoch
Apple iPhoneguthochstarke Performance-Einbußen bei Verwendung der Secure Enclavesehr hoch

Evaluierte Verfahren – Eingebettete Systeme

Begründung der Auswahl

Als TEE wurde OP-TEE gewählt, da es sich um eine Opensource-Lösung handelt und somit eine der wenigen, auf die problemloser Zugriff möglich ist. Außerdem ist OP-TEE kompatibel mit der GlobalPlatform (GP) TEE API und dementsprechend geeignet für Entwicklung von TAs für alle GP kompatiblen TEEs.

Kinibi-M auf dem SAML11 Evaluation Kit wurde gewählt, um Arm-Cortex M Prozessoren mit TrustZone-M Unterstützung abzudecken.

Der NXP SE050 und der Zymkey 4i von Zymbit sind beide Secure Elements, kompatibel mit dem RasperryPi und somit leicht zu evaluieren und gut für die Entwicklung von Prototypen einzusetzen. Die SEs unterschieden sich in den verfügbaren Crypto-Funktionen und der Zielgruppe. Zudem wurde als TRH das TPM 2.0 Modul von Let’sTrust gewählt. Dieses ist ebenfalls kompatibel mit dem RaspberryPi und implementiert die TPM 2.0 Spezifikation.

Anmerkung zur Performance-Messung

Als Inputgröße für die Crypto-Funktionen wurde jeweils entweder die maximal unterstützte Buffergröße oder, bei keiner offenkundigen Begrenzung, 1MB verwendet. Es wurde jeweils der letzte API-Call vor einem Wechsel in entweder die Schnittstellenübertragung zur TRH bei externen Modulen oder einem Kontextwechsel in die sichere Welt bei TEEs gemessen.

OP-TEE (STM32MP157A-DK1)

  • Zugänglichkeit:
    Es sind sowohl Open-Source Quellcode als auch Dokumentation zur Nutzung und “Installation” von OP-TEE verfügbar. Es existieren ein Build-Guide und eine Architekturbeschreibung. Die zugehörige API Doku ist die offizielle GlobalPlatform TEE API 1.0. Die Dokumentation von Linaro/TrustedFirmware ist ausreichend aktuell und vollständig.
    Es existieren verschiedene – leider unkommentierte – Code-Beispiele in C und ein build.git mit fertigen Builds für bestimmte Plattformen. Soll OP-TEE auf einer dort nicht enthaltenen Plattform genutzt werden, ist dies deutlich anspruchsvoller und erfordert Erfahrung oder Kenntnisse im Bereich der Betriebssystementwicklung und Betriebssystemstruktur, da hier der Build aus verschiedenen Bestandteilen (op-tee, linux, u-boot, Plattform-spezifische Treiber…) mit entsprechenden Makefiles selbst erstellt werden muss. Die Nutzung von OP-TEE ist mit einer Menge verschiedener Plattformen möglich, jedoch sind nur einige davon vorhanden im build-git.

  • Funktionsumfang: Der Funktionsumfang entspricht der GlobalPlattform TEE Spezifikation und ist dementsprechend umfangreich. Unter anderem unterstützt wird RSA- und AES-Verschlüsselung und sicherer Speicher. Bisher bietet OP-TEE keinen Support für Remote- oder Key-Attestation. Da es sich um ein Open-Source TEE handelt, ist die Erstellung und Einbindung eigener TAs kein Problem und es besteht über OP-TEE mittels Pseudo TAs die Möglichkeit, bestimmte Peripherie mittels TrustZone abzusichern.
    Das genutzte Board verfügt über einen TRNG und dieser wird von OP-TEE, soweit überprüfbar, auch genutzt.

  • Perfomance: Tabelle 13: Performance – OP-TEE (STM32MP157A-DK1)

    FunktionPerformance
    AES128-CTR Enc4,56 MB/s
    AES128-CTR Dec4,56 MB/s
    RSA2048-RSAES Enc2,44 kB/s
    RSA2048-RSAES Dec0,16 kB/s

  • Marktverbreitung: Bezüglich der Marktverbreitung sind keine Angaben möglich, da es keine Daten gibt. OP-TEE verfügt jedoch über einen hohen Bekanntheitsgrad.

 
NXP EdgeLock SE050 Development Kit

- **Zugänglichkeit:** Die Dokumentation ist nur über einen Download nach Anmeldung auf der Webseite des Herstellers verfügbar. Gleiches gilt für die gesamte Middleware (eine reduzierte Version der Middleware ist auch auf GitHub verfügbar). Der Quellcode wird mitausgeliefert. Die Dokumentation ist teils unerwartet strukturiert und stellenweise sehr knapp. Alles in allem ist die Doku in Bezug auf die relevanten Informationen vollständig und für Personen, die sich etwas mit der Materie (also SEs und kryptografischen Funktionen) auskennen und wissen, wonach sie suchen müssen, gut nutzbar. Die Anbindung mittels I2C ermöglicht theoretisch die Nutzung mit allen Linux-fähigen Geräten mit einer entsprechenden Schnittstelle – getestet wurde jedoch nur mit dem RaspberryPi 3.

  • Funktionsumfang: Das SE hat einen nach NIST SP800-90A implementierten PRNG. Es werden sowohl AES- und RSA-Verschlüsselung als auch verschiedene ECC-Methoden unterstützt. Generell ist die API recht umfangreich und unterstützt viele Crypto-Primitive. Das Gerät verfügt über 50 kB secured user flash memory, in welchem Secure Object wie bspw. Schlüssel gespeichert werden können. Der implementierte Key Store unterstützt Key-Attestation. Der NXP SE050 bietet eine zweite I2C Schnittstelle, an die ein externes Gerät – wie beispielsweise ein Sensor – angeschlossen werden kann, was ein attestiertes Auslesen der Sensor-Daten über das SE ermöglicht.

  • Perfomance: Tabelle 14: Performance – NXP EdgeLock SE050 Development Kit

    FunktionPerformance
    AES128-CBC Enc2,7 kB/s
    AES128-CBC Dec2,7 kB/s
    HMAC-SHA2562,8 kB/s
    ECDSA-SHA256 Sign0,5 kB/s

  • Marktverbreitung: Zur Markverbreitung sind keine Angaben möglich, da keine Daten verfügbar sind. Der NXP EdgeLock ist Teil der Google SE Alliance, wodurch zukünftig eine erhöhte Verbreitung möglich ist.

 
Zymkey 4i

  • Zugänglichkeit: Die Dokumentation der Zymbit API ist sowohl auf der Herstellerseite als auch als PDF-Version3 verfügbar. Es gibt eine C-API, eine C++-API und eine Python-API. Die jeweiligen Dokumentationen sind – insbesondere bezüglich der Methodenbeschreibungen in den unterschiedlichen APIs – an einigen Stellen inkonsistent. Man erhält also durch das Lesen der Python-API nicht dieselben Informationen über das Gerät und die Methoden, wie durch das Lesen der C-API. Auch die API auf der Herstellerseite unterscheidet sich von der PDF-Version. Weiterhin sind in der Dokumentation alle Funktionen für alle Zymbit-Geräte enthalten. Da die Funktionen keiner direkt erkennbaren Sortierung in Bezug auf die Verfügbarkeit auf den einzelnen Geräten folgt, muss dadurch bei jeder Funktion in der Beschreibung dieser überprüft werden, ob diese überhaupt auf dem Zymkey 4i unterstützt wird. Grundsätzlich wird jedoch durch den geringen Umfang an Funktionen bereitgestellten Beispielcode und die vorhandene Python-API die Nutzung auf für nicht-C-Programmierer eine Nutzung stark erleichtert. Die Nutzung des Zymkey ist theoretisch mit allen I2C-fähigen Geräten möglich, jedoch sind die Libraries zur Nutzung – zum Zeitpunkt der Evaluation – nur als Debian Pakete verfügbar, sodass eine Portierung erschwert wird.

  • Funktionsumfang: Der Zymkey 4i bietet eine lock-Methode, welche Daten mittels AES-128 verschlüsselt und mit einem vom Hersteller vorinstallierten, einzigartigen ECDSA-Key signiert. Es können keine eigenen Schlüssel gespeichert oder neue generiert werden. Ein Schlüsselspeicher kann also nur in vom Zymkey verschlüsseltem Speicher des Hostgerätes realisiert werden. Der Zymkey 4i nutzt – vermutlich – den TRNG des integrierten ATECC608 Chips für die Generation von Zufallszahlen. Abgesehen von besagter lock-Methode und der Generation von Zufallszahlen unterstützt der Zymkey lediglich eine weitere Krypto-Funktion: ECDSA-SHA256 Signaturen, wobei der SHA256 Hash scheinbar nicht durch den Zymkey, sondern auf dem Host-Gerät berechnet wird. Obwohl der ATECC608 weitere kryptographische Operationen unterstützt, werden diese durch die API beim Zymkey 4i nicht angeboten. Dazu müsste man auf das Zymbit HSM6 (das über denselben Chip verfügt) zurückgreifen. Remote Attestation wird im Product Brief des Zymkey 4i als Feature angepriesen, allerdings lässt sich dazu weder etwas in der API Doku noch im zugehörigen Forum finden, wie diese genau umgesetzt werden kann.

  • Perfomance: Tabelle 15: Performance – Zymkey 4i

    FunktionPerformance
    “Lock” (AES-128 Enc & ECDSA Sign)2,61 kB/s
    “Unlock” (AES-128 Dec & ECDSA Verify)2,61 kB/s
    ECDSA Sign0,23 kB/s

  • Marktverbreitung: Zur Markverbreitung sind keine Angaben möglich, da keine Daten verfügbar sind.

 
Let'sTrust TPM 2.0

  • Zugänglichkeit:
    Es existieren verschiedene Implementierungen der TPM 2.0 API. Für die experimentelle Evaluierung wurde diese genutzt. Dokumentation ist in Form mehrerer Spezifikations-Dokumente von der Trusted Computing Group (TCG) vorhanden. Diese sind sehr umfangreich und komplex. Außerdem existiert für die referenzierte Implementierung ein Tool, mit dem die TPM2-API leicht von der Kommandozeile des Hostgerätes aus genutzt werden kann. Das Tool selbst ist ausreichend gut dokumentiert. Für die TPM2-API Implementierung selbst existiert hingegen scheinbar kein Beispielcode, an dem Einsteiger sich bzgl. der Nutzung der API orientieren könnten.
    Das Let’sTrust TPM kann über eine SPI Schnittstelle und mittels der Code-Libraries leicht mit jedem Linux-fähigen Gerät mit einer solchen Schnittstelle genutzt werden.
  • Funktionsumfang: Der Funktionsumfang des Let’sTrust TPM 2.0 entspricht dem erforderlichen (mandatory) Funktionsumfang der TPM 2.0 Spezifikation. Das TPM verfügt über einen Deterministischen-RNG nach NIST SP800-90A, für die Generation von Zufallszahlen. Das TPM unterstützt RSA Ver- und Entschlüsselung und verschiedene Signatur-Methoden sowie Elliptic Curve Cryptography und unterstützt Elliptic Curve Diffie Hellman, jedoch keine AES Verschlüsselung bzw. nicht den entsprechenden, optionalen, TPM Command TPM2_EncryptDecrypt. Schlüssel oder andere zu sichernde Daten können in den 6kB Speicher des TPMs vor Manipulationen geschützt gespeichert werden. Aktuell gibt es noch keine Möglichkeit zur Remote Attestation mit dem Let’sTrust TPM, jedoch ist sie in Planung. Über die Methode TPM2_Certify kann attestiert werden, dass ein Key auf dem TPM gespeichert ist, jedoch unterstützt das evaluierte Board nicht die TPM2_CertifyX509 Methode, mich welcher auch die Attribute eines Keys/Objekts mit einem X.509 Zertifikat attestiert werden würden. Das TPM verfügt über keine weiteren Schnittstellen zum Anschließen anderer Peripherie.
  • Perfomance: Tabelle 16: Performance –Let’sTrust TPM 2.0
    FunktionPerformance
    HMAC-SHA2564,79 kB/s
    RSA2048-RSAES Enc3,45 kB/s
    RSA2048-RSAES Dec0,77 kB/s
  • Marktverbreitung: Zur Markverbreitung sind keine Angaben möglich, da keine Daten verfügbar sind. TPM 2.0 Implementierungen im Allgemeinen jedoch verbreitet eingesetzt.

 
Kinibi-M

  • Zugänglichkeit:
    Das Kinibi-M SDK ist nicht Open-Source und kann nur nach Anmeldung und Anfrage bei Trustonic über einen Link heruntergeladen werden. Bisher wird Kinibi-M nur für den Atmel SAML11 (das Production SDK nur für den SAML11 KPH mit einzigartigem Key) angeboten. Die Dokumentation wird mit dem SDK ausgeliefert und ist sehr umfangreich und gut strukturiert. Neben der reinen API-Dokumentation existieren noch ein Getting Started Dokument und der Kinibi-M Developer’s Guide, die den Einstieg erleichtern. Zusätzlich dazu liefert das SDK einige Code Samples, anhand deren die Nutzung von Kinibi-M leicht zu erschließen ist.

  • Funktionsumfang: Die Kinibi-M Crypto API bietet u. A. die folgenden relevanten Funktionen: AES-128 Ver- und Entschlüsselung, Hashberechnung mit SHA256, Speichern von Daten im Secure Storage (1kB Data Flash auf dem Board verfügbar) und Zufallszahlengeneration. Es ist anhand der Dokumentation nicht ersichtlich, ob Kinibi-M den TRNG des SAML11 nutzt oder einen DRNG (ggf. auf Basis des TRNG) implementiert. Eine Key- oder Remote-Attestation nach klassischer Definition ist nicht implementiert. Über die Möglichkeiten von TrustZone-M kann Peripherie abgesichert werden bzw. kann sichere Peripherie aus der TA heraus genutzt werden. TAs für Kinibi-M können leicht mit dem SDK entwickelt werden.

  • Perfomance: Leider konnten in der Kürze der Zeit keine Performance-Messungen mit dem SAML11 Xplained Pro durchgeführt werden, da eine Zeitmessung auf diesem Board ungleich komplexer – und auch grundverschieden – durchzuführen wäre als mit den Linux-fähigen anderen Boards.

  • Marktverbreitung: Zur Markverbreitung sind keine Angaben möglich, da bisher keine Daten verfügbar sind. Da Kinibi-M bisher nur für eine einzige Plattform verfügbar ist, vermutlich sehr niedrig. Wenn mehr ARM Cortex-M Prozessoren mit TrustZone-M eingesetzt werden sollten, wird die Verbreitung vermutlich aufgrund des Bekanntheitsgrads von Kinibi steigen.

 

Übersicht der Ergebnisse

Tabelle 17: Übersicht der Ergebnisse für eingebettete Systeme

ImplementierungEinstiegshürdenUmgesetzte FunktionalitätPerformanceMarkt-verbreitung
NXP SE050mittel – hochhochgeringk. A.
Zymkey 4igering - mittelgeringgeringk. A.
Let’sTrust TPM 2.0hochhochgeringk. A.
OP-TEEmittel – hochhochmittel – hochk. A.
Kinibi-Mgeringgeringk. A.k. A.

  1. True Random Number Generator.

  2. Hier wurde spezifisch das Entschlüsseln per ECIES gemessen, da nur dabei auf den asymmetrischen Schlüssel in der Secure Enclave zugegriffen werden muss.

  3. https://s3.amazonaws.com/zk-sw-repo/zk_app_utils.py.pdf bzw. https://s3.amazonaws.com/zk-sw-repo/zk_app_utils.c.pdf

5 - Evaluierung

Evaluierung der Schutzmaßnahmen

Software- und Hardware-seitige Schutzmaßnahmen können anhand verschiedener Kriterien bewertet werden. Wichtige Kriterien sind

  • Genauigkeit (Anteil korrekter Vorhersagen auf Testdaten)
  • Robustheit (Genauigkeit auf manipulierten Daten)
  • Privatsphärerisiko (Wirksamkeit von Membership-Inference-Attacken)
  • Trainingszeit (Dauer des Modelltrainingsprozesses)

Für eine sinnvolle Interpretation der Bewertung sollte diese mit der Bewertung derselben KI-Anwendung ohne Schutzmaßnahme verglichen werden.

Im folgenden werden die Evaluationsergebnisse einiger Schutzmaßnahmen für beispielhafte KI-Anwendungen dargestellt.

Software-Maßnahmen

Die Robustheit beschreibt das Verhältnis der Genauigkeit mit normalen Eingangsdaten zu der Genauigkeit mit bösartig manipulierten (adversarial) Eingangsdaten.

Das Privatsphärerisiko wird berechnet als der Vorteil eines Angreifers mit Membership-Inference-Angriffen (True Positive Rate / False Positive Rate - 1).

MNIST-Datensatz

MaßnahmeGenauigkeitRobustheitPrivatsphärerisikoTraining Time
keine98,3 %11,9 %0,4572 s
DP-SGD94,2 %4,8 %< 0,198 s
Anomaly Detection98,3 %4,4 %< 0,165 s
Adversarial Training98,9 %76,8 %0,12286 s

CIFAR10-Datensatz

MaßnahmeGenauigkeitRobustheitPrivatsphärerisikoTraining Time
keine81,6 %18,4 %0,31373 s
DP-SGD63,9 %54,5 %< 0,11061 s
Anomaly Detection79,4 %17,6 %0,4313 s
Adversarial Training71,9 %23,1 %22,02930 s

Hardware-Maßnahmen

MaßnahmeVerzögerungStromverbrauchGerät / Setup
Modell-Signierung282 ms< 0,01 WJetson Nano / Raspberry Pi 3, Zymkey 4i
Modell-Signierung12 msmittelHuawei P20 Pro (Android)
Sensordaten-Attestierung77 ms0,15 WRaspberry Pi 3, NXP SE050 Edge Lock, 3-Axis Accelerometer, Burst-Read (6 Byte, I2C API)
Sensordaten-Attestierung0,221 msgeringHuawei P20 Pro (Android)
Verschlüsselung (AES128)2,68 kB/s0,07 - 0,15 WRaspberry Pi 3, NXP SE050 Edge Lock (CBC Mode)
Verschlüsselung (AES128)2,617 kB/s< 0,01 WRaspberry Pi 3, Zymkey 4i (ECDSA Signatur, Mode unbekannt)
Verschlüsselung (AES128)4566 kB/s0,07 - 0,14 WOP-TEE, STM32MP1 (CTR Mode)
Verschlüsselung (AES128)0,095 msgeringHuawei P20 Pro (Android)

6 - Empfehlungen

Schutzmaßnahmen der Prototypen und Anwendungsszenarien

Schutzmaßnahmen der Prototypen und Anwendungsszenarien

1. Einleitung

Im Folgenden werden softwarebasierte Schutzmaßnahmen sowie Verfahren aus dem Bereich des Trusted Computing vorgeschlagen, um den Schutz vor Angriffen auf KI-Anwendungen auf mobilen und eingebetteten Geräten zu verbessern.

Zu Beginn werden in Kapitel 2. Betrachtete Maßnahmen alle in diesem Dokument betrachteten Maßnahmen mit ihrer jeweiligen Schutzwirkung in einer Übersicht vorgestellt. Im darauffolgenden Kapitel 3. Schutzmaßnahmen nach Anwendungs-Charakteristiken werden diese Schutzmaßnahmen zunächst generisch für Anwendungen mit spezifischen Anwendungscharakteristiken vorgeschlagen. Danach werden auf Basis dieser generischen Vorschläge Schutzkonzepte für zwei konkrete Anwendungen, die im Rahmen des Projektes SENSIBLE-KI entwickelt werden – “SeamlessMe” und “Self-ID” – in Kapitel 4. Referenzarchitekturen vorgestellt.

Die vorgeschlagenen Maßnahmen und Schutzkonzepte sind jeweils zusätzlich zu Verfahren der allgemeinen System- und Anwendungssicherheit (bspw. TLS-Verschlüsselung bei Netzwerkkommuni-kation) zu betrachten, welche nicht im Scope dieses Verbundvorhabens liegen.

2. Betrachtete Maßnahmen

Die hier betrachteten Maßnahmen sind entweder dem Bereich softwarebasierter Schutzmaßnahmen oder den Trusted-Computing-Verfahren zuzuordnen. In diesem Abschnitt werden zur Übersicht alle betrachteten Maßnahmen zusammen mit der erzielten Schutzwirkung und anderen nennenswerten Effekten aufgelistet.

2.1 Softwarebasierte Maßnahmen

MaßnahmeSchutzwirkungKommentar
Adversarial TrainingRobustheit
  • verringerte Accuracy
  • nachteilig für Privatheit
Anomaly DetectionRobustheit
  • erhöhte Latenz und zusätzliche Kommunikation
  • zusätzliche Hardware/Geräte oder Speicherplatz erforderlich
Data-Sanitization (Input-Daten)Robustheit
Data-Sanitization (Output-Daten)Privatheit
  • verringerte Accuracy und Fairness
Differential PrivacyPrivatheit
  • verringerte Accuracy und Fairness
  • nachteilig für Robustheit

2.2 Trusted Computing

VerfahrenSchutzwirkungKommentar
Remote/Device-AttestierungRobustheit
  • technische Voraussetzungen an Gerät
Daten-Attestierung (z. B. externe Sensordaten)Robustheit
  • hohe Latenz
  • für Input-Sensordaten spezifisches Setup mit SE notwendig
Modell-SignaturRobustheit
  • benötigt eigene Trusted Application
  • erhöhte Latenz beim Start der Anwendung
Verschlüsselung der Output-DatenPrivatheit
  • zusätzliche Latenz gegenüber nicht TC-basierter Verschlüsselung
Inferenz-Ausführung in TEEVertraulichkeit, Privatheit, Robustheit
  • sehr hohe Umsetzungshürden
  • benötigt eigene Trusted Application
  • je nach Umsetzung starke Performance-Einbußen
  • nur für eingebettete Anwendungen

3. Schutzmaßnahmen nach Anwendungs-Charakteristiken

Im Folgenden werden die Anwendungsszenarien anhand der Architekturmerkmale der KI-Systeme in zwei abstrakte Gruppen unterschieden: netzwerkbasierte Anwendungen (wie P2P-Netzwerke oder die klassische Server-Client-Architektur) und End-Node-Only-Anwendungen – also Architekturen, die auf ein Endgerät begrenzt sind. Bei netzwerkbasierten Architekturen ist ein regelmäßiger Austausch von Daten oder (im Falle von OTA-Updates) des Modells selbst über ein Netzwerk erforderlich. End-Node-Only-Architekturen sind hingegen auf ein Endgerät begrenzt und der Austausch mit einem anderen Gerät beschränkt sich maximal auf Informationen, die nicht mit dem KI-Anteil der Anwendung in Verbindung stehen.

Da sich die zwei Architekturtypen hauptsächlich in der Notwendigkeit des Austauschs über das Netzwerk unterscheiden, werden generelle Maßnahmen für KI-Anwendungen mit bestimmten Charakteristiken im Allgemeinen und zusätzliche für netzwerkbasierte Architekturen empfohlen. Für eine spezifische Anwendung kann dann anhand der Charakteristiken die Schnittmenge aller vorgeschlagenen Schutzmaßnahmen für die Anwendung bestimmt werden.

Dabei ist zu beachten, dass softwarebasierte Schutzmaßnahmen für Privatheit und Robustheit sich gegenseitig negativ beeinflussen. Das heißt, dass softwarebasierter Privatheitsschutz die Robustheit beeinträchtigt und umgekehrt softwarebasierter Robustheitsschutz sich negativ auf die Privatheit auswirkt. Daher muss im Einzelfall abgewogen werden, welches Schutzziel wichtiger ist bzw. ob eine ausreichende Schutzwirkung mit ausschließlich hardwarebasierten Maßnahmen erreicht werden kann. Weiterhin sind alle Schutzmaßnahmen, die die Ausführung des eigenen Codes innerhalb eines Trusted Execution Environments (TEE) erfordern, zurzeit für mobile Anwendungen nicht umsetzbar. Diese Beschränkung liegt daran, dass jegliche Applikationen, die im TEE ausgeführt werden sollen, zusammen mit dessen Code kompiliert werden müssen. Es ist deshalb zum heutigen Zeitpunkt wenigen, meist nur den herstellereigenen System-Apps möglich, Code im TEE des Mobilgerätes eines Nutzers auszuführen.

3.1 Maßnahmen nach Quelle der Inputdaten:

Bei der Nutzung eigener, vertrauenswürdiger Inputdaten wird zur Verbesserung der Robustheit und der allgemeinen Accuracy die Durchführung von Data Sanitization empfohlen, um fehlerhafte oder unvollständige Daten zu bereinigen oder zu entfernen und alle Daten in die passende Form zu bringen, z. B. durch Normalisieren.

Im Falle nicht vertrauenswürdiger Inputdatenquellen sollte zusätzlich Adversarial Training eingesetzt werden, um die Robustheit des Systems zu stärken. Außerdem sollten mittels Anomaly Detection manipulierte Trainings- und Inferenzdaten zum Schutz vor Data Poisoning bzw. Adversarial Attacks erkannt und entfernt werden, falls die zusätzlich benötigten Ressourcen zur Verfügung stehen. Dies gilt insbesondere für Systeme mit deutlichem Schadenspotential, ist aber in jedem Fall wünschenswert.

Bei Nutzung externer Sensordaten auf einem System mit deutlichem Schadenspotential, die über ein nicht vertrauenswürdiges Medium (z. B. aber nicht ausschließlich das Netzwerk) übertragen werden, kann durch ein Secure Element (SE) eine Attestierung der Sensordaten – direkt beim Auslesen des Sensors – durchgeführt werden. Zusätzlich sollten Angriffe über die Inputdaten, wie eingangs beschrieben, durch Adversarial Training und Anomaly Detection abgefangen werden.

3.2 Maßnahmen nach Personenbezug und Vertraulichkeit

Werden personenbezogene Daten oder sensible Daten im Allgemeinen verarbeitet, sollte die Privatheit des Modells gestärkt werden. Dies ist z. B. möglich durch den Einsatz von Differential Privacy während des Trainings und Data Sanitization der sensiblen Output-Daten.

Bei deutlichem Schadenspotential und/oder direktem Personenbezug der Daten und/oder hoher Vertraulichkeit des Modells sollte die Ausführung der Inferenz innerhalb eines Trusted Execution Environments (TEE) in Erwägung gezogen werden. Die konkrete Umsetzung dieser Schutzmaßnahme ist jedoch mitunter – je nach Ansatz – mit einigen nachteiligen Effekten (wie erhöhten Latenzen, Strom- und Speicherverbrauch) und technischen Hürden verbunden. Außerdem muss darauf geachtet werden, dass die zu schützenden Daten nie unverschlüsselt das TEE verlassen. Lässt sich dies nicht verhindern, ist die Maßnahme nicht mehr zum Schutz der Privatheit und lediglich zur Erhöhung der Robustheit und zum Schutz der Vertraulichkeit des Modells bei Ausführung auf dem Endgerät geeignet.

3.3 Spezifische Maßnahmen für netzwerkbasierte Architekturen

Bei einer Server-Client-Architektur oder anderen netzwerkbasierten Architekturen werden Daten und/oder Modellupdates über das Internet übertragen. Bei dieser Architekturform ist es deshalb – je nach Schutzbedarf – ratsam, zusätzlich zur allgemeinen Anwendungssicherheit, Maßnahmen gegen Manipulationen auf dem Übertragungsweg zu treffen. Alle hier genannten Maßnahmen können generell auch ohne den Einsatz von Trusted Computing umgesetzt werden – sind dadurch jedoch angreifbarer, verursachen allerdings auch geringere Latenzen. Es ist also nach der Auswahl der Maßnahmen noch einmal abzuwägen, wann eine Nutzung von Trusted Computing zur Umsetzung dieser sinnvoll und angemessen ist. Weiterhin ist zu beachten, dass im Falle von P2P-Netzwerkarchitekturen die Verteilung der Schlüssel beispielsweise für Signaturen unter Umständen komplexer sein kann als bei einer Client-Server-Architektur. Grundsätzlich muss bei P2P-Architekturen mehr Geräten vertraut werden als bei einer zentralisierten Architektur. So muss z. B. im Fall der Geräteattestierung nicht nur einem Gerät (dem Server) die Anfrage auf Attestierung ermöglicht werden, sondern mehreren anderen Knoten. Dies muss beim Erstellen des Schutzkonzeptes einer solchen Anwendung beachtet werden.

Bei deutlichem Schadenspotential des Systems kann durch eine Geräteattestierung des Endgerätes mittels TEE dessen Softwareintegrität gegenüber dem Empfänger (üblicherweise dem Server) verifiziert werden. Ebenso können die Daten mit einer Attestierung versehen werden, die z. B. angibt, dass die Daten von der aktuellen Version des Modells erzeugt wurden, was die Robustheit des Systems stärkt.

Bei Modellupdates über das Netzwerk sollte durch Signatur des Modells sichergestellt werden, dass der Empfänger das korrekte Modell erhalten hat. Die Signatur wird vom Sender erstellt und auf dem Endgerät vor der Ausführung geprüft. Diese Maßnahme sollte in jedem Fall im Rahmen der allgemeinen Anwendungssicherheit umgesetzt werden, aber besonders bei deutlichem Schadenspotenzial ist die Durchführung der Attestierung und Signatur mittels Trusted Computing sinnvoll.

Bei Personenbezug der zu übertragenden Daten ist eine Verschlüsselung dieser bei Übertragung unerlässlich. Je nach Sensibilität der Daten kann z. B. die reguläre TLS-Verschlüsselung durch Einbinden eines Secure Elements (SE) gestärkt werden.

4. Referenzarchitekturen

4.1 SeamlessMe

Architekturbeschreibung
Der im Demonstrator “SeamlessMe” eingesetzte Machine-Learning-Algorithmus ist eine Einzelklassen-Klassifizierung (One Class Classification), die durch eine Ausreißererkennungsmethodik (Novelty Detection) erweitert wird. Ein generischer Klassifikator (Generic Classifier) wird auf das mobile Endgerät geladen. Daraufhin lernt das Modell lokal anhand der auf dem Gerät gesammelten Benutzerdaten (User Specific Classifier). Das trainierte Modell wird dann verwendet, um ein Trust Level (Konfidenzwert) zu generieren. Die Berechnung des Vertrauensniveaus des Benutzers erfolgt lokal auf dem Smartphone und ohne Kommunikation mit einem externen Server. Sowohl das Training als auch die Inferenz finden also direkt auf dem Endgerät statt.

“SeamlessMe” wird hauptsächlich auf Smartphones implementiert. Während der Forschungs- und Entwicklungsphase sind ebenfalls verschiedene Wearables, wie beispielsweise Smartwatches, getestet worden. Allerdings haben diese Geräte derzeit eine geringere Funktionalität und sind daher noch nicht für die Anwendung geeignet.

Die von “SeamlessMe” verarbeiteten biometrischen Daten sind äußerst sensibel, da sie zur direkten Identifizierung von Personen verwendet werden können. Im medizinischen Kontext können Gangprofile beispielsweise als Indikatoren für bestimmte Krankheiten genutzt werden, was die Sensibilität dieser Daten zusätzlich erhöht. Die Modellarchitektur muss jedoch nicht geschützt werden, da sie bereits öffentlich bekannt ist.

Vorgeschlagene Maßnahmen
Auf Basis der in Kapitel 3. Schutzmaßnahmen nach Anwendungs-Charakteristiken ausgeführten Zuordnungen der Schutzmaßnahmen zu charakteristischen Eigenschaften der Anwendung sind folgende Schutzmaßnahmen umzusetzen:

Der Personenbezug der verarbeiteten biometrischen Daten führt zu einem erhöhten Privacy-Schutzbedarf der Anwendung. Da es sich um eine mobile Anwendung handelt, ist jedoch der Einsatz eigener Trusted Applications nicht möglich und somit auch die Ausführung in einem TEE keine Option. Generell ist auf Mobilgeräten der Zugriff auf im Gerät vorhandene Trusted-Computing-Lösungen (TEE/SE) auf die durch die Android-API angebotenen Funktionen beschränkt. Daher kann zur Verbesserung der Privatheit der Anwendung nur die Nutzung des Hardware-backed Keystores oder der StrongBox bzw. der Schlüsselverwaltung der Secure Enclave unter iOS zur Sicherung der erhobenen Daten umgesetzt werden. Der Einsatz von Differential Privacy bietet sich hier nicht an, da daraus ein zu hoher Verlust an Vorhersagequalität resultieren würde. Dies liegt daran, dass die Trainingsdaten alle von derselben Person stammen und daher ein viel stärkeres Verrauschen für praktischen Privatheitsschutz nötig wäre als üblich.

Da das Training unbeaufsichtigt auf dem Mobilgerät und somit mit nicht vertrauenswürdigen Daten durchgeführt wird, wird Anomaly Detection auf den Input-Daten eingesetzt, um die Robustheit des Modells zu erhöhen. SeamlessMe nutzt das Vorgehen der Anomaly Detection bereits im Rahmen des Authentifizierungsalgorithmus. Die Anwendung soll Laufsequenzen erkennen, die nicht mit den zuvor trainierten Samples übereinstimmen. Ist dies der Fall, gilt die Person nicht als authentifiziert. Ebenfalls werden die zu dem Zeitpunkt aufgenommenen Daten nicht zum Training des Modells verwendet und stellen somit keine Gefahr mehr für das Modell dar.

Zudem wird Data Sanitization der Input-Daten durchgeführt, um unbrauchbare Daten zu entfernen. Die Anwendung setzt auch diese Maßnahme bereits implizit um, da nur Daten, die dem Laufmuster eines Menschen entsprechen, für die Gang-Authentifizierung – und somit mit dem Modell – verwendet werden.

Adversarial Training ist für diese Anwendung nicht geeignet, da es davon ausgegangen wird, dass Angreifer keine Sensordaten innerhalb des Endgeräts manipulieren können. Wenn sie es doch könnten, würde das implizieren, dass sie die gesamte KI-Anwendung kompromittieren könnten, was wiederum die Manipulation der Sensordaten aus Sicht der Angreifer unnötig machen würde. Stattdessen wird angenommen, dass Angreifer nur analoge Inputdaten verändern können, indem sie sich mittels des Smartphones einer zugriffsberechtigten Person für diejenige Person ausgeben, d. h. deren Gangprofil nachahmen. Damit ein solcher analoger Angriff abgewehrt werden kann, muss eine hohe allgemeine Vorhersagequalität der Anwendung gewährleistet werden.

4.2 Self-ID

Architekturbeschreibung
Bei der Demonstrator-Anwendung “Self-ID" wird ein binärer Klassifikator (Selbstbild vs. Fremdbild) auf einer Population angelernt. Dieser Klassifikator lernt anhand von Eye-Tracking-Daten zu unterscheiden, welche Klasse von Gesichtsbildern der Nutzer gerade sieht. Der Trainingsprozess findet im Vorfeld – offline – und anhand von zuvor gesammelten Trainingsdaten statt. Sollte ein persönliches Enrollment notwendig sein, wird dieses auf dem Endgerät stattfinden und das angelernte Modell wird anschließend an den Server übertragen. Die Inferenz findet online auf dem Server statt. Die Eye-Tracking-Daten werden dabei vom Client an den Server übertragen. Dieser wertet das Ergebnis aus und leitet ggf. entsprechende Maßnahmen ein.

In der ersten Ausbaustufe wird der Zugänglichkeit halber ein Desktop-Client per Plugin oder Erweiterung eines bestehenden Videokonferenzsystems genutzt. Dieser Desktop-Prototyp dient dazu, erste Erfahrun-gen mit der Technologie zu sammeln. In einer späteren Ausbaustufe soll auch eine mobile Anwendung auf Smartphones (Android und iOS) umgesetzt werden. Auf diesen Plattformen ist allerdings nach aktuellem Stand der Technik die Eye-Tracking-Technologie noch nicht in ausreichender Qualität verfügbar.

Die Eye-Tracker-Daten enthalten biometrische Informationen und dienen der Validierung der Identität des Nutzers. Daher sind diese Daten sensibel und fallen unter die Datenschutz-Grundverordnung (DSGVO), da es sich um eine Art personenbeziehbarer Daten handelt. Zudem können die Daten auch medizinische Implikationen, z. B. Hinweise auf Krankheitssymptome, beinhalten. Das Modell gewährleistet die Sicherheit des Videokonferenzsystems und hat dementsprechend – je nach Vertraulichkeit der Gesprächsinhalte – erhöhte Robustheitsanforderungen. Im Zielsystem kann durch Manipulation des Modells oder der Inferenz-Daten ein Angriff auf die Erreichbarkeit von Video-Konferenzen (Erzeugen von False-Positives) oder ein erfolgreicher Identitätsdiebstahl (Erzeugen von False-Negatives) durchgeführt werden. Außerdem kann das Modell zweckendfremdet werden, um Personen in Systemen zu identifizieren, wo dies gemäß der Zweckbindung nicht zulässig ist. Das Modell lässt möglicherweise Rückschlüsse auf die biometrischen Daten, mit denen es angelernt wurde, zu. Im fertigen Produkt ist das Modell, welches mit internen Daten angelernt werden wird, geistiges Eigentum der Bundesdruckerei und sollte somit vertraulich bleiben.

Vorgeschlagene Maßnahmen
Auf Basis der in Kapitel 3. Schutzmaßnahmen nach Anwendungs-Charakteristiken ausgeführten Zuordnungen der Schutzmaßnahmen zu charakteristischen Eigenschaften der Anwendung werden folgende Schutzmaßnahmen umgesetzt:

Die zu erzielende Vertraulichkeit des Modells kann zur Zeit des Enrollments auf dem Endgerät nur über Verfahren der allgemeinen Anwendungssicherheit (bspw. Obfuscation) gestärkt werden, da weder auf Desktop- noch auf Mobilgeräten der dafür notwendige Zugriff auf ein TEE möglich ist. Die Vertraulichkeit des Modells auf dem Server wird durch Maßnahmen der allgemeinen Systemsicherheit oder verfügbaren serverseitigen Trusted-Computing-Verfahren sichergestellt. Die Betrachtung dieser Maßnahmen liegt außerhalb des Scopes dieses Dokuments.

Für die angestrebte Implementierung auf Mobilgeräten soll zum Schutz der Privatheit der personen-bezogenen Daten der Hardware-backed Keystore oder die StrongBox bzw. die Secure Enclave zur Sicherung etwaiger auf dem Endgerät abgelegter Daten und – falls anwendbar – für die Verschlüsselung der Daten vor der Übertragung an den Server, genutzt werden. Im Falle des Desktop-Prototypen wird an Stelle dessen die Nutzung der verfügbaren Verschlüsselungsfunktionen des Gerätes/Betriebssystems empfohlen.

Je komplexer der Output eines ML-Modells ist, desto effektiver können Privatsphäre-Angriffe auf die Trainingsdaten des Modells sein (vgl. Shokri et al.: “Membership Inference Attacks Against Machine Learning Models”, IEEE Symposium on Security and Privacy, 2017). Daher sollten die personenbezogenen Daten der Anwendung zusätzlich durch Data Sanitization der Output-Daten geschützt werden, falls der genutzte Klassifikator nicht nur die Klasse, sondern auch die Konfidenz ausgibt. Weiterhin kann Differential Privacy beim Training des Klassifikators angewandt werden, um Informationen einzelner Trainingsdaten zu verschleiern.

Die durch das erhöhte Schadenspotenzial erforderliche Robustheit der Anwendung gegenüber manipulierten Inputdaten soll im Rahmen der allgemeinen Systemsicherheit durch eine Client-Authentication verbessert werden. Diese kann im mobilen Client durch die Nutzung des Hardware-backed Keystores oder der StrongBox verstärkt werden. Weiterhin ist der Einsatz von Anomaly Detection und Adversarial Training erforderlich, da nicht sichergestellt werden kann, dass keine manipulierten Inputdaten verarbeitet werden. Anomaly Detection wird dabei genutzt, um manipulierte Inputdaten zu erkennen und herauszufiltern bevor das Modell sie verarbeitet. Adversarial Training erhöht die Robustheit des Modells gegen manipulierte Inputdaten.

Heutige Methoden zum Schutz der Privatheit verschlechtern gleichzeitig die Robustheit. Dies gilt umgekehrt genauso. Außerdem verschlechtern Methoden zum Schutz der Privatheit und Robustheit jeweils meist die Vorhersagequalität des Modells. Daher muss hier vorsichtig abgewogen werden, wie viel Privatheit, Robustheit und allgemeine Vorhersagequalität akzeptabel sind. Für diese Anwendung scheint es am besten zu sein, zugunsten von Robustheit auf Schutz der Privatheit innerhalb des Modells zu verzichten. Da das Modell selbst nicht auf einem Endgerät ausgeführt wird, sind nur Black-Box Angriffe auf die Privatheit möglich, welche deutlich schwächer als White-Box-Angriffe sind. Daher werden hier zugunsten des softwareseitigen Robustheitsschutzes keine weiteren Maßnahmen zum Schutz der Privatheit vorgeschlagen. Dabei wird davon ausgegangen, dass es Angreifern durch Maßnahmen der allgemeinen Systemsicherheit erschwert wird, sich Zugang zum Modell auf dem Server zu verschaffen.

5. Fazit

In diesem Dokument wurden ausgewählte Maßnahmen, die im Verbundvorhaben SENSIBLE-KI evaluiert wurden, für generelle Anwendungsfälle und für zwei spezifische Anwendungen – die im Projekt zu entwickelnden Prototypen – vorgeschlagen. Je konkreter der Anwendungsfall, desto mehr wurde die Auswahl der sinnvoll einzusetzenden Maßnahmen eingegrenzt, da sowohl die Praktikabilität in der spezifischen Anwendung als auch die Wechselwirkung zwischen verschiedenen Maßnahmen mit unterschiedlicher Schutzwirkung zu beachten sind. Besonders die hardwarebasierten Trusted-Computing-Verfahren können bei den Schutzkonzepten der Prototypen nur in geringem Maße eingesetzt werden, da der Zugriff auf diese bei mobilen Anwendungen stark beschränkt ist. Die softwarebasierten Maßnahmen erfahren keine solche Einschränkung, sind jedoch mehr von negativen Wechselwirkungen betroffen, sodass der Einsatz zweier sich negativ beeinflussender Verfahren im Einzelfall gegeneinander abgewogen werden muss.

7 - Best Practices

Erfahrungswerte aus der Entwicklung der Prototypen

Beschreibung der Schutzziele

Dieses Kapitel enthält eine kurze Beschreibung der im späteren Verlauf thematisierten Schutzziele

Robustheit

Die Robustheit eines Modells setzt sich zusammen aus der Integrität und der Verfügbarkeit des Modells. Dabei beschreibt die Integrität die Fähigkeit des Modells, korrekte Vorhersagen zu treffen. Diese kann durch Beeinflussung der Modell-Inputs, -Outputs sowie -Parameter beeinträchtigt werden. Die Verfügbarkeit von KI-Modellen ist die Sicherstellung der Funktion. Wenn ein Angreifer auf die Verfügbarkeit des Modells abzielt, veranlasst er das System dazu, gutartige Instanzen zu verweigern und dadurch nicht richtig zu arbeiten. Wenn die Ausgabe des ML-Modells in die Funktion des Systems eingebunden ist, kann dies als Denial-of-Service-Angriff betrachtet werden.

Privatheit

Die Privatheit bezieht sich im KI-Anwendungsbereich auf die Geheimhaltung der Trainingsdaten, auf denen KI-Modelle trainiert werden. Ein Angriff auf die Privatheit des Modells kann schwerwiegende Auswirkungen auf die Privatsphäre der betroffenen Personen haben. Im schlimmsten Fall können zum Training verwendete Daten vollständig rekonstruiert werden.

Ein wichtiger Aspekt im Bereich der Privatheit ist die Anonymität in Abgrenzung zur Pseudonymität. Anonymität kann als der Schutz vor Identifizierung im Allgemeinen und Pseudonymität als der Schutz vor namentlicher Identifizierung definiert werden. Dies impliziert, dass bspw. zum Erreichen der Anonymität zwei Bilder nicht einander zugeordnet werden dürfen. Speziell während des Trainings von KI-gestützter Identifikation im Bereich der Biometrie kann die Anonymität nicht gewährleistet werden. Hier ist das schwächere Schutzziel der Pseudonymität zu verfolgen. Verglichen mit Anonymität hat Pseudonymität den Nachteil, dass diese ggf. durch Verbindung mehrerer Datenbanken mittels sog. Linkage Attacks umgangen werden kann.

Vetraulichkeit

Bei der Vertraulichkeit eines KI-Systems geht es darum, dass interne Eigenschaften und vertrauliche Informationen über ein trainiertes Modell potenziellen Angreifern verborgen bleiben.

Ein Angriff auf die Vertraulichkeit kann es einem Angreifer ermöglichen, sensible und vertrauliche Informationen über das trainierte ML-Modell, seine Eigenschaften, Struktur und Parameter zu erlangen. Dadurch könnte der Angreifer in der Lage sein, das im Modell repräsentierte geistige Eigentum zu stehlen, gezielter zu manipulieren oder auch – basierend auf dem gewonnenen Wissen – die Privatheit der Trainingsdaten anzugreifen.

Beschreibung der Demonstratoren

Innerhalb des Forschungsprojekt wurden zwei Demonstratoren entwickelt. Der Demonstrator SeamlessMe ermöglicht die Authentifizierung anhand menschlicher Gangprofile. Der Demonstrator Self-ID ermöglicht die Bestätigung der eigenen Identität mithilfe von Eyetracker-Daten. Für diese KI-Anwendungen wurde der Schutzbedarf bestimmt und die für sie vorgeschlagenen Maßnahmen und Schutzkonzepte exemplarisch implementiert sowie evaluiert. Im Folgenden werden beide Anwendungen näher beschrieben.

Gang-Authentifizierung (SeamlessMe)

Der im Demonstrator “SeamlessMe” eingesetzte Machine-Learning-Algorithmus ist eine Einzelklassen-Klassifizierung (One Class Classification), die durch eine Ausreißererkennungs-Methodik (Novelty Detection) erweitert wird. Ein generischer Klassifikator (Generic Classifier) wird auf das mobile Endgerät geladen. Daraufhin lernt das Modell lokal anhand der auf dem Gerät gesammelten Benutzerdaten (User Specific Classifier). Das trainierte Modell wird dann verwendet, um ein Trust Level (Konfidenzwert) zu generieren. Die Berechnung des Vertrauensniveaus des Benutzers erfolgt lokal auf dem Smartphone und ohne Kommunikation mit einem externen Server. Sowohl das Training als auch die Inferenz finden also direkt auf dem Endgerät statt.

Selbstvalidierung (Self-ID)

Bei der Demonstrator-Anwendung “Self-ID" wird ein binärer Klassifikator (Selbstbild vs. Fremdbild) auf einer Population angelernt. Dieser Klassifikator lernt anhand von Eye-Tracking-Daten zu unterscheiden, welche Klasse von Gesichtsbildern der Nutzer gerade sieht. Der Trainingsprozess findet im Vorfeld – offline – und anhand von zuvor gesammelten Trainingsdaten statt. Sollte ein persönliches Enrollment notwendig sein, wird dieses auf dem Endgerät stattfinden und das angelernte Modell wird anschließend an den Server übertragen. Die Inferenz findet online auf dem Server statt. Die Eye-Tracking-Daten werden dabei vom Client an den Server übertragen. Dieser wertet das Ergebnis aus und leitet ggf. entsprechende Maßnahmen ein.

Maßnahmen

Adversarial Training

Adversarial Retraining ist eine Schutzmaßnahme zur Stärkung der Robustheit eines Machine Learning Modells und eine Abwehrtechnik gegen sogenannte Adversarial Examples (AE). AEs sind manipulierte Inputs für neuronale Netze, welche zu einer fehlerhaften Vorhersage führen sollen. Dabei ist die Manipulation so subtil, dass sie für den menschlichen Betrachter kaum erkennbar ist. Beim Adversarial Retraining werden solche AEs mit in das Training des zu schützenden Modells aufgenommen, um dessen Integrität zu erhöhen.

Szenario

Das Testen der vorgeschlagenen Sicherheitsmaßnahme geschah anhand des Self-ID-Demonstrators.

Im gewählten Angriffsszenario haben subtile Änderungen an den Eingabedaten für das Modell zu fehlerhaften Ausgaben geführt. Damit wurde die Zuverlässigkeit und Vertrauenswürdigkeit des maschinellen Lernsystems verringert. Neuronale Netze wurden nicht verwendet.

Die gezielte Manipulation von Eingabedaten durch einen “internen Angreifer” wurde durchgeführt. Auf komplexere Evasionsangriffe, wie beispielsweise das Generieren von AEs durch Generative Adversarial Networks (GANs), wurde verzichtet. Für das Beispiel musste zuerst eine ausreichend starke Verzerrung gefunden werden, sodass eine falsche Vorhersage entstand.

Das konzipierte Angriffsszenario hatte verschiedene Voraussetzungen: Zugriff auf die Eingabedaten

Im gewählten Beispiel waren die Art und der genaue Aufbau der Eingabedaten bekannt, sodass eine verhältnismäßige simple Verschiebung der Daten als Manipulation dienen konnte.

Einsicht der Vorhersagen

Für das Beispiel wurde aufgezeichnet, ab welchem Grad der Veränderung der Eingabedaten ein anderes Label vorhersagt wurde. Innerhalb der Testumgebung konnte somit nachvollzogen werden, wenn die Werte einen Schwellwert überschritten haben.

Beliebige Anzahl an Vorhersagen

In der Testumgebung konnte eine beliebige Anzahl an Vorhersagen vorgenommen werden.

Erfahrungswerte

Im gewählten Beispiel wurde ein „interner“ Angreifer simuliert, welcher Zugriff auf das gesamte Projekt und die Ergebnisse der Klassifizierung hatte. Ohne das Wissen über die Auswirkungen der AEs hätten diese nicht vorhersehbar das Vorhersageergebnis verändert. Des Weiteren ist Wissen über die verwendeten Merkmale nötig, welche dem Angreifer nicht zwangsläufig zur Verfügung stehen.

Der Erfahrungswert war, dass eine Änderung ohne ausreichendes Wissen nicht zum gewünschten Ergebnis führen kann. Je nach Systemarchitektur kann der Angreifer nicht nachvollziehen, ob seine AEs tatsächlich eine Änderung bei der Vorhersage ausgelöst haben.

Implementierungshilfe

“Tipps & Tricks”

Eine Vielzahl an Beispielen und Implementierungsmöglichkeit finden sich in folgender Bibliothek: Adversarial Robustness Toolbox1

Code-Snippets Eingabedaten verfälschen

    perturbation_sample = sample_array + perturbation_strength

Auswirkungen betrachten und Vorhersagen vergleichen

    original_prediction = classifier.predict(original_sample_df)
    perturbed_prediction = classifier.predict(perturbation_sample)

Anomaly Detection

Anomaly Detection wird zur Stärkung der Robustheit eines Machine Learning Systems eingesetzt. Durch Anwendung von Anomaly Detection können kritische Inputs (wie z. B. AEs) gefiltert werden, um ungewöhnlich stark abweichende Daten-Inputs zu entfernen, die die Integrität des Modells beeinträchtigen könnten.

Szenario

Das Testen der vorgeschlagenen Sicherheitsmaßnahme geschah anhand des SeamlessMe-Demonstrators. Das Ziel besteht darin, eine möglichst kleine Grenze zu finden, die die normalen Datenpunkte umgibt, während gleichzeitig Ausreißer außerhalb dieser Grenze liegen. SeamlessMe nutzt das Vorgehen der Anomaly Detection bereits indirekt als Authentifizierungsalgorithmus:

Es geht darum Laufsequenzen zu erkennen, die nicht mit den zuvor trainierten Samples übereinstimmen. Ist dies der Fall, gilt die Person nicht als authentifiziert. Ebenfalls werden die zu dem Zeitpunkt (nicht-authentifiziert) aufgenommenen Daten nicht zum Training des Models verwendet. Nur wenn der Algorithmus sich sicher ist, dass die Daten zu der trainierten Person passen, werden die Daten auch zum Training verwendet.

Für die Entdeckung von Ausreißern wurde eine One-Class Support Vector Machine eingesetzt. Eine One-Class SVM ist ein maschineller Lernalgorithmus, der in der Lage ist, Ausreißer in einem Datensatz zu erkennen. Im gewählten Beispiel ist nur eine Klasse von Daten vorhanden. Diese Klasse ist beim Demonstrator, die Person, welche das Handy trägt. Die abweichenden Daten oder Ausreißer sind Daten, die auf eine andere Person hinweisen und damit einer anderen Klasse zugehören.

Das One-Class SVM konstruiert eine Entscheidungsgrenze um die “normalen” Datenpunkte, sodass ein Bereich begrenzt wird, welcher als “normales” Gebiet gesehen werden kann. Alle Datenpunkte außerhalb dieses Bereiches werden als Außenseiter (outliers) betrachtet. Eine Veranschaulichung dieser Unterscheidung wird im Folgenden gezeigt:

Abbildung 1: One-Class SVM 2

Für Self-ID wurde die Anomaly Detection vorgeschlagen, aber final nicht implementiert, weil der Aufwand für den Forschungsprototypen zu hoch war. Für die Datenaufnahme war die Datenbereinigung ausreichend und Erkennung von Anomalien nicht notwendig. Für das finale Produkte sollte der Vorschlag wieder aufgegriffen werden.

Implementierungshilfe

“Tipps & Tricks”

Verwendete SVM-Parameter:

  • Kernel: Gaussian Radial Basis Function (RBF)

  • Kernel-Funktionen: “Polynomial” und “Sigmoid” nicht verwendet

Das Gamma beschreibt den Kernel-Koeffizienten. Der Gamma-Parameter bezieht sich auf $ \frac{1}{2*\sigma^2} $ der Formel: $ K(x_i,x_j) = exp(-\frac{| x_i - x_j |^2}{2*\sigma^2}) $

Code-Snippet (Python: Initialisierung One-Class-SVM)

    from sklearn.svm import OneClassSVM

    OneClassSVM.__init__(self, kernel='rbf', degree=3, gamma='scale')

Data-Sanitization

Die Data Sanitization der Input-Daten ist eine Maßnahme zur Verbesserung der Robustheit. Dabei werden zum Beispiel unvollständige Daten bereinigt oder entfernt, um alle Daten in die passende Form zu bringen.

Data Sanitization der Output-Daten ist hingegen dem Schutzziel der Privatsphäre zuzuordnen. Hierbei werden sensible Output-Daten vor deren Ausgabe gefiltert. Als sensibel gelten Daten, wenn sie Rückschlüsse auf die Trainingsdaten des Modells zulassen. Ein Beispiel dafür wären die Konfidenzwerte pro Klasse im Falle von Klassifizierung. Diese können von Angreifern genutzt werden, um stärkere Privacy-Angriffe durchzuführen. Stattdessen wird nur die Klasse mit dem höchsten Konfidenzwert ausgegeben.

Szenario

Unbrauchbare oder fehlerhafte Daten werden gefiltert. Für den Demonstrator Self-ID werden somit falsche Bilder oder Aufnahmen, welche ein Blinzeln beinhalten, entfernt. Die Filterung beinhaltet ebenfalls die Entfernung von nicht benötigten Daten, aus den Daten des Eyetrackers. Die Daten werden normalisiert und skaliert. Ein Teil der Output-Daten sind die Konfidenzwerte, die ausgegeben werden.  Die Konfidenzwerte werden ausschließlich in Prototyp-Phase im Videoclient gezeigt. Im fertigen Produkt soll die Stärke des Vertrauens im Videoclient für den betrachteten Videoanrufteilnehmer abstrakter gezeigt werden.

Bei SeamlessMe ist eine Activity Recognition des Authentifizierungsmodels vorgeschaltet. Nur Daten, die dem Laufmuster eines Menschen entsprechen, werden für die Gang-Authentifizierung verwendet. Dadurch wird bereits eine Data Sanitization der Input-Daten durchgeführt.

Erfahrungswerte

Data Sanitization der Input-Daten

Eine Erfahrung, die gemacht wurde, beinhaltet die Annäherung an den korrekten Schwellwert für die Filterung. Dabei sollte beachtet werden, dass keine Trainingsdaten entfernt werden, welche noch genug Aussagekraft haben, obwohl ein kleinerer Teil invalide ist. Für das Ermöglichen der Vergleichbarkeit im Rahmen des Demonstrators Self-ID wird eine minimale Anzahl an Datenpunkten vor dem Präsentieren eines Bildes und eine minimale Anzahl an Datenpunkte nach dem Präsentieren des Bildes errechnet. Datenpunkte, die aus diesem Fenster fallen, werden entfernt, sodass alle Versuche gleich lang sind. Die minimale Anzahl der Datenpunkte beschreibt den kürzesten Zeitraum, der die Aufnahme nicht verfälscht. Die Unterschiede der Aufnahmen ergeben sich aus der Latenz des Eyetrackers.

Data Sanitization der Output-Daten

Wie im Abschnitt “Szenario” beschrieben, wird für die Interpretation der Ergebnisse der Modellerstellung eine Protokollierung der Ergebnisse der Modelle benötigt. Jeder Durchlauf mit verschiedenen Parametern wurde protokolliert und abgelegt. Die Log-Dateien beschreiben die Veränderungen der Leistungsmetriken, welche durch die Veränderung der Eingabeparameter verursacht werden . Diese Protokollierung beinhaltete die Konfidenzwerte aller Klassen. Für die Optimierung der Modelle war eine Übersicht dieser Werte von Nöten. Für die später fertige Anwendung werden die Werte nicht mehr mitgeliefert, sodass keine Rückschlüsse auf die Trainingsdaten des Modells zugelassen werden. Sinnhaft ist ein Feedback zwischen Benutzer und Anwendung, wenn ein Vertrauensniveau zurückgegeben werden soll. Ein Beispiel dafür ist, dass innerhalb der Demonstratoren, die Erkennung von Klassen gekennzeichnet werden sollte.

Implementierungshilfe

“Tipps & Tricks”

Innerhalb des Forschungsprojekts wurde mit Zeitreihen gearbeitet. Eine Art der Datenbereinigung ist die Normalisierung von Daten. In diesem Themenbereich hat sich die Quelle Normalization and Bias in Time Series Data3 von Aishwarya Asesh bewährt

Code-Snippet

    def normalize(x):
        minimum = np.min(x)
        maximum = np.max(x)
        y = (x - minimum) / (maximum - minimum)

        return np.array(y)

Differential Privacy

Differential Privacy (DP) ist eine populäre Metrik, mit welcher der Einfluss einzelner Daten auf das Ergebnis einer Datenverarbeitung bemessen wird. Dies entspricht gleichzeitig dem Privatsphäreverlust der Personen, zu denen die Daten gehören. Der Privatsphäreverlust wird durch das Hinzufügen von Rauschen in der Datenverarbeitung begrenzt. Ursprünglich kommt DP aus dem Bereich Datenbanken, wird aber seit einigen Jahren auch für Privatsphäre bewahrendes ML benutzt.

Szenario

Differential Privacy wurde innerhalb des Self-ID-Demonstrators erprobt, um festzustellen welche Auswirkungen Rauschen auf die Vorhersagequalität hat.

Für die Betrachtung der Auswirkungen von Differential Privacy (DP) wurde eine öffentlich verfügbare Bibliothek verwendet. Diffprivlib4 ist eine allgemeine Bibliothek zum Experimentieren, Untersuchen und Entwickeln von Anwendungen im Bereich der differentiellen Privatsphäre.

Erfahrungswerte

Der Einfluss von Differential Privacy führte bei allen betrachteten Klassen zu einer Verringerung der Werte der Metriken. Precision, Recall und F1-Score haben bei allen Klassen abgenommen. Der Einsatz von Differential Privacy kann mit dem Hinzufügen von Rauschen verglichen werden, sodass eine Abwägung zwischen Vorhersagequalität und Schutz vorgenommen werden muss. Zu viel Rauschen kann die Genauigkeit der Vorhersagen beeinträchtigen, während zu wenig Rauschen die Privatsphäre gefährdet.

Abbildung 2: Unterschiede der Metriken

Das Verrauschen von Eingabedaten wird kritisch betrachtet. Hierbei wird auf das Paper “Jekyll and Hyde: On The Double-Faced Nature of Smart-Phone Sensor Noise Injection” verwiesen. Dabei wird die Verrauschung von Smartphone-Sensordaten beobachtet, die für die Authentifizierung der Gangart verwendet werden.

Der Einfluss von “Geräuschinjektion auf die durchschnittlichen F-Scores, die für die gangbasierte Authentifizierung erzielt werden” kann folgendem Graph aus dem Paper entnommen werden:

Abbildung 3: Einfluss von Differential Privacy

Dabei kann gezeigt werden, wie sich der F-Score signifikant senkt, wenn mehr Rauschen hinzugefügt wird. Für die Funktionalität von SeamlessMe ist eine hohe Genauigkeit wichtig, sodass eine Person mit hoher Wahrscheinlichkeit wiedererkannt werden kann.

Implementierungshilfe

“Tipps & Tricks”

Zur Veranschaulichung der Ergebnisse wird die Nutzung von matplot empfohlen, wie es in den oberen Diagrammen exemplarisch zu sehen ist.

Code-Snippet

Beispieleinsatz der Differential Privacy Bibliothek

    from diffprivlib.models import GaussianNB

    clf = GaussianNB()
    clf.fit(X_train, y_train)

    clf.predict(X_test)

Geräteattestierung

Bei der Geräteattestierung wird die Integrität eines Gerätes (z. B. eines Smartphones) durch eine kryptografische Signatur einer vertrauenswürdigen Komponente – z. B. Trusted Execution Environment (TEE), Secure Element (SE) – bestätigt. Die dafür eingesetzten technischen Mechanismen unterscheiden sich je nach Implementierung, generell soll jedoch bestätigt werden, dass das Gerät sich in einem bestimmten Zustand befindet, der als nicht kompromittiert angesehen wird. Geräteattestierung kann beispielsweise genutzt werden, um Eingaben von kompromittierten Geräten abzulehnen und somit die Robustheit eines ML-Systems zu stärken.

Diese Schutzmaßnahme wurde im Rahmen der Demonstratoren des Verbundprojektes SENSIBLE-KI nicht implementiert, da nur einer der Demonstratoren eine netzwerkbasierte Architektur hat, welche den Einsatz der Geräteattestierung begründen würde. Der Client für diesen wurde jedoch zunächst als Desktop-Applikation implementiert. Da im Projektrahmen keine Schutzmaßnahmen für Desktop Geräte untersucht wurden und eine Geräteattestierung nach unserem Kenntnisstand nicht üblich ist, konnte diese Schutzmaßnahme bei keinem der Demonstratoren sinnvoll eingesetzt werden.

Datenattestierung

Wie bei der Geräteattestierung wird auch bei der Datenattestierung eine kryptografische Signatur einer vertrauenswürdigen Komponente verwendet. Diesmal wird jedoch die Signatur über ein bestimmtes Datum berechnet und attestiert, dass dieses bestimmte Eigenschaften hat (z.B., dass die Daten aus einer bestimmten Hardware stammen). Auch diese Form der Attestierung wird zur Stärkung der Robustheit eingesetzt.

Diese Schutzmaßnahme wurde im Rahmen der Demonstratoren des Verbundprojektes SENSIBLE-KI nicht implementiert, da keine Daten von externen Sensorknoten oder Mobilgeräten gesammelt werden, welche attestiert werden könnten, und die Maßnahme zusätzlich nur von spezifischer Hardware umgesetzt werden kann, die für die Entwicklung der Demonstratoren nicht sinnvoll eingesetzt werden konnte. Die Evaluierungen der Maßnahme im Rahmen von AP2 zeigte jedoch eine erhöhte Latenz bei der Datensammlung, welche die Maßnahme je nach Art der Datensammlung der ML-Anwendung unpraktikabel machen könnte.

Modell-Signatur

Bei Modellupdates über das Netzwerk sollte durch Signatur des Modells sichergestellt werden, dass der Empfänger das korrekte Modell erhalten hat. Die Signatur wird vom Sender erstellt und auf dem Endgerät vor der Ausführung geprüft. Besonders bei kritischen Anwendungen ist die Durchführung der Attestierung und Signatur mittels einer vertrauenswürdigen Komponente sinnvoll. Diese Maßnahme stärkt die Robustheit des ML-Systems.

Diese Schutzmaßnahme wurde im Rahmen der Demonstratoren des Verbundprojektes SENSIBLE-KI nicht implementiert, da bei keiner der beiden Anwendungen geplant ist, Modell-Updates über das Netzwerk zu übertragen. Die früher im Projekt erfolgten Evaluierungen der Maßnahme ergaben eine erhöhte Latenz beim Start der Anwendung, deren Länge stark von der zur Signatur und Verifikation genutzten Hardware abhing. Weiterhin ist zu beachten, dass zur Implementierung dieser Maßnahme in einem TEE das Implementieren und Ausführen einer eigenen Trusted Application notwendig wäre, was auf den üblichen Mobilgeräten beispielsweise aktuell nicht ohne weiteres möglich ist.

Verschlüsselung der Output-Daten

Eine Maßnahme zur Verbesserung der Privatsphäre ist das Verschlüsseln von personenbezogenen Output-Daten vor der Übertragung oder Speicherung. Besonders bei hohem Personenbezug ist es empfehlenswert, zur Verschlüsselung eine vertrauenswürdige Komponente zu nutzen, da diese einen besseren Schutz für das verwendete Schlüsselmaterial bietet.

Szenario

Die Verschlüsselung wurde innerhalb des SeamlessMe-Demonstrators erprobt.

Ablegen von Schlüsselmaterial

iOs:

Das Schlüsselmaterial wird in der Secure Enclave gespeichert. Die Secure Enclave ist eine abgesicherte Hardwarekomponente. Dieser isolierte Bereich im Prozessorchip dient als Sicherheit und Schutz sensibler Daten.

Android:

Das Schlüsselmaterial wird in der hardwaregestützter Keystore gespeichert. Der hardwaregestützter Keystore ist eine physische Hardwarekomponente, die für die sichere Speicherung von kryptografischen Schlüsseln und sensiblen Daten verantwortlich ist. Nicht auf allen Geräten die kryptografischen Algorithmen unterstützt, die für die Absicherung der Kommunikation benötigt werden. Dies wird bei der Implementierung einen Mehraufwand darstellen.

Erfahrungswerte

Korrekte Wahl von Verschlüsselungsalgorithmen:

Die Wahl eines robusten Verschlüsselungsalgorithmus wie AES oder RSA steht in Abhängigkeit mit dem gewünschten Sicherheitsniveau.

Schlüssellänge und Schlüsselverwaltung:

Es wird empfohlen eine angemessene Schlüssellänge zu wählen, da eine längere Schlüssellänge eine höhere Sicherheit bietet. Die genutzten Schlüssel sollten ebenfalls sicher verwaltet werden und nur autorisierten Personen zugänglich sein. Regelmäßiges Rotieren der Schlüssel wird ebenfalls empfohlen.

Keine Performanceeinbußen

Die im Verhältnis kleineren Datenmengen im Projekt führten nicht zu Leistungseinbußen.

Implementierungshilfe

Für das Erweitern der Recherche und bei Bedarf nach aktuellen Beispielen wird die Dokumentation zum Android Keystore System5 und der iOS Secure Enclave6 empfohlen.

Inferenz in TEE

Eine Möglichkeit, die Schutzziele der Vertraulichkeit, Robustheit und der Privatsphäre zugleich umzusetzen, ist die Ausführung der Inferenz einer ML-Anwendung innerhalb eines Trusted Execution Environments als sogenannte Trusted Application. Somit käme das fertig trainierte Modell nicht in Kontakt mit potenziell bösartigen Drittapplikationen und wäre selbst bei kompromittiertem Betriebssystem geschützt. Diese Maßnahme ist leider aktuell noch nicht praktisch umzusetzen ohne hohe technische Hürden und signifikante Performance-Einbußen.

Die Schutzmaßnahme wurde dementsprechend im Rahmen der Demonstratoren des Verbundprojektes SENSIBLE-KI nicht implementiert.