Pressemitteilung KI-FOGGER

Pressemitteilung KI-FOGGER

Mai 25, 2023

KI-FOGGER – Schutz industrieller KI-Modelle vor unbefugter Datenextraktion

STUTTGART, 3. Juni 2025 – Mit dem Start des dreijährigen Forschungsprojekts KI-FOGGER setzen fünf Partner gemeinsam ein starkes Zeichen für den Schutz von KI-Modellen im Maschinen- und Anlagenbau. Das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) mit über 2 Millionen Euro geförderte Projekt vereint die Expertise von TRUMPF, asvin, Aimino, KMPC Innovations, dem Fraunhofer IPA und dem DFKI.

Ziel von KI-FOGGER ist es, effektive steganografische und kryptografische Methoden zu entwickeln, um industrielle KI-Modelle gegen Destillation von Trainingsdaten zu schützen. Diese Schutzmaßnahmen sollen verhindern, dass sensible Informationen aus trainierten Modellen extrahiert und von Dritten ohne Autorisierung genutzt werden.

Die Relevanz ist hoch: „Die finanziellen Schäden durch unbefugte Datenextraktion gehen mittlerweile in die Millionen,“ erklärt Mirko Ross, Geschäftsführer von asvin. So wurde kürzlich dem chinesischen Anbieter Deepseek vorgeworfen, sein Modell unter Verwendung extrahierter Trainingsdaten eines US-Wettbewerbers aufgebaut zu haben. „Mittels Destillation kann ein Konkurrent KI-Modelle auf Basis fremden Wissens trainieren – ein Vorgehen, das Know-how-Vorsprünge zerstört und Marktverzerrungen begünstigt.“

Im Maschinen- und Anlagenbau ist Künstliche Intelligenz ein zentraler Wettbewerbsfaktor. Die Trainingsdaten, auf denen diese Modelle basieren, sind wertvolles geistiges Eigentum. Um dieses zu schützen, setzt KI-FOGGER auf steganografische Verfahren: Dabei werden sinnvolle Trainingsdaten gezielt mit unsinnigen Daten vermischt. Erst mit einem passenden kryptografischen Schlüssel lassen sich die echten Informationen wieder entschlüsseln. Für unbefugte Dritte ist eine Datenextraktion damit wirkungsvoll blockiert.

Der Forschungsfokus von KI-FOGGER liegt auf dem KI-Trainingsprozess selbst. Im Zentrum stehen dabei folgende Fragestellungen:

  • Wie lassen sich Trainingsdaten gezielt „verrauschen“?
  • Wie können kryptografische Marker in Modelle integriert werden?
  • Welche Methoden sind wirksam gegen Datenextraktion durch Modell-Destillation?

Zur Beantwortung dieser Fragen setzen die Projektpartner auf ein mehrstufiges Vorgehen:

  • Erstellung von Bedrohungsanalysen für industrielle KI-Systeme
  • Entwicklung und Durchführung von Angriffswerkzeugen zur Trainingsdaten-Destillation
  • Entwicklung von Schutzmethoden mittels steganografischer und kryptografischer Verfahren
  • Validierung der Schutzmechanismen in realitätsnahen Testumgebungen

Die Wirksamkeit der Methoden wird im Rahmen des Projekts bei TRUMPF in einem industriellen Demonstrator getestet. Ein besonderer Fokus liegt dabei auf KI-Entwicklungsprozessen im Maschinen- und Anlagenbau.

Die Ergebnisse sollen nicht nur im Projekt, sondern auch der Fachcommunity zugänglich gemacht werden: Die entwickelten Verfahren werden zur Bewertung durch Peer-Reviews in der kryptografischen und KI-Sicherheitsforschung bereitgestellt.