KI-Modelle schützen.
Know-how bewahren.
Souveränität sichern.
Ein vom BMFTR gefördertes KI-Sicherheitsforschungsprojekt zur Entwicklung neuer Sicherheitstechnologien für KI-Modelle im Maschinen- und Anlagenbau.

Verbesserung des Schutzes industrieller KI Systeme – KI Sicherheit
Künstliche Intelligenz (KI) ist ein wesentlicher Treiber für die Sicherung der Wettbewerbsfähigkeit des deutschen Maschinen- und Anlagenbaus. Die Branche hat das Potenzial von KI-Technologien zur Innovationsförderung erkannt und setzt diese gezielt ein. Gleichzeitig stellt der Schutz des in KI-Modellen enthaltenen geistigen Eigentums eine zentrale Herausforderung dar – insbesondere bei der Nutzung der Modelle durch Dritte.
Das Risiko eines Diebstahls sensibler Informationen durch Wettbewerber oder staatliche Akteure ist erheblich. Vor diesem Hintergrund verfolgt das Forschungsprojekt KI-FOGGER das Ziel, den Schutz industrieller KI-Systeme durch KI Sicherheit systematisch zu verbessern.
Entwicklung innovativer Sicherheitstechniken
Ziel von KI-FOGGER ist die Entwicklung innovativer Sicherheitstechniken, um KI-Modelle wirksam vor unbefugtem Zugriff und Datenextraktion zu schützen. Dazu greift das Projektteam auf Methoden zurück, die ursprünglich für Angriffe auf KI-Systeme konzipiert wurden.
Im Fokus der KI Sicherheit stehen dabei unter anderem:
- das Einbringen fehlerhafter oder schädlicher Daten in Trainingsdatensätze („Data Poisoning“)
- die Einführung versteckter Zugänge in Modelle („Backdooring“)
Diese Methoden werden so weiterentwickelt, dass die Modelle bei fehlender Autorisierung gezielt verrauschte und somit unbrauchbare Ergebnisse liefern. Das Ziel ist, die Entschlüsselung des in den Modellen enthaltenen Know-hows ohne gültigen Zugriffsschlüssel unmöglich zu machen.
Die Konzeption berücksichtigt differenzierte Zugriffsebenen auf Basis einer mehrstufigen Autorisierung. Abschließend erfolgt eine Validierung der entwickelten Verfahren anhand realer industrieller Anwendungsszenarien.
Einen neuer Ansatz zur Absicherung von KI-Systemen
Das Projekt erschließt einen neuen Ansatz zur Absicherung von KI-Systemen durch Verrauschung der Modellausgaben. Diese Technik ermöglicht es, geistiges Eigentum selbst im Fall eines Modellverlusts zu schützen. Die eingesetzten Verfahren basieren auf intrinsischer Modellverschlüsselung und verhindern die unbefugte Nutzung der enthaltenen Informationen.
KI-FOGGER leistet damit einen Beitrag zur technologischen Souveränität der deutschen Wirtschaft und adressiert zentrale Anforderungen an den vertrauenswürdigen und sicheren Einsatz von KI-Systemen. Der Schutz solcher KI-Systeme ist Voraussetzung dafür, das Potenzial von Künstlicher Intelligenz verantwortungsvoll und nachhaltig zu nutzen.

Start: Juni 2025
Ende: August 2028
Förderziel (Auszug)
Bundesanzeiger vom 02.11.2023 | Ziel der Förderung ist es, die Forschung, Expertise und Wertschöpfung im Bereich der IT-Sicherheit in Deutschland nachhaltig zu stärken und Lösungen für den sicheren Einsatz von KI-Technologien voranzubringen.
Die Forschungsexpertise im Schnittbereich von IT-Sicherheit und Künstlicher Intelligenz soll ausgebaut und der Transfer in die Praxis beschleunigt werden. Durch die Zusammenarbeit von Unternehmen und Forschungseinrichtungen soll das vorhandene Know-how aus Deutschlands vergleichsweise gut aufgestellter IT-Sicherheitsforschung auf Umsetzungspartner aus der Wirtschaft transferiert und in die Anwendungen gebracht werden.
BMFTR vergibt Projekt an TRUMPF, asvin, Aimino, KMPC Innovations, Fraunhofer IPA und dem DFKI.