10:00 | |
Annika Rüll
Bundesamt für Sicherheit in der Informationstechnik
|
Eröffnung und Einführung in das Thema
|
10:08 | |
Dr. Frederic Raber
Bundesamt für Sicherheit in der Informationstechnik
|
Grußwort des BSI
|
Themengebiet "KI in Fake-Szenarien" | |
10:15 | |
Matthias Neu
Bundesamt für Sicherheit in der Informationstechnik
|
Automatisierte Manipulation von medialen Identitäten (Deepfakes)
Darstellung der Technologie, der möglichen Bedrohungen und zentraler Herausforderungen
Die Grundlagen zur automatisierten Manipulation einer medialen Identität mittels KI (sog. Deepfakes) werden mit dem Fokus auf Face Swapping und Audio-Deepfakes erläutert. Die sich aus dieser Technologie ergebenen Bedrohungsszenarien werden dargestellt. Außerdem werden Echtzeit-Einsatzmöglichkeiten im Kontext biometrischer Systeme diskutiert. Abschließend werden Herausforderungen von automatisierten Detektionsverfahren im Kontext der Audio-Deepfake-Erkennung praktisch dargestellt.
CAST Members can download the documents here.
|
10:55 | |
Prof. Dr. Martin Steinebach
Fraunhofer SIT ATHENE
|
Konzepte und Methoden zur Abwehr von Angriffen durch KI-basierte Inhalte
Die Präsentation zeigt die Herausforderungen und wissenschaftlichen Ansätze zur Erkennung von KI-basierten Manipulationen in Mediendaten wie Deepfakes generative KI. Um diesen Bedrohungen zu begegnen, werden verschiedene Sicherheitskonzepte vorgestellt, die sich auf Training, Inhaltserstellung und Verbreitung konzentrieren. Dazu gehören Techniken wie Wasserzeichen, Filterung und forensische Methoden zur Aufdeckung von Manipulationsspuren sowie die Einrichtung von Positivlisten für vertrauenswürdige Inhalte.
CAST Members can download the documents here.
|
11:35 | Kaffeepause |
Themengebiet "Relevante Anwendungen von KI für die Informationssicherheit" | |
11:50 | |
Ralf Benzmüller
G DATA SecurityLabs
|
KI und Malware-Erkennung
Die Erkennung von Malware ist keine einfache Aufgabe. KI und ML bieten hier neue Möglichkeiten in verschiedenen Einsatzszenarien. Die automatisierte Analyse im Virenlaber ist ebenso Gegenstand des Vortrags, wie die zentrale Auswertung von verhaltensbasieren Daten im lokalen Netz als auch die Einsatzbereiche auf dem Endpunkt selbst. Es wird sich zeigen, wie leistungsfähig KI & ML sind.
CAST Members can download the documents here.
|
12:30 | |
Anna Wilhelm
Bundesamt für Sicherheit in der Informationstechnik
|
Chancen und Risiken großer KI-Sprachmodelle
Große KI-Sprachmodelle (engl. Large Language Models, kurz LLMs) stellen ein Teilgebiet der generativen KI dar und können in einer Vielzahl von Anwendungsfällen genutzt werden. Sie verarbeiten textuelle Eingaben und sind in der Lage, darauf basierend hochqualitative Textausgaben zu erzeugen, die beispielsweise im Rahmen der Übersetzung oder Zusammenfassung von Texten genutzt werden können. Neben der Chance, die LLMs für die Digitalisierung darstellen, birgt ihre Verwendung neuartige IT-Sicherheitsrisiken und kann bekannte IT-Sicherheitsbedrohungen verstärken. |
13:10 | Mittagspause |
Themengebiet "Designing for secure AI" | |
14:10 | |
Prof. Stefano Tomasin
University of Padova
|
A Primer on Adversarial Machine Learning
With the spreading of artificial intelligence (AI) in several applications, security concerns on the deployed solutions are also rising. Adversarial machine learning (ADML) is a branch of AI studies that addresses the security of models, studying both attacks and defenses. The seminar will give a short overview of the classification of attacks and defenses in ADML, with emphasis on poisoning attacks, evasion attacks, and privacy attacks. Relevant examples of attacks will be presented together with the most important approaches for defense, with some light shed on the reasons for such vulnerabilities. The domain of applications span from image and video processing to text processing (including large language models) to the most recent use of AI in signal processing.
CAST Members can download the documents here.
|
14:50 | |
Dr. Christian Müller
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
in Vertretung Dr. André Meyer-Vitali
DFKI Saarbrücken
|
Betrachtung von KI-Sicherheit und KI-Sicherheit in Vertrauenswürdiger KI
Sicherheitsaspekte bei der Anwendung von symbolischen und hybriden KI-Methoden
Dieser Vortrag bietet einen Blick auf die Integration von Sicherheit und KI in "Trusted-AI", wobei sowohl symbolische als auch hybride KI-Methoden behandelt werden. Es wird diskutiert, was in der traditionellen Sichtweise auf Sicherheit und KI fehlt und wie Sicherheit ganzheitlich, einschließlich ethischer und vertrauensbildender Maßnahmen, betrachtet werden sollte. Die Bedeutung von Designmustern und der "Boxologie" von hybrider KI wird hervorgehoben. Methoden zur Erlernung von Zwischenabstraktionen für maschinelles Lernen und verstärkendes Lernen für räumliche Navigation werden ebenfalls präsentiert, wobei die Wichtigkeit von symbolischen Vorkenntnissen (Symbolic Prior) betont wird.
CAST Members can download the documents here.
|
15:30 | Kaffeepause |
15:45 | |
Daniel Loevenich
Bundesamt für Sicherheit in der Informationstechnik
|
Prüfkriterien für sichere KI
CAST Members can download the documents here.
|
16:25 | |
Dr. Frederic Raber
Bundesamt für Sicherheit in der Informationstechnik
|
Abschluss
|
16:35 | Startup-Networking |
16:50 | Führung Cyber Range - Fraunhofer SIT (ca. 20min) |
If you have any questions please contact:
Dr. Frederic Raber
Bundesamt für Sicherheit in der Informationstechnik
Annika Rüll
Bundesamt für Sicherheit in der Informationstechnik
Simone Zimmermann
CAST e.V.
Tel.: +49 6151 869-230
Email: simone.zimmermanncast-forum.de