10:00 | |
Annika Rüll
Bundesamt für Sicherheit in der Informationstechnik
|
Eröffnung und Einführung in das Thema
|
10:08 | |
Dr. Frederic Raber
Bundesamt für Sicherheit in der Informationstechnik
|
Grußwort des BSI
|
Themengebiet "KI in Fake-Szenarien" | |
10:15 | |
Matthias Neu
Bundesamt für Sicherheit in der Informationstechnik
|
Automatisierte Manipulation von medialen Identitäten (Deepfakes)
Darstellung der Technologie, der möglichen Bedrohungen und zentraler Herausforderungen
Die Grundlagen zur automatisierten Manipulation einer medialen Identität mittels KI (sog. Deepfakes) werden mit dem Fokus auf Face Swapping und Audio-Deepfakes erläutert. Die sich aus dieser Technologie ergebenen Bedrohungsszenarien werden dargestellt. Außerdem werden Echtzeit-Einsatzmöglichkeiten im Kontext biometrischer Systeme diskutiert. Abschließend werden Herausforderungen von automatisierten Detektionsverfahren im Kontext der Audio-Deepfake-Erkennung praktisch dargestellt.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
10:55 | |
Prof. Dr. Martin Steinebach
Fraunhofer SIT ATHENE
|
Konzepte und Methoden zur Abwehr von Angriffen durch KI-basierte Inhalte
Die Präsentation zeigt die Herausforderungen und wissenschaftlichen Ansätze zur Erkennung von KI-basierten Manipulationen in Mediendaten wie Deepfakes generative KI. Um diesen Bedrohungen zu begegnen, werden verschiedene Sicherheitskonzepte vorgestellt, die sich auf Training, Inhaltserstellung und Verbreitung konzentrieren. Dazu gehören Techniken wie Wasserzeichen, Filterung und forensische Methoden zur Aufdeckung von Manipulationsspuren sowie die Einrichtung von Positivlisten für vertrauenswürdige Inhalte.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
11:35 | Kaffeepause |
Themengebiet "Relevante Anwendungen von KI für die Informationssicherheit" | |
11:50 | |
Ralf Benzmüller
G DATA SecurityLabs
|
KI und Malware-Erkennung
Die Erkennung von Malware ist keine einfache Aufgabe. KI und ML bieten hier neue Möglichkeiten in verschiedenen Einsatzszenarien. Die automatisierte Analyse im Virenlaber ist ebenso Gegenstand des Vortrags, wie die zentrale Auswertung von verhaltensbasieren Daten im lokalen Netz als auch die Einsatzbereiche auf dem Endpunkt selbst. Es wird sich zeigen, wie leistungsfähig KI & ML sind.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
12:30 | |
Anna Wilhelm
Bundesamt für Sicherheit in der Informationstechnik
|
Chancen und Risiken großer KI-Sprachmodelle
Große KI-Sprachmodelle (engl. Large Language Models, kurz LLMs) stellen ein Teilgebiet der generativen KI dar und können in einer Vielzahl von Anwendungsfällen genutzt werden. Sie verarbeiten textuelle Eingaben und sind in der Lage, darauf basierend hochqualitative Textausgaben zu erzeugen, die beispielsweise im Rahmen der Übersetzung oder Zusammenfassung von Texten genutzt werden können. Neben der Chance, die LLMs für die Digitalisierung darstellen, birgt ihre Verwendung neuartige IT-Sicherheitsrisiken und kann bekannte IT-Sicherheitsbedrohungen verstärken. |
13:10 | Mittagspause |
Themengebiet "Designing for secure AI" | |
14:10 | |
Prof. Stefano Tomasin
University of Padova
|
A Primer on Adversarial Machine Learning
With the spreading of artificial intelligence (AI) in several applications, security concerns on the deployed solutions are also rising. Adversarial machine learning (ADML) is a branch of AI studies that addresses the security of models, studying both attacks and defenses. The seminar will give a short overview of the classification of attacks and defenses in ADML, with emphasis on poisoning attacks, evasion attacks, and privacy attacks. Relevant examples of attacks will be presented together with the most important approaches for defense, with some light shed on the reasons for such vulnerabilities. The domain of applications span from image and video processing to text processing (including large language models) to the most recent use of AI in signal processing.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
14:50 | |
Dr. Christian Müller
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
in Vertretung Dr. André Meyer-Vitali
DFKI Saarbrücken
|
Betrachtung von KI-Sicherheit und KI-Sicherheit in Vertrauenswürdiger KI
Sicherheitsaspekte bei der Anwendung von symbolischen und hybriden KI-Methoden
Dieser Vortrag bietet einen Blick auf die Integration von Sicherheit und KI in "Trusted-AI", wobei sowohl symbolische als auch hybride KI-Methoden behandelt werden. Es wird diskutiert, was in der traditionellen Sichtweise auf Sicherheit und KI fehlt und wie Sicherheit ganzheitlich, einschließlich ethischer und vertrauensbildender Maßnahmen, betrachtet werden sollte. Die Bedeutung von Designmustern und der "Boxologie" von hybrider KI wird hervorgehoben. Methoden zur Erlernung von Zwischenabstraktionen für maschinelles Lernen und verstärkendes Lernen für räumliche Navigation werden ebenfalls präsentiert, wobei die Wichtigkeit von symbolischen Vorkenntnissen (Symbolic Prior) betont wird.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
15:30 | Kaffeepause |
15:45 | |
Daniel Loevenich
Bundesamt für Sicherheit in der Informationstechnik
|
Prüfkriterien für sichere KI
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
16:25 | |
Dr. Frederic Raber
Bundesamt für Sicherheit in der Informationstechnik
|
Abschluss
|
16:35 | Startup-Networking |
16:50 | Führung Cyber Range - Fraunhofer SIT (ca. 20min) |
Wenn Sie noch Fragen haben, wenden Sie sich bitte an:
Dr. Frederic Raber
Bundesamt für Sicherheit in der Informationstechnik
Annika Rüll
Bundesamt für Sicherheit in der Informationstechnik
Simone Zimmermann
CAST e.V.
Tel.: +49 6151 869-230
E-Mail: simone.zimmermanncast-forum.de
ID:SMART Workshop 2025 | 19.-20.02.2025 |
Recht und IT-Sicherheit | 06.03.2025 |
hot topic "Kryptoagilität" | 15.05.2025 |
MedCAST 2.0 - Sicheres digitales Gesundheitswesen | 22.05.2025 |
24th International Conference of the Biometrics Special Interest Group (BIOSIG 2025) | 25.-26.09.2025 |
Quantentechnologie und Quantencomputer-resistente Sicherheit | 23.10.2025 |