Künstliche Intelligenz und Cybersicherheit

Termin: 16.05.2024
Dauer: 10:00-16:50
Ort: Fraunhofer SIT
Rheinstraße 75
64295 Darmstadt
Diese Veranstaltung wird als Weiterbildung im Sinne der T.I.S.P.-Rezertifizierung anerkannt

Programm

10:00
Annika Rüll
Bundesamt für Sicherheit in der Informationstechnik
Annika Rüll
Eröffnung und Einführung in das Thema
10:08
Dr. Frederic Raber
Bundesamt für Sicherheit in der Informationstechnik
Dr. Frederic Raber
Grußwort des BSI
Themengebiet "KI in Fake-Szenarien"
10:15
Matthias Neu
Bundesamt für Sicherheit in der Informationstechnik
Matthias Neu
Automatisierte Manipulation von medialen Identitäten (Deepfakes)
Darstellung der Technologie, der möglichen Bedrohungen und zentraler Herausforderungen

Die Grundlagen zur automatisierten Manipulation einer medialen Identität mittels KI (sog. Deepfakes) werden mit dem Fokus auf Face Swapping und Audio-Deepfakes erläutert. Die sich aus dieser Technologie ergebenen Bedrohungsszenarien werden dargestellt. Außerdem werden Echtzeit-Einsatzmöglichkeiten im Kontext biometrischer Systeme diskutiert. Abschließend werden Herausforderungen von automatisierten Detektionsverfahren im Kontext der Audio-Deepfake-Erkennung praktisch dargestellt.

10:55
Prof. Dr. Martin Steinebach
Fraunhofer SIT ATHENE
Prof. Dr. Martin Steinebach
Konzepte und Methoden zur Abwehr von Angriffen durch KI-basierte Inhalte

Die Präsentation zeigt die Herausforderungen und wissenschaftlichen Ansätze zur Erkennung von KI-basierten Manipulationen in Mediendaten wie Deepfakes generative KI. Um diesen Bedrohungen zu begegnen, werden verschiedene Sicherheitskonzepte vorgestellt, die sich auf Training, Inhaltserstellung und Verbreitung konzentrieren. Dazu gehören Techniken wie Wasserzeichen, Filterung und forensische Methoden zur Aufdeckung von Manipulationsspuren sowie die Einrichtung von Positivlisten für vertrauenswürdige Inhalte.

11:35 Kaffeepause
Themengebiet "Relevante Anwendungen von KI für die Informationssicherheit"
11:50
Ralf Benzmüller
G DATA SecurityLabs
Ralf Benzmüller
KI und Malware-Erkennung

Die Erkennung von Malware ist keine einfache Aufgabe. KI und ML bieten hier neue Möglichkeiten in verschiedenen Einsatzszenarien. Die automatisierte Analyse im Virenlaber ist ebenso Gegenstand des Vortrags, wie die zentrale Auswertung von verhaltensbasieren Daten im lokalen Netz als auch die Einsatzbereiche auf dem Endpunkt selbst. Es wird sich zeigen, wie leistungsfähig KI & ML sind.

12:30
Anna Wilhelm
Bundesamt für Sicherheit in der Informationstechnik
Anna Wilhelm
Chancen und Risiken großer KI-Sprachmodelle

Große KI-Sprachmodelle (engl. Large Language Models, kurz LLMs) stellen ein Teilgebiet der generativen KI dar und können in einer Vielzahl von Anwendungsfällen genutzt werden. Sie verarbeiten textuelle Eingaben und sind in der Lage, darauf basierend hochqualitative Textausgaben zu erzeugen, die beispielsweise im Rahmen der Übersetzung oder Zusammenfassung von Texten genutzt werden können. Neben der Chance, die LLMs für die Digitalisierung darstellen, birgt ihre Verwendung neuartige IT-Sicherheitsrisiken und kann bekannte IT-Sicherheitsbedrohungen verstärken.

13:10 Mittagspause
Themengebiet "Designing for secure AI"
14:10
Prof. Stefano Tomasin
University of Padova
Prof. Stefano Tomasin
A Primer on Adversarial Machine Learning

With the spreading of artificial intelligence (AI) in several applications, security concerns on the deployed solutions are also rising. Adversarial machine learning (ADML) is a branch of AI studies that addresses the security of models, studying both attacks and defenses. The seminar will give a short overview of the classification of attacks and defenses in ADML, with emphasis on poisoning attacks, evasion attacks, and privacy attacks. Relevant examples of attacks will be presented together with the most important approaches for defense, with some light shed on the reasons for such vulnerabilities. The domain of applications span from image and video processing to text processing (including large language models) to the most recent use of AI in signal processing.

14:50
Dr. Christian Müller
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH (DFKI)
Dr. Christian Müller
Betrachtung von KI-Sicherheit und KI-Sicherheit in Vertrauenswürdiger KI
Sicherheitsaspekte bei der Anwendung von symbolischen und hybriden KI-Methoden

Dieser Vortrag bietet einen Blick auf die Integration von Sicherheit und KI in "Trusted-AI", wobei sowohl symbolische als auch hybride KI-Methoden behandelt werden. Es wird diskutiert, was in der traditionellen Sichtweise auf Sicherheit und KI fehlt und wie Sicherheit ganzheitlich, einschließlich ethischer und vertrauensbildender Maßnahmen, betrachtet werden sollte. Die Bedeutung von Designmustern und der "Boxologie" von hybrider KI wird hervorgehoben. Methoden zur Erlernung von Zwischenabstraktionen für maschinelles Lernen und verstärkendes Lernen für räumliche Navigation werden ebenfalls präsentiert, wobei die Wichtigkeit von symbolischen Vorkenntnissen (Symbolic Prior) betont wird.

15:30 Kaffeepause
15:45
Daniel Loevenich
Bundesamt für Sicherheit in der Informationstechnik
Prüfkriterien für sichere KI
16:25
Dr. Frederic Raber
Bundesamt für Sicherheit in der Informationstechnik
Abschluss
16:35 Startup-Networking
16:50 Führung Cyber Range - Fraunhofer SIT (ca. 20min)

Anmeldung und Preise

Generell können Sie sich bis zum Veranstaltungstag anmelden. Stichtag für eine Anmeldung zum Frühbucherrabatt ist der 06.05.2024, danach gilt der normale Teilnehmerbetrag. Um den Workshop optimal vorbereiten zu können bitten wir Sie, von dieser Möglichkeit Gebrauch zu machen. Für Schüler, Auszubildende und Studenten können Sonderkonditionen eingeräumt werden.

Bei Anmeldung ... bis zum Stichtag nach dem Stichtag
Teilnahmegebühr des Workshops 300,00 € 350,00 €
für Inhaber eines CAST-Leistungspaketes 150,00 € 175,00 €

Alle Preise inkl. 7% MwSt.

Informationen zum CAST Leistungspaket finden Sie hier.

Informationen und Kontakt

Wenn Sie noch Fragen haben, wenden Sie sich bitte an:

Moderation

Dr. Frederic Raber
Bundesamt für Sicherheit in der Informationstechnik

Annika Rüll
Bundesamt für Sicherheit in der Informationstechnik

Administration

Simone Zimmermann
CAST e.V.
Tel.: +49 6151 869-230
E-Mail:

Bitte beachten Sie, dass wir Anmeldungen zu unseren Veranstaltungen nur über das Online-Formular nicht jedoch über unsere Fax-Nummern entgegen nehmen können.

Reiseplanung

Start


CAST e.V.
Rheinstraße 75
64295 Darmstadt

Kommende CAST Veranstaltungen

Künstliche Intelligenz und Cybersicherheit 16.05.2024
23nd International Conference of the Biometrics Special Interest Group (BIOSIG 2024) 25.-27.09.2024
Forensik / Internetkriminalität 28.11.2024
ID:SMART Workshop 2025 19.-20.02.2025