hot topic "KI und IT-Sicherheit"

Termin: 20.10.2022
Dauer: 10:00-17:00
Ort: Präsenzveranstaltung im Fraunhofer SIT
Rheinstr. 75
64295 Darmstadt
Diese Veranstaltung wird als Weiterbildung im Sinne der T.I.S.P.-Rezertifizierung anerkannt

Programm

10:00
Begrüßung und Moderation
Britta Sennewald
BSI
Frederic Raber
BSI
10:05
Vera Sikes
BSI
Eröffnung und einführende Worte
10:15
Philipp Amann
Europol
Philipp Amann
Wird 'Artificial Intelligence for Crime as a Service' die Zukunft sein?

Der Vortag wird neben einer kurzen Einführung in die Arbeit des Europäischen Zentrums zur Bekämpfung der Cyberkriminalität (EC3), einen Überblick über bestehenden und möglichen zukünftigen kriminellen Missbrauch von KI Systemen aus polizeilicher Sicht bieten. Dabei sollen aber auch Möglichkeiten aufgezeigt werden, wie diese Risiken minimiert werden können.

10:55
Ralf Benzmüller
GData
Ralf Benzmüller
Die Rolle von KI bei der Erkennung und Abwehr von Cyberangriffen auf Unternehmen

Um Cyberangriffe auf Unternehmen erfolgreich abzuwehren, sind viele aufeinander abgestimmte technische und auch organisatorische Maßnahmen erforderlich. Datenzentrierte Ansätze der Künstlichen Intelligenz und des Machinellen Lernens finden hier sinnvolle und nützliche Einsatzgebiete, haben aber auch ihre Grenzen. Die wichtigsten KI-Verfahren werden in Bezug auf ihre Rolle beim Virenschutz iwS in Unternehmen präsentiert.

11:35 Kaffeepause
Themengebiet "KI in Fake-Szenarien"
11:40
Dominique Dresen
BSI DI11
Dominique Dresen
Automatisierte Manipulation von medialen Identitäten: (Echtzeit-) Face Swapping im Kontext KI-basierter Gesichtserkennungssysteme

Die Grundlagen zur automatisierten Manipulation einer medialen Identität mittels KI (sog. Deepfakes) werden erläutert mit dem Fokus auf Face Swapping. Echtzeit-Einsatzmöglichkeiten werden im Kontext der biometrischer Gesichtserkennungs-Systeme diskutiert und die sich ergebenden Gefahren und Gegenmaßnahmen werden anschließend besprochen.

12:20
Nicolas Müller
Fraunhofer AISEC
Nicolas Müller
Deepfakes als Bedrohung für unsere Gesellschaft? Erstellung und Erkennung mithilfe von Künstlicher Intelligenz

Obwohl künstliche Intelligenz in den vergangen Jahren viele herausfordernde Probleme gelöst hat, so birgt diese Technologie auch großes Potential für Missbrauch: Deepfakes, d.h. computergenerierte Mediendatein, ermöglichen Verleumdung, Betrug und Fake News, und gefährden somit sowohl die Sicherheit des Individuums als auch die unserer Gesellschaft. Wie werden diese Deepfakes erstellt, und welche Möglichkeiten haben wir, uns zur Wehr zu setzen? Wir geben Einblick in die Erstellung von Audio-Deepfakes, die benötigten Trainingsdaten und die Modellarchitektur; und betrachten außerdem die Möglichkeiten und Grenzen von Deepfake-Erkennungsalgorithmen.

13:00 Mittagspause
Themengebiet "Designing for secure AI"
14:00
Christian Müller
DFKI
Christian Müller
Vertrauenswürdige KI für Funktionale Sicherheit und Abwehr von KI-Angriffen am Beispiel von Hochautomatisiertem Fahren

Absicherung von KI im Sinne von funktionaler Sicherheit (Safety) und Cyber-Sicherheit (Security) wird heute noch zumeist separat betrachtet. Es gibt jedoch durchaus Beispiele, die nahelegen, dass diese beiden Arten der Absicherung stärker gemeinsam betrachtet werden müssen. Unter dem Stichwort Vertrauenswürdige KI (Trusted-AI) werde ich dies in meinem Vortrag anhand einiger Beispiele aus dem Bereich Hochautomatisiertes Fahren diskutieren.

14:40
Daniel Loevenich
BSI TK23
Daniel Loevenich
Ein Horizontaler Standard für die Prüfung von vertrauenswürdigen cloudbasierten KI-Systemen

KI-Systeme werden beliebigen Konformitätsprüfungen unterzogen von der Eigenerklärung bis zur Zertifizierung. Der Vortrag entwickelt die Vorbedingungen für jede Konformitätsprüfung im gesamten Lebenszyklus eines KI-Systems und stellt ein Prüfkonzept vor.

15:20 Kaffeepause
Themengebiet "Anwender und Informationssicherheit"
15:25
Alena Naiakshina
RUB
Alena Naiakshina
Don't Blame Developers!
Examining a Password-Storage Study Conducted with Students, Freelancers, and Company Developers

Software developers' programming security mistakes can threaten millions of end users' data. To deepen insights into developers' security behavior around the security-critical task of user-password storage, Naiakshina et al. conducted laboratory, online, and field studies with computer science students, freelancers, and professional developers from various companies. Besides investigating software developers' processes and security practices while storing user passwords in databases, they tested the usability of different application programming interfaces (APIs) and explored the methodological implications of several security-study parameters, including deception task design, sample variety, and the comparison of qualitative with quantitative research approaches.

16:05
Panel: Von Sicherheitstechniken zu den Endnutzern

Nicolas Müller (AISEC),

Alena Naiakshina (RUB),

Arndt von Twickel (BSI DI11),

Kristina Unverricht (BSI WG31)

16:50
Moderation
Abschluss

Informationen und Kontakt

Wenn Sie noch Fragen haben, wenden Sie sich bitte an:

Moderation

Claudia Prediger
CAST e.V. Geschäftsstelle
Tel.: +49 (0) 6151/869 230
Fax: +49 (0) 6151/869 224
E-Mail:

Administration

Simone Zimmermann
CAST e.V.
Tel.: +49 6151 869-230
E-Mail:

Reiseplanung

Start


CAST e.V.
Rheinstraße 75
64295 Darmstadt

Kommende CAST Veranstaltungen

ID:SMART Workshop 2025 19.-20.02.2025
Recht und IT-Sicherheit 06.03.2025
hot topic "Kryptoagilität" 15.05.2025
MedCAST 25 - Sicheres digitales Gesundheitswesen 22.05.2025
24th International Conference of the Biometrics Special Interest Group (BIOSIG 2025) 25.-26.09.2025
Quantentechnologie und Quantencomputer-resistente Sicherheit 23.10.2025