10:00 | |
Begrüßung und Moderation
|
|
Britta Sennewald
BSI
Frederic Raber
BSI
|
|
10:05 | |
Vera Sikes
BSI
|
Eröffnung und einführende Worte
|
10:15 | |
Philipp Amann
Europol
|
Wird 'Artificial Intelligence for Crime as a Service' die Zukunft sein?
Der Vortag wird neben einer kurzen Einführung in die Arbeit des Europäischen Zentrums zur Bekämpfung der Cyberkriminalität (EC3), einen Überblick über bestehenden und möglichen zukünftigen kriminellen Missbrauch von KI Systemen aus polizeilicher Sicht bieten. Dabei sollen aber auch Möglichkeiten aufgezeigt werden, wie diese Risiken minimiert werden können. |
10:55 | |
Ralf Benzmüller
GData
|
Die Rolle von KI bei der Erkennung und Abwehr von Cyberangriffen auf Unternehmen
Um Cyberangriffe auf Unternehmen erfolgreich abzuwehren, sind viele aufeinander abgestimmte technische und auch organisatorische Maßnahmen erforderlich. Datenzentrierte Ansätze der Künstlichen Intelligenz und des Machinellen Lernens finden hier sinnvolle und nützliche Einsatzgebiete, haben aber auch ihre Grenzen. Die wichtigsten KI-Verfahren werden in Bezug auf ihre Rolle beim Virenschutz iwS in Unternehmen präsentiert. |
11:35 | Kaffeepause |
Themengebiet "KI in Fake-Szenarien" | |
11:40 | |
Dominique Dresen
BSI DI11
|
Automatisierte Manipulation von medialen Identitäten: (Echtzeit-) Face Swapping im Kontext KI-basierter Gesichtserkennungssysteme
Die Grundlagen zur automatisierten Manipulation einer medialen Identität mittels KI (sog. Deepfakes) werden erläutert mit dem Fokus auf Face Swapping. Echtzeit-Einsatzmöglichkeiten werden im Kontext der biometrischer Gesichtserkennungs-Systeme diskutiert und die sich ergebenden Gefahren und Gegenmaßnahmen werden anschließend besprochen. |
12:20 | |
Nicolas Müller
Fraunhofer AISEC
|
Deepfakes als Bedrohung für unsere Gesellschaft? Erstellung und Erkennung mithilfe von Künstlicher Intelligenz
Obwohl künstliche Intelligenz in den vergangen Jahren viele herausfordernde Probleme gelöst hat, so birgt diese Technologie auch großes Potential für Missbrauch: Deepfakes, d.h. computergenerierte Mediendatein, ermöglichen Verleumdung, Betrug und Fake News, und gefährden somit sowohl die Sicherheit des Individuums als auch die unserer Gesellschaft. Wie werden diese Deepfakes erstellt, und welche Möglichkeiten haben wir, uns zur Wehr zu setzen? Wir geben Einblick in die Erstellung von Audio-Deepfakes, die benötigten Trainingsdaten und die Modellarchitektur; und betrachten außerdem die Möglichkeiten und Grenzen von Deepfake-Erkennungsalgorithmen. |
13:00 | Mittagspause |
Themengebiet "Designing for secure AI" | |
14:00 | |
Christian Müller
DFKI
|
Vertrauenswürdige KI für Funktionale Sicherheit und Abwehr von KI-Angriffen am Beispiel von Hochautomatisiertem Fahren
Absicherung von KI im Sinne von funktionaler Sicherheit (Safety) und Cyber-Sicherheit (Security) wird heute noch zumeist separat betrachtet. Es gibt jedoch durchaus Beispiele, die nahelegen, dass diese beiden Arten der Absicherung stärker gemeinsam betrachtet werden müssen. Unter dem Stichwort Vertrauenswürdige KI (Trusted-AI) werde ich dies in meinem Vortrag anhand einiger Beispiele aus dem Bereich Hochautomatisiertes Fahren diskutieren. |
14:40 | |
Daniel Loevenich
BSI TK23
|
Ein Horizontaler Standard für die Prüfung von vertrauenswürdigen cloudbasierten KI-Systemen
KI-Systeme werden beliebigen Konformitätsprüfungen unterzogen von der Eigenerklärung bis zur Zertifizierung. Der Vortrag entwickelt die Vorbedingungen für jede Konformitätsprüfung im gesamten Lebenszyklus eines KI-Systems und stellt ein Prüfkonzept vor. |
15:20 | Kaffeepause |
Themengebiet "Anwender und Informationssicherheit" | |
15:25 | |
Alena Naiakshina
RUB
|
Don't Blame Developers!
Examining a Password-Storage Study Conducted with Students, Freelancers, and Company Developers
Software developers' programming security mistakes can threaten millions of end users' data. To deepen insights into developers' security behavior around the security-critical task of user-password storage, Naiakshina et al. conducted laboratory, online, and field studies with computer science students, freelancers, and professional developers from various companies. Besides investigating software developers' processes and security practices while storing user passwords in databases, they tested the usability of different application programming interfaces (APIs) and explored the methodological implications of several security-study parameters, including deception task design, sample variety, and the comparison of qualitative with quantitative research approaches. |
16:05 | |
|
Panel: Von Sicherheitstechniken zu den Endnutzern
Nicolas Müller (AISEC), Alena Naiakshina (RUB), Arndt von Twickel (BSI DI11), Kristina Unverricht (BSI WG31) |
16:50 | |
Moderation
|
Abschluss
|
Wenn Sie noch Fragen haben, wenden Sie sich bitte an:
Claudia Prediger
CAST e.V. Geschäftsstelle
Tel.: +49 (0) 6151/869 230
Fax: +49 (0) 6151/869 224
E-Mail: info@castforum.de
Simone Zimmermann
CAST e.V.
Tel.: +49 6151 869-230
E-Mail: simone.zimmermanncast-forum.de
ID:SMART Workshop 2025 | 19.-20.02.2025 |
Recht und IT-Sicherheit | 06.03.2025 |
hot topic "Kryptoagilität" | 15.05.2025 |
MedCAST 25 - Sicheres digitales Gesundheitswesen | 22.05.2025 |
24th International Conference of the Biometrics Special Interest Group (BIOSIG 2025) | 25.-26.09.2025 |
Quantentechnologie und Quantencomputer-resistente Sicherheit | 23.10.2025 |