10:00 | |
Begrüßung und Moderation
|
|
Carsten Binnig
TU Darmstadt
Kristian Kersting
TU Darmstadt
Werner Schindler
BSI
|
|
10:10 | |
Markus Miettinen
Systems Security Lab, TU Darmstadt (CYSEC)
|
Föderiertes maschinelles Lernen für Intrusion Detection in IoT-Netzwerken
Aufgrund mangelnder Sicherheitsdesigns und fehlerhafter Implementierungen und Konfigurationen haben viele IoT-Geräte Schwachstellen, die sie anfällig gegen Angriffe machen. Wegen der enormen Heterogenität von IoT-Geräten und des sich rasant entwickelnden Marktes sind herkömmliche, signaturbasierte Ansätze zur Angriffserkennung oft in der Praxis nicht effektiv. In diesem Vortrag werden wir einen Ansatz vorstellen, in dem föderiertes maschinelles Lernen (federated machine learning) eingesetzt wird, um automatisch Verhaltensmodelle anzulernen, die benutzt werden können, um abweichendes Verhalten von Geräten, die mit Malware infiziert sind, effizient und präzise zu erkennen und geeignete Gegenmaßnahmen einzuleiten.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
10:50 | |
Barbara Hammer
Bielefeld University
|
Feindliche Attacken und wo sie zu finden sind
Adversarial Attacks/feindliche Attacken bezeichnen im Machine Learning das Phänomen, Eingaben für populäre Modelle wie tiefe Netze marginal zu ändern, so dass die Ausgabe sich fundamental ändert. Etwa das Ändern weniger Pixel bei Bildern von Verkehrszeichen kann dazu führen, ein Stoppschild fälschlich als Geschwindigkeitsbegrenzung zu klassifizieren. Diese Effekte treten auch bei unbekannter Funktion und in realen Situationen auf. Im Vortrag möchte ich eine Übersicht über wichtige Ergebnisse in diesem Gebiet geben und dann auf einige neuere Entwicklungen eingehen, insbesondere die Fragestellung, wie Robustheit adäquat formalisiert werden kann und wie intuitive Inspektionen attackierter Bereiche realisiert werden können.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
11:30 | Kaffeepause |
12:00 | |
Daniel Bernau
SAP SE
|
Quantifying and mitigating model leakage in deep learning with membership inference and differential privacy
Have you asked yourself if someone misuses your personal data for training their machine learning models? In this talk we present attacks against machine learning models that allow quantification of the protection against data privacy threats in machine learning. We also shed some light on mitigation strategies such as Differential Privacy.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
12:40 | Mittagsbuffet |
13:50 | |
Martin Steinebach
Fraunhofer SIT
|
Bewertung von Antiken durch Deep Learning
Maschinelles Lernen kann dabei helfen, Expertenwissen bei Sicherheitsfragen auch Endanwendern zur Verfügung zu stellen. Es werden die Ergebnisse des BMBF Projektes Illicid vorgestellt, das die Unterstützung von Ermittlern bei der Begutachtung von Antiken adressiert. Anhand von Smartphone-Aufnahmen kann ein Ähnlichkeitsvergleich zu bereits bewerteten Referenzobjekten mittels eines deep learning Netzes erfolgen. Da hier nur eine geringe Trainingsmenge existiert, wurden Ansätze des transfer learnings eingesetzt.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
14:30 | |
Maximilian Heinemeyer
Darktrace
|
Defensiver und offensiver Einsatz von KI Systemen in der Cyber-Sicherheit
Dieser Vortrag erläutert wie Künstliche Intelligenz und Maschinelles Lernen im Bereich Cyber-Sicherheit derzeit eingesetzt werden. Es werden sowohl defensive Einsätze (z.B. in neuartigen Sicherheits-Tools), offensive Einsatzmöglichkeiten sowie Angriffe gegen KI-Systeme selbst behandelt. Der Vortrag wird Echtweltbeispiele zur Illustration nutzen.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
15:10 | Kaffeepause |
15:40 | |
Sven Herpig
Stiftung Neue Verantwortung e.V.
|
Nationale (Un)sicherheit durch Maschinelles Lernen?
Während außerhalb der technischen Community viel über den Einsatz von ML für IT-Sicherheit oder für Angriffe auf IT-Systeme gesprochen wird, wird die IT-Sicherheit von ML selbst meist vernachlässigt. Der Vortrag widmet sich einer analytischen Aufbereitung der Angriffsoberfläche von ML und den damit verbundenen Implikationen, vor allem im Anwendungsfeld der Nationalen Sicherheit.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
16:20 | |
Philipp Richter
Der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Rheinland-Pfalz
|
Künstliche Intelligenz - Der Blick der Datenschutzaufsichtsbehörde(n)
Künstliche Intelligenz ist in aller Munde. Neben den zahlreichen Vorteilen eröffnen sich durch die Technologie aber auch Risiken, zum Beispiel im Bereich des Datenschutzes. Die deutschen Datenschutzaufsichtsbehörden haben mit der "Hambacher Erklärung" zu künstlicher Intelligenz bereits eine erste Stellungnahme koordinierte abgegeben und arbeiten an weiteren Formaten, um die Diskussion um KI proaktiv zu begleiten.
CAST-Mitglieder können hier die Vortragsunterlagen herunterladen.
|
Wenn Sie noch Fragen haben, wenden Sie sich bitte an:
Carsten Binnig, Kristian Kersting
TU Darmstadt
E-Mail:
carsten.binnig@cs.tu-darmstadt.de,
kersting@cs.tu-darmstadt.de
Werner Schindler
BSI
E-Mail: werner.schindler@bsi.bund.de
Simone Zimmermann
CAST e.V.
Tel.: +49 6151 869-230
E-Mail: simone.zimmermanncast-forum.de