hot topic: Künstliche Intelligenz und IT-Sicherheit

Date: 17.10.2019
Duration: 10:00-17:00
Location: Fraunhofer SIT
Rheinstraße 75
64295 Darmstadt

Program

10:00
Begrüßung und Moderation
Carsten Binnig
TU Darmstadt
Kristian Kersting
TU Darmstadt
Werner Schindler
BSI
10:10
Markus Miettinen
Systems Security Lab, TU Darmstadt (CYSEC)
Markus Miettinen
Föderiertes maschinelles Lernen für Intrusion Detection in IoT-Netzwerken

Aufgrund mangelnder Sicherheitsdesigns und fehlerhafter Implementierungen und Konfigurationen haben viele IoT-Geräte Schwachstellen, die sie anfällig gegen Angriffe machen. Wegen der enormen Heterogenität von IoT-Geräten und des sich rasant entwickelnden Marktes sind herkömmliche, signaturbasierte Ansätze zur Angriffserkennung oft in der Praxis nicht effektiv. In diesem Vortrag werden wir einen Ansatz vorstellen, in dem föderiertes maschinelles Lernen (federated machine learning) eingesetzt wird, um automatisch Verhaltensmodelle anzulernen, die benutzt werden können, um abweichendes Verhalten von Geräten, die mit Malware infiziert sind, effizient und präzise zu erkennen und geeignete Gegenmaßnahmen einzuleiten.

10:50
Barbara Hammer
Bielefeld University
Barbara Hammer
Feindliche Attacken und wo sie zu finden sind

Adversarial Attacks/feindliche Attacken bezeichnen im Machine Learning das Phänomen, Eingaben für populäre Modelle wie tiefe Netze marginal zu ändern, so dass die Ausgabe sich fundamental ändert. Etwa das Ändern weniger Pixel bei Bildern von Verkehrszeichen kann dazu führen, ein Stoppschild fälschlich als Geschwindigkeitsbegrenzung zu klassifizieren. Diese Effekte treten auch bei unbekannter Funktion und in realen Situationen auf. Im Vortrag möchte ich eine Übersicht über wichtige Ergebnisse in diesem Gebiet geben und dann auf einige neuere Entwicklungen eingehen, insbesondere die Fragestellung, wie Robustheit adäquat formalisiert werden kann und wie intuitive Inspektionen attackierter Bereiche realisiert werden können.

11:30 Kaffeepause
12:00
Daniel Bernau
SAP Research
Daniel Bernau
Quantifying and mitigating model leakage in deep learning with membership inference and differential privacy

Have you asked yourself if someone misuses your personal data for training their machine learning models? In this talk we present attacks against machine learning models that allow quantification of the protection against data privacy threats in machine learning. We also shed some light on mitigation strategies such as Differential Privacy.

12:40 Mittagsbuffet
13:50
Martin Steinebach
Fraunhofer SIT
Martin Steinebach
Bewertung von Antiken durch Deep Learning

Maschinelles Lernen kann dabei helfen, Expertenwissen bei Sicherheitsfragen auch Endanwendern zur Verfügung zu stellen. Es werden die Ergebnisse des BMBF Projektes Illicid vorgestellt, das die Unterstützung von Ermittlern bei der Begutachtung von Antiken adressiert. Anhand von Smartphone-Aufnahmen kann ein Ähnlichkeitsvergleich zu bereits bewerteten Referenzobjekten mittels eines deep learning Netzes erfolgen. Da hier nur eine geringe Trainingsmenge existiert, wurden Ansätze des transfer learnings eingesetzt.

14:30
Max Heinemeyer
Darktrace
Max Heinemeyer
Defensiver und offensiver Einsatz von KI Systemen in der Cyber-Sicherheit

Dieser Vortrag erläutert wie Künstliche Intelligenz und Maschinelles Lernen im Bereich Cyber-Sicherheit derzeit eingesetzt werden. Es werden sowohl defensive Einsätze (z.B. in neuartigen Sicherheits-Tools), offensive Einsatzmöglichkeiten sowie Angriffe gegen KI-Systeme selbst behandelt. Der Vortrag wird Echtweltbeispiele zur Illustration nutzen.

15:10 Kaffeepause
15:40
Sven Herpig
Stiftung Neue Verantwortung e.V.
Sven Herpig
Nationale (Un)sicherheit durch Maschinelles Lernen?

Während außerhalb der technischen Community viel über den Einsatz von ML für IT-Sicherheit oder für Angriffe auf IT-Systeme gesprochen wird, wird die IT-Sicherheit von ML selbst meist vernachlässigt. Der Vortrag widmet sich einer analytischen Aufbereitung der Angriffsoberfläche von ML und den damit verbundenen Implikationen, vor allem im Anwendungsfeld der Nationalen Sicherheit.

16:20
Philipp Richter
Der Landesbeauftragte für den Datenschutz und die Informationsfreiheit Rheinland-Pfalz
Philipp Richter
Künstliche Intelligenz - Der Blick der Datenschutzaufsichtsbehörde(n)

Künstliche Intelligenz ist in aller Munde. Neben den zahlreichen Vorteilen eröffnen sich durch die Technologie aber auch Risiken, zum Beispiel im Bereich des Datenschutzes. Die deutschen Datenschutzaufsichtsbehörden haben mit der "Hambacher Erklärung" zu künstlicher Intelligenz bereits eine erste Stellungnahme koordinierte abgegeben und arbeiten an weiteren Formaten, um die Diskussion um KI proaktiv zu begleiten.

Registration and Pricing

Deadline for a registration is 07.10.2019.By registering before deadline we charge a reduced fee. We ask you to take this offer to allow best preparation of the seminar. Special conditions may be granted for students and trainees.

On registration ... before deadline after deadline
registration fee for the workshop 300,00 € 350,00 €
for owners of a CAST service package 150,00 € 175,00 €

All prices are incl. 7% VAT

To pay the reduced fee, you should order the CAST service package now.

Information and Contact

If you have any questions please contact:

Moderators

Carsten Binnig, Kristian Kersting
TU Darmstadt
Email:

Werner Schindler
BSI
Email:

Administration

Claudia Prediger
CAST e.V.
Tel.: +49 6151 869-230
Email:

Please note that we only can accept registrations by this online form and not by our fax number.

Routing

Start


CAST e.V.
Rheinstraße 75
64295 Darmstadt

Wir machen mit beim #ECSM!

Upcoming CAST Events

hot topic: Künstliche Intelligenz und IT-Sicherheit 17.10.2019
Management der Informationssicherheit: Be prepared! Bausteine für ein wirksames Information Security Incident Management System 07.11.2019
hot topic: Blockchain 21.11.2019
CAST-Förderpreis IT-Sicherheit 28.11.2019
Forensik und Internetkriminalität 12.12.2019