| Date: | 28.5.2026 |
| Duration: | 09:30-17:15 |
| Location: |
Fraunhofer SIT
Rheinstraße 75 Darmstadt |
| 09:30 | |
|
Begrüßung und Moderation
|
|
|
Martin Steinebach
Abteilungsleiter Media Security & IT Forensics, Fraunhofer SIT | ATHENE
|
|
| 09:40 | |
|
Inna Vogel
Senior Consultant AI Innovation and Incubation, Cap Gemini
|
Governance von KI-Agenten gemäß EU AI Act
Die Notwendigkeit sicherer KI zeigt sich an über 1.000 KI‑bezogenen Regulierungen in mehr als 80 Ländern. Gleichzeitig kann Regulierung mit der dynamischen technologischen Entwicklung, insbesondere agentischer KI, nur schwer Schritt halten. Der Vortrag beleuchtet die Besonderheiten von KI‑Agenten und zeigt auf, welche Maßnahmen Organisationen bereits heute ergreifen können, um die Anforderungen des EU AI Act zu erfüllen und agentische Systeme sicher und regelkonform umzusetzen. |
| 10:20 | |
|
Magdalena Wache
Wissenschaftliche Mitarbeiterin, Fraunhofer SIT | ATHENE
|
KI sichtbar machen: die Kennzeichnungspflicht der EU KI-Verordnung
Mit fortschreitender Entwicklung generativer KI, wird es immer schwieriger, KI-generierte und echte Inhalte zu unterscheiden. Dies birgt erhebliche Risiken: Generative KI wird zunehmend für Manipulation, Betrug und Desinformation eingesetzt. Als Reaktion darauf hat die EU im Rahmen der EU KI-Verordnung eine Kennzeichnungspflicht für KI-generierte Inhalte eingeführt, die im August 2026 in Kraft tritt. Dieser Vortrag beleuchtet die Hintergründe und aktuellen Entwicklungen bei der Kennzeichnungspflicht, und erklärt Ansätze zur Markierung KI-generierter Inhalte. |
| 11:00 | Kaffeepause (20 Min) |
| 11:20 | |
|
Andreas Bachmann
Gründer und CEO, Adacor
|
Und was kommt nach dem KI-Piloten?
So nehmen Unternehmen KI-Lösungen dauerhaft sicher, zuverlässig und EU AI Act Konform in den Produktivbetrieb
Viele Unternehmen befinden sich gerade in der Pilotierung von KI-Anwendungen und sehen dort schnell die Mehrwerte, die realisiert werden können. Dabei ist der Pilot nur eine Momentaufnahme und für die dauerhafte Realisierung benötigt es Test-Frameworks, Modell-Lifecycle Management, Monitoring und Fehlermanagement. In meinem Vortrag zeige ich - ohne zu tief in Technik abzutauchen - worauf Unternehmen achten müssen und welche Maßnahmen notwendig sind. |
| 12:00 | |
|
Matthias Göhring
Vorstand usd HeroLab | Security Analysis & Pentests, USD AG
Max Müller
Principal usd Security Consulting | AI Governance, USD AG
|
Ignore all previous instructions!
KI-Risiken erkennen und steuern
Im klassischen Risikomanagement werden IT-Systeme als klar abgrenzbare, kontrollierbare Assets betrachtet. KI-Systeme, insbesondere Large Language Models, zeichnen sich jedoch durch ein probabilistisches, kontextabhängiges und nicht vollständig vorhersehbares Verhalten aus. Risiken entstehen dabei nicht nur durch technische Schwachstellen, sondern vor allem im Zusammenspiel konkreter Anwendungsszenarien, angebundener Systeme und genutzter Daten. Daher ist eine statische Bewertung von KI-Risiken nicht zielführend, stattdessen sollte sie szenariobasiert erfolgen. In diesem Vortrag zeigen die Security-Experten der usd AG anhand praxisnaher Beispiele, wie Unternehmen KI-Risiken systematisch identifizieren, bewerten und wirkungsvoll in bestehende Governance- sowie ISMS-Strukturen integrieren können. So lassen sich KI‑Systeme sicher betreiben und regulatorische Anforderungen wie der EU AI Act erfüllen. |
| 12:40 | Mittagspause (50 Min) |
| 13:30 | |
|
Thomas Kamps
conweaver
Andreas Peter
Bosch
|
Knowledge Factory for Cybersecurity
|
| 14:10 | |
|
Jochen Biewer
Geschäftsführer, Chevron Group
|
Single-Model-Abhängigkeit vs. Multi-Model-Strategie: Sicherheits- und Resilienzfragen beim Einsatz von Reasoning-Modellen
Der Vortrag untersucht die Risiken, die sich aus der Abhängigkeit von einem einzelnen KI- bzw. Reasoning-Modell ergeben – etwa im Hinblick auf Verfügbarkeit, Manipulationsanfälligkeit, systemische Fehler oder regulatorische Eingriffe. Demgegenüber werden Chancen und Sicherheitsgewinne eines kompetitiven bzw. diversifizierten Multi-Model-Ansatzes dargestellt. Neben technischen und strategischen Aspekten werden auch Governance- und Compliancefragen beleuchtet. Ziel ist eine praxisnahe Bewertung, wie Unternehmen ihre KI-Architektur zukunfts- und sicherheitsorientiert gestalten können. |
| 14:50 | Kaffeepause (20 Min) |
| 15:10 | |
|
Stefan Taing
Co-Founder & CEO von Munich Innovation Labs
|
Von Pixeln zu Lagebildern: KI-Analyse offener Quellen für die innere und äußere Sicherheit
Sicherheitsbehörden stehen vor der Herausforderung, aus der Flut frei verfügbarer Bild- und Textdaten schnell relevante Informationen zu gewinnen. Der Vortrag zeigt anhand konkreter Einsatzszenarien aus der inneren- und äußeren Sicherheit, wie KI-gestützte Klassifizierung, Geolokalisierung und Objekterkennung offene Quellen in strukturierte Lagebilder überführen – und welche technischen, rechtlichen und operativen Leitplanken dabei gelten. |
| 15:50 | |
|
Alexei Balaganski
KuppingerCole Analysts
|
You Cannot Secure AI Without Securing APIs
Every large language model integration, agentic AI workflow, and autonomous decision system depends on API calls. APIs are therefore not just a supporting layer for AI, they are its nervous system. Yet most organizations rushing to deploy AI have not extended their API security posture to cover AI-specific attack surfaces: prompt injection through API payloads, shadow AI interfaces, excessive data exposure via LLM-connected APIs, and the growing ecosystem of MCP servers with no authentication enabled by default. This talk, based on KuppingerCole Analysts' Leadership Compass on API Security and Management, maps the AI-specific risks in the API layer, explains why existing API gateways are not sufficient, and outlines what a modern AI-ready API security architecture needs to look like, with concrete examples and practical recommendations for security teams. |
| 16:30 | |
|
Kristina Bausen
Data & AI Governance Expert, Merck
|
AI Governance in der Praxis: Transparente Nutzung und klare Risikobewertungen
Der Vortrag zeigt anhand eines Praxisbeispiels aus der Merck KGaA wie AI Governance im Unternehmen konkret umgesetzt werden kann. Im Fokus stehen Transparenz und Risikomanagement: Eine zentrale Übersicht über die eingesetzten KI-Anwendungen schafft Klarheit über die Nutzung im Unternehmen. Darauf aufbauend ermöglicht ein risikobasierter Ansatz, Governance-Maßnahmen gezielt auf kritische Anwendungsfälle zu konzentrieren. So werden Ressourcen effizient eingesetzt, regulatorische Anforderungen erfüllt, ohne unnötige Komplexität zu erzeugen. |
| 17:10 | Ausblick und Verabschiedung |
Deadline for a registration is 18.05.2026. By registering before deadline we charge a reduced fee. We ask you to take this offer to allow best preparation of the seminar. Special conditions may be granted for students and trainees.
| On registration ... | before deadline | after deadline |
|---|---|---|
| registration fee for the workshop | 350,00 € | 400,00 € |
| for owners of a CAST service package | 175,00 € | 200,00 € |
All prices are incl. 7% VAT
To pay the reduced fee, you should order the CAST service package now.
If you have any questions please contact:
Prof. Dr. Martin Steinebach
Fraunhofer SIT | ATHENE Head of Media Security and IT Forensics
Email: martin.steinebach@sit.fraunhofer.de
Simone Zimmermann
CAST e.V.
Tel.: +49 6151 869-230
Email: simone.zimmermann
cast-forum.de
Please note that we only can accept registrations by this online form and not by our fax number.
| KI und IT-Sicherheit | 28.05.2026 |
| Post-Quantum Cryptography (PQC) | 27.08.2026 |
| 25th International Conference of the Biometrics Special Interest Group (BIOSIG 2026) | 25.-26.11.2026 |