KI und IT-Sicherheit

Date: 28.5.2026
Duration: 09:30-17:15
Location: Fraunhofer SIT
Rheinstraße 75
Darmstadt
Diese Veranstaltung wird als Weiterbildung im Sinne der T.I.S.P.-Rezertifizierung anerkannt

Program

09:30
Begrüßung und Moderation
Martin Steinebach
Abteilungsleiter Media Security & IT Forensics, Fraunhofer SIT | ATHENE
Martin Steinebach
09:40
Inna Vogel
Senior Consultant AI Innovation and Incubation, Cap Gemini
Inna Vogel
Governance von KI-Agenten gemäß EU AI Act

Die Notwendigkeit sicherer KI zeigt sich an über 1.000 KI‑bezogenen Regulierungen in mehr als 80 Ländern. Gleichzeitig kann Regulierung mit der dynamischen technologischen Entwicklung, insbesondere agentischer KI, nur schwer Schritt halten. Der Vortrag beleuchtet die Besonderheiten von KI‑Agenten und zeigt auf, welche Maßnahmen Organisationen bereits heute ergreifen können, um die Anforderungen des EU AI Act zu erfüllen und agentische Systeme sicher und regelkonform umzusetzen.

10:20
Magdalena Wache
Wissenschaftliche Mitarbeiterin, Fraunhofer SIT | ATHENE
KI sichtbar machen: die Kennzeichnungspflicht der EU KI-Verordnung

Mit fortschreitender Entwicklung generativer KI, wird es immer schwieriger, KI-generierte und echte Inhalte zu unterscheiden. Dies birgt erhebliche Risiken: Generative KI wird zunehmend für Manipulation, Betrug und Desinformation eingesetzt. Als Reaktion darauf hat die EU im Rahmen der EU KI-Verordnung eine Kennzeichnungspflicht für KI-generierte Inhalte eingeführt, die im August 2026 in Kraft tritt. Dieser Vortrag beleuchtet die Hintergründe und aktuellen Entwicklungen bei der Kennzeichnungspflicht, und erklärt Ansätze zur Markierung KI-generierter Inhalte.

11:00 Kaffeepause (20 Min)
11:20
Andreas Bachmann
Gründer und CEO, Adacor
Andreas Bachmann
Und was kommt nach dem KI-Piloten?
So nehmen Unternehmen KI-Lösungen dauerhaft sicher, zuverlässig und EU AI Act Konform in den Produktivbetrieb

Viele Unternehmen befinden sich gerade in der Pilotierung von KI-Anwendungen und sehen dort schnell die Mehrwerte, die realisiert werden können. Dabei ist der Pilot nur eine Momentaufnahme und für die dauerhafte Realisierung benötigt es Test-Frameworks, Modell-Lifecycle Management, Monitoring und Fehlermanagement. In meinem Vortrag zeige ich - ohne zu tief in Technik abzutauchen - worauf Unternehmen achten müssen und welche Maßnahmen notwendig sind.

12:00
Matthias Göhring
Vorstand usd HeroLab | Security Analysis & Pentests, USD AG
Matthias Göhring
Max Müller
Principal usd Security Consulting | AI Governance, USD AG
Max Müller
Ignore all previous instructions!
KI-Risiken erkennen und steuern

Im klassischen Risikomanagement werden IT-Systeme als klar abgrenzbare, kontrollierbare Assets betrachtet. KI-Systeme, insbesondere Large Language Models, zeichnen sich jedoch durch ein probabilistisches, kontextabhängiges und nicht vollständig vorhersehbares Verhalten aus. Risiken entstehen dabei nicht nur durch technische Schwachstellen, sondern vor allem im Zusammenspiel konkreter Anwendungsszenarien, angebundener Systeme und genutzter Daten. Daher ist eine statische Bewertung von KI-Risiken nicht zielführend, stattdessen sollte sie szenariobasiert erfolgen. In diesem Vortrag zeigen die Security-Experten der usd AG anhand praxisnaher Beispiele, wie Unternehmen KI-Risiken systematisch identifizieren, bewerten und wirkungsvoll in bestehende Governance- sowie ISMS-Strukturen integrieren können. So lassen sich KI‑Systeme sicher betreiben und regulatorische Anforderungen wie der EU AI Act erfüllen.

12:40 Mittagspause (50 Min)
13:30
Thomas Kamps
conweaver
Andreas Peter
Bosch
Knowledge Factory for Cybersecurity
14:10
Jochen Biewer
Geschäftsführer, Chevron Group
Single-Model-Abhängigkeit vs. Multi-Model-Strategie: Sicherheits- und Resilienzfragen beim Einsatz von Reasoning-Modellen

Der Vortrag untersucht die Risiken, die sich aus der Abhängigkeit von einem einzelnen KI- bzw. Reasoning-Modell ergeben – etwa im Hinblick auf Verfügbarkeit, Manipulationsanfälligkeit, systemische Fehler oder regulatorische Eingriffe. Demgegenüber werden Chancen und Sicherheitsgewinne eines kompetitiven bzw. diversifizierten Multi-Model-Ansatzes dargestellt. Neben technischen und strategischen Aspekten werden auch Governance- und Compliancefragen beleuchtet. Ziel ist eine praxisnahe Bewertung, wie Unternehmen ihre KI-Architektur zukunfts- und sicherheitsorientiert gestalten können.

14:50 Kaffeepause (20 Min)
15:10
Stefan Taing
Co-Founder & CEO von Munich Innovation Labs
Von Pixeln zu Lagebildern: KI-Analyse offener Quellen für die innere und äußere Sicherheit

Sicherheitsbehörden stehen vor der Herausforderung, aus der Flut frei verfügbarer Bild- und Textdaten schnell relevante Informationen zu gewinnen. Der Vortrag zeigt anhand konkreter Einsatzszenarien aus der inneren- und äußeren Sicherheit, wie KI-gestützte Klassifizierung, Geolokalisierung und Objekterkennung offene Quellen in strukturierte Lagebilder überführen – und welche technischen, rechtlichen und operativen Leitplanken dabei gelten.

15:50
Alexei Balaganski
KuppingerCole Analysts
Alexei Balaganski
You Cannot Secure AI Without Securing APIs

Every large language model integration, agentic AI workflow, and autonomous decision system depends on API calls. APIs are therefore not just a supporting layer for AI, they are its nervous system. Yet most organizations rushing to deploy AI have not extended their API security posture to cover AI-specific attack surfaces: prompt injection through API payloads, shadow AI interfaces, excessive data exposure via LLM-connected APIs, and the growing ecosystem of MCP servers with no authentication enabled by default. This talk, based on KuppingerCole Analysts' Leadership Compass on API Security and Management, maps the AI-specific risks in the API layer, explains why existing API gateways are not sufficient, and outlines what a modern AI-ready API security architecture needs to look like, with concrete examples and practical recommendations for security teams.

16:30
Kristina Bausen
Data & AI Governance Expert, Merck
Kristina Bausen
AI Governance in der Praxis: Transparente Nutzung und klare Risikobewertungen

Der Vortrag zeigt anhand eines Praxisbeispiels aus der Merck KGaA wie AI Governance im Unternehmen konkret umgesetzt werden kann. Im Fokus stehen Transparenz und Risikomanagement: Eine zentrale Übersicht über die eingesetzten KI-Anwendungen schafft Klarheit über die Nutzung im Unternehmen. Darauf aufbauend ermöglicht ein risikobasierter Ansatz, Governance-Maßnahmen gezielt auf kritische Anwendungsfälle zu konzentrieren. So werden Ressourcen effizient eingesetzt, regulatorische Anforderungen erfüllt, ohne unnötige Komplexität zu erzeugen.

17:10 Ausblick und Verabschiedung

Registration and Pricing

Deadline for a registration is 18.05.2026. By registering before deadline we charge a reduced fee. We ask you to take this offer to allow best preparation of the seminar. Special conditions may be granted for students and trainees.

On registration ... before deadline after deadline
registration fee for the workshop 350,00 € 400,00 €
for owners of a CAST service package 175,00 € 200,00 €

All prices are incl. 7% VAT

To pay the reduced fee, you should order the CAST service package now.

Information and Contact

If you have any questions please contact:

Moderator

Prof. Dr. Martin Steinebach
Fraunhofer SIT | ATHENE Head of Media Security and IT Forensics
Email:

Administration

Simone Zimmermann
CAST e.V.
Tel.: +49 6151 869-230
Email:

Please note that we only can accept registrations by this online form and not by our fax number.

Routing

Start


CAST e.V.
Rheinstraße 75
64295 Darmstadt

Upcoming CAST Events

KI und IT-Sicherheit 28.05.2026
Post-Quantum Cryptography (PQC) 27.08.2026
25th International Conference of the Biometrics Special Interest Group (BIOSIG 2026) 25.-26.11.2026