24. Februar 2026 | 10-18 Uhr
Design Offices »Neuer Kanzlerplatz« in Bonn
Europa steht an einem entscheidenden Wendepunkt: Mit dem EU AI Act nimmt die Regulierung Künstlicher Intelligenz konkrete Gestalt an – und mit ihr die Verankerung von Prinzipien vertrauenswürdiger KI in der Regulatorik. Jetzt gilt es, die Brücke zwischen Regulierung und Praxis zu schlagen.
Während die Übergangsfristen des AI Acts näher rücken, wächst der Handlungsdruck: Unternehmen müssen jetzt verstehen, wie sich regulatorische Anforderungen in technische Prozesse, Governance-Strukturen und Nachweisverfahren übertragen lassen. Standards und Frameworks können bei der strukturierten Umsetzung der rechtlichen Vorgaben hilfreich sein.
Unsere Tagung »AI Act Now« bringt Expert:innen aus Recht, Wirtschaft, Technik, Standardisierung und Ethik zusammen, um Wege aufzuzeigen, wie Vertrauenswürdigkeit von KI-Systemen und die Konformität mit der KI-Verordnung systematisch sichergestellt werden kann – durch rechtliche Rahmenbedingungen, technische Standards und strukturierte Implementierung. Die Projektpartner Fraunhofer IAIS, RWTH Aachen (Wirtschaftswissenschaften), DIN Deutsches Institut für Normung, Universität Bonn (Philosophie/Ethik) und Universität zu Köln (Rechtswissenschaften) eröffnen dabei interdisziplinäre Perspektiven auf das Thema »Vertrauenswürdige KI« im Kontext der Umsetzung des AI Acts.
Wir laden herzlich dazu ein, gemeinsam weitere Schritte von der Regulierung hin zur Umsetzung der Verordnung zu erkunden und dabei neue, interdisziplinäre Perspektiven auf das Thema »Vertrauenswürdige KI« kennenzulernen.
Zielgruppe
Die Tagung »AI Act Now« richtete sich an Interessierte aus Wirtschaftsunternehmen und Organisationen, die sich zum Thema KI-Prüfungen und deren Umsetzung in der Praxis informieren sowie sich mit Expertinnen und Experten austauschen und vernetzen wollten – insbesondere im Hinblick auf die kommende KI-Regulatorik. Herzlich eingeladen waren darüber hinaus Vertreter*innen aus Forschung und Politik.
Themenblöcke der Agenda
Detaillierte Agenda folgt in Kürze
Ein Jahr AI Act – eine juristische Bestandsaufnahme
Teile des AI Acts der EU sind bereits in Kraft getreten, vollständig gelten soll er ab August 2027.
Bereits jetzt regen sich Widerstände und Bedenken hinsichtlich dieses Prestigeprojekts des europäischen Gesetzgebers. Neben wirtschaftspolitischen Erwägungen zum Standortnachteil und Bedenken hinsichtlich der operativen Umsetzbarkeit technischer Spezifikationen wird teilweise bezweifelt, ob der AI Act sein Regulierungsziel „Vertrauenswürdige KI” überhaupt erreichen kann. Aus diesem Grund soll in diesem Themenblock eine Bestandsaufnahme des AI Acts knapp ein Jahr nach seinem Geltungsbeginn erfolgen.
Operationalisierung der KI-Verordnung
Im Fokus stehen in diesem Themenblock praxisnahe Ansätze, Frameworks und Werkzeuge zur Umsetzung der KI-Verordnung. Beleuchtet wird, wie die Lücke zwischen vagen rechtlichen Anforderungen und der technischen bzw. organisatorischen Implementierung geschlossen werden kann. Entlang des Lebenszyklus von KI-Systemen können so an verschiedenen Stellen – von den Daten bis zur Ausgabe – strukturierte Maßnahmen ergriffen und Prozesse etabliert werden.
Unternehmensperspektive: Umsetzung der KI‑Verordnung in der Praxis
In diesem Themenblock berichten führende Unternehmen darüber, wie sie die Anforderungen der KI-Verordnung in der Praxis umsetzen. Die Teilnehmenden erhalten Einblicke in konkrete Herausforderungen und Lösungsansätze aus verschiedenen Branchen. Ziel ist es, Best Practices zu teilen und einen praxisnahen Überblick über die Umsetzung des AI Acts im Unternehmenskontext zu geben.
Marktüberwachung: Einblicke der Bundesnetzagentur
In diesem Themenblock wird die Rolle der Marktaufsicht im Kontext des AI Acts beleuchtet. Im Mittelpunkt steht die Frage, wie die Überwachung und Sicherstellung der gesetzlichen Vorgaben grundsätzlich gestaltet werden kann. Die Teilnehmenden erhalten erste Einblicke und entwickeln ein Verständnis für die Bedeutung der Marktüberwachung und ihren Einfluss auf die Umsetzung der KI-Verordnung.
Normung und Standardisierung
Der Themenblock beleuchtet die Rolle der Normung im Rahmen des AI Acts und untersucht, wie Standardisierungsprozesse die Entwicklung vertrauenswürdiger KI-Systeme unterstützen. Die Teilnehmenden erhalten Einblicke in aktuelle Herausforderungen und Chancen der Normung im KI-Kontext, sowie in deren Einfluss auf die praktische Umsetzung und Akzeptanz von KI-Lösungen. Insbesondere Anforderungen zum Qualitäts- und Risikomanagement von KI-Systemen sind hierbei auch in der Normung und Standardisierung wichtige Schwerpunkte, die für die Teilnehmenden aufgegriffen werden.
Philosophische Perspektive – Vertrauen in KI-Systemen
Im philosophischen Teil wird der Begriff „Vertrauenswürdigkeit” beleuchtet. Dieser wurde in der jüngeren Vergangenheit nahezu inflationär benutzt. Um zu verhindern, dass er zu einer leeren Phrase verkommt, wird untersucht, was genau Vertrauen in KI-Systeme bedeutet: Wer vertraut wem? Welche Akteure sind beteiligt? Des Weiteren wird erörtert, wie Vertrauen in der Praxis erreicht werden kann und inwiefern Normung zur Stärkung der Vertrauenswürdigkeit von KI-Systemen beiträgt. Und wie hängt die Vertrauenswürdigkeit mit anderen Aspekten der KI-Ethik zusammen, beispielsweise mit Fragen der Haftung und Verantwortung?
Organisiert von:





Location
Design Offices Bonn Neuer Kanzlerplatz
Bundeskanzlerplatz 2D
53113 Bonn
Get-together
L’Osteria
In der Sürst 3
53111 Bonn
Impressionen vom »FORUM ZERTIFIZIERTE KI« im Juni 2023
Anmeldung

Simon Boffen
acatech
Debuty Lead Mission KI
Der MISSION KI Qualitätsstandard für Low Risk AI: Vertrauen schaffen, effizient prüfen – anschlussfähig zum AI Act
Der MISSION KI Qualitätsstandard setzt dort an, wo der EU AI Act nur wenige Vorgaben macht, Qualität aber entscheidend für Vertrauen und Akzeptanz sein kann. Der Vortrag zeigt, wie der Standard als freiwilliger, praxistauglicher Rahmen Organisationen dabei unterstützt, die Qualität von Niedrigrisiko-KI-Systemen strukturiert und effizient zu bewerten und die Ergebnisse nachvollziehbar zu kommunizieren. Zudem wird das MISSION KI Prüfportal vorgestellt, das die Qualitätsprüfung digital als klaren Schritt-für-Schritt-Prozess unterstützt – von der Erfassung des KI Use Cases bis zum teilbaren Prüfbericht.
Simon Boffen ist Manager für strategische Projekte bei acatech, der deutschen Akademie der Technikwissenschaften und stellv. Leiter der Initiative MISSION KI – einem Hebelprojekt der Digitalstrategie der Bundesregierung zur Stärkung der deutschen Wettbewerbsfähigkeit im Bereich KI. Er verantwortet die strategische Ausrichtung wichtiger Projekte der Initiative, u. a. der Entwicklung eines freiwilligen Qualitätsstandards für Low-Risk-AI. Dabei agiert er an der Schnittstelle von Politik, Wirtschaft und Wissenschaft auf nationaler und EU-Ebene.
Zuvor leitete er Transformationsprogramme in der Industrie und im öffentlichen Sektor als Unternehmensberater.

Andreas Hauschke
Bundesnetzagentur
Technischer Referent im Bereich der Marktüberwachung

Dr.-Ing. Lukas Höhndorf
IABG mbH
Program Manager AI Conformity Assessment (Innovation Center / Methods & Technologies)
Uncertainty Quantification Standards for AI Safety: funktionale Sicherheit und KI (Arbeitstitel)
Der Vortrag verdeutlicht, wie funktionale Sicherheit und KI im Kontext des AI Acts zusammenwirken und welche Rolle Normung für vertrauenswürdige KI Systeme spielt. Er erläutert die Motivation der DIN SPEC 92005 Quantifizierung von Unsicherheiten im Maschinellen Lernen als Ergebnis von ZERTIFIZIERTE KI sowie ihren Übergang zur internationalen ISO/IEC TS 25223. Zudem ordnet er diese Entwicklungen in den aktuellen Stand der europäischen und internationalen KI Normung ein.
Lukas Höhndorf hat einen Hintergrund in Mathematik (Bachelor und Master) sowie in der Analyse von zivilen Luftfahrtdaten (Promotion). Seit 2019 ist er am Innovationszentrum des deutschen Technologieunternehmens IABG angestellt.
Durch seine Rolle in der KI-Standardisierung unterstützt er das Innovationszentrum der IABG das zukünftige Portfolio des Unternehmens mitzugestalten.

Florian Jovy-Klein
Telekom / T-Systems
TEXT FEHLT!

Dr. Till Klein
Applied AI
Head of AI regulation
TEXT FEHLT!

Fabian Malms
Fraunhofer IAIS
Leiter Projekt »Zertifizierte KI«
TEXT FEHLT!

Prof. Dr. Indra Spiecker gen. Döhmann, LL.M. (Georgetown Univ.)
Universität zu Köln
Inhaberin des Lehrstuhls und Direktorin des Instituts für Digitalisierung
Den Bock zum Gärtner machen: Risikomanagement in der KI-VO
Die KI-VO der EU setzt weltweit Maßstäbe für die Regulierung von Künstlicher Intelligenz. U.a. verlangt sie ein Qualitätsmanagement und Transparenz. Gleichwohl zeigt ein genauerer Blick auf die Regulierungsmechanismen, dass an der Effektivität dieser Vorgaben Zweifel bestehen können. Viele Vorschriften belassen Risikodefinition und Gegenmaßnahmen in denselben Händen.
Der Vortrag stellt diesen Konflikt vor und analysiert die Strukturen der KI-Verordnung und ihre Wirksamkeit.
Prof. Dr. Indra Spiecker genannt Döhmann, LL.M. (Georgetown Univ.) ist seit 2024 Inhaberin des Lehrstuhls für Öffentliches Recht, Informationsrecht und Rechtstheorie und geschäftsführende Direktorin des Instituts für Digitalisierung an der Universität zu Köln, nach vorherigen Professuren an der Univ. Frankfurt a.M. und Karlsruhe/Freiburg. Sie forscht und publiziert im gesamten Staats- und Verwaltungsrecht unter Einbeziehung interdisziplinärer Erkenntnisse aus Ökonomie, Verhaltens- und Technikwissenschaften.
Sie befasst sich mit allen Aspekten der rechtlichen Begleitung der Digitalisierung, wie z.B. Künstliche Intelligenz, Algorithmische Transparenz, Robotik, Cloudcomputing, Profiling, Online-Marketing, Governance, Akzeptanz, Nutzerorientierung, Datensouveränität und Vertrauen. Ihre Schwerpunkte liegen im Informations-, IT-Sicherheits- und Datenschutzrecht, aber auch im Technikregulierungs-, Risiko-, Umwelt-, und Gesundheitsrecht.
Sie berät vielfältig, seit 2016 ist sie die erste Juristin in der Nationalen Akademie der Technikwissenschaften und u.a. im wissenschaftlichen Arbeitskreis der Bundesnetzagentur.

Dr. Christian Temath
KI.NRW
Geschäftsführer
TEXT FEHLT!

Franziska Weindauer
TÜV AI.Lab
CEO
Franziska Weindauer ist Geschäftsführerin des TÜV AI.Lab, einem eigenständigen Joint Venture zentraler Akteure der globalen Prüfungs- und Zertifizierungswirtschaft. Das TÜV AI.Lab ebnet den Weg für vertrauenswürdige KI, indem es Konformitätskriterien und Prüfverfahren für KI-Systeme entwickelt.
Zuvor war Franziska Weindauer Senior Advisor für Digitalpolitik im Bundeskanzleramt, Leiterin des Politik-Teams beim Bitkom und Beraterin eines zentralen Europaabgeordneten im Europäischen Parlament. Sie hat European Studies an Universitäten in den Niederlanden, dem Vereinigten Königreich und der Türkei absolviert.