Europa steht an einem entscheidenden Wendepunkt: Mit dem EU AI Act nimmt die Regulierung Künstlicher Intelligenz konkrete Gestalt an – und mit ihr die Verankerung von Prinzipien vertrauenswürdiger KI in der Regulatorik. Jetzt gilt es, die Brücke zwischen Regulierung und Praxis zu schlagen.
Während die Übergangsfristen des AI Acts näher rücken, wächst der Handlungsdruck: Unternehmen müssen jetzt verstehen, wie sich regulatorische Anforderungen in technische Prozesse, Governance-Strukturen und Nachweisverfahren übertragen lassen. Standards und Frameworks können bei der strukturierten Umsetzung der rechtlichen Vorgaben hilfreich sein.
Unsere Tagung »AI Act Now« bringt Expert:innen aus Recht, Wirtschaft, Technik, Standardisierung und Ethik zusammen, um Wege aufzuzeigen, wie Vertrauenswürdigkeit von KI-Systemen und die Konformität mit der KI-Verordnung systematisch sichergestellt werden kann – durch rechtliche Rahmenbedingungen, technische Standards und strukturierte Implementierung. Die Projektpartner Fraunhofer IAIS, RWTH Aachen (Wirtschaftswissenschaften), DIN Deutsches Institut für Normung, Universität Bonn (Philosophie/Ethik) und Universität zu Köln (Rechtswissenschaften) eröffnen dabei interdisziplinäre Perspektiven auf das Thema »Vertrauenswürdige KI« im Kontext der Umsetzung des AI Acts.
Wir laden herzlich dazu ein, gemeinsam weitere Schritte von der Regulierung hin zur Umsetzung der Verordnung zu erkunden und dabei neue, interdisziplinäre Perspektiven auf das Thema »Vertrauenswürdige KI« kennenzulernen.
Zielgruppe
Die Tagung »AI Act Now« richtet sich an Interessierte aus Wirtschaftsunternehmen und Organisationen, die sich zum Thema KI-Prüfungen und deren Umsetzung in der Praxis informieren sowie sich mit Expertinnen und Experten austauschen und vernetzen wollen – insbesondere im Hinblick auf die kommende KI-Regulatorik. Darüber hinaus sind auch Vertreter*innen aus Forschung und Politik herzlich eingeladen.
Speaker

Simon Boffen
acatech
Debuty Lead Mission KI

Rebekka Görge
Fraunhofer IAIS
Senior Data Scientist

Andreas Hauschke
Bundesnetzagentur
Technischer Referent im Bereich der Marktüberwachung

Dr.-Ing. Lukas Höhndorf
IABG - Industrieanlagen- Betriebsgesellschaft mbH
Program Manager AI Conformity Assessment (Innovation Center / Methods & Technologies)

Florian Jovy-Klein
Deutsche Telekom Healthcare and Security Solutions / T-Systems
Projektleitung & Solution Design AI in Healthcare

Dr. Till Klein
appliedAI Institute for Europe gGmbH
Head of AI regulation

Fabian Malms
Fraunhofer IAIS
Projektleiter in der Abteilung AI Assurance & Assessments

Dr. Christoph Poetsch
TÜV AI.Lab
Head of AI Quality and Ethics

Dr. Maximilian Poretschkin
Fraunhofer IAIS
Abteilungsleiter AI Assurance & Assessments

Sigrun Schnurbusch-Grund
BITMARCK GmbH
Data & AI Governance Expertin | Center of Excellence (Daten)

Maike Scholz
Deutsche Telekom
Squad Lead Digitale Ethik, Group Compliance

Dr. Philipp Schott
Robert Bosch GmbH
AI Governance

Prof. Dr. Indra Spiecker gen. Döhmann, LL.M. (Georgetown Univ.)
Universität zu Köln
Inhaberin des Lehrstuhls und Direktorin des Instituts für Digitalisierung

Dr. Christian Temath
KI.NRW
Geschäftsführer

Tim Vallée
Beyond AI Collective e.V.
Board Member

Johannes Wellhöfer
DIN Deutsches Institut für Normung e. V.
IT-Themenentwickler in der Normung und Standardisierung
Moderation

Susanne von Hopffgarten
Moderatorin | Journalistin
Themenblöcke der Agenda
Ein Jahr AI Act – eine juristische Bestandsaufnahme
Teile des AI Acts der EU sind bereits in Kraft getreten, vollständig gelten soll er ab August 2027.
Bereits jetzt regen sich Widerstände und Bedenken hinsichtlich dieses Prestigeprojekts des europäischen Gesetzgebers. Neben wirtschaftspolitischen Erwägungen zum Standortnachteil und Bedenken hinsichtlich der operativen Umsetzbarkeit technischer Spezifikationen wird teilweise bezweifelt, ob der AI Act sein Regulierungsziel „Vertrauenswürdige KI” überhaupt erreichen kann. Aus diesem Grund soll in diesem Themenblock eine Bestandsaufnahme des AI Acts knapp ein Jahr nach seinem Geltungsbeginn erfolgen.
Operationalisierung der KI-Verordnung
Im Fokus stehen in diesem Themenblock praxisnahe Ansätze, Frameworks und Werkzeuge zur Umsetzung der KI-Verordnung. Beleuchtet wird, wie die Lücke zwischen vagen rechtlichen Anforderungen und der technischen bzw. organisatorischen Implementierung geschlossen werden kann. Entlang des Lebenszyklus von KI-Systemen können so an verschiedenen Stellen – von den Daten bis zur Ausgabe – strukturierte Maßnahmen ergriffen und Prozesse etabliert werden.
Unternehmensperspektive: Umsetzung der KI‑Verordnung in der Praxis
In diesem Themenblock berichten führende Unternehmen darüber, wie sie die Anforderungen der KI-Verordnung in der Praxis umsetzen. Die Teilnehmenden erhalten Einblicke in konkrete Herausforderungen und Lösungsansätze aus verschiedenen Branchen. Ziel ist es, Best Practices zu teilen und einen praxisnahen Überblick über die Umsetzung des AI Acts im Unternehmenskontext zu geben.
Marktüberwachung: Einblicke der Bundesnetzagentur
In diesem Themenblock wird die Rolle der Marktaufsicht im Kontext des AI Acts beleuchtet. Im Mittelpunkt steht die Frage, wie die Überwachung und Sicherstellung der gesetzlichen Vorgaben grundsätzlich gestaltet werden kann. Die Teilnehmenden erhalten erste Einblicke und entwickeln ein Verständnis für die Bedeutung der Marktüberwachung und ihren Einfluss auf die Umsetzung der KI-Verordnung.
Normung und Standardisierung
Der Themenblock beleuchtet die Rolle der Normung im Rahmen des AI Acts und untersucht, wie Standardisierungsprozesse die Entwicklung vertrauenswürdiger KI-Systeme unterstützen. Die Teilnehmenden erhalten Einblicke in aktuelle Herausforderungen und Chancen der Normung im KI-Kontext, sowie in deren Einfluss auf die praktische Umsetzung und Akzeptanz von KI-Lösungen. Insbesondere Anforderungen zum Qualitäts- und Risikomanagement von KI-Systemen sind hierbei auch in der Normung und Standardisierung wichtige Schwerpunkte, die für die Teilnehmenden aufgegriffen werden.
Philosophische Perspektive – Vertrauen in KI-Systemen
Im philosophischen Teil wird der Begriff „Vertrauenswürdigkeit” beleuchtet. Dieser wurde in der jüngeren Vergangenheit nahezu inflationär benutzt. Um zu verhindern, dass er zu einer leeren Phrase verkommt, wird untersucht, was genau Vertrauen in KI-Systeme bedeutet: Wer vertraut wem? Welche Akteure sind beteiligt? Des Weiteren wird erörtert, wie Vertrauen in der Praxis erreicht werden kann und inwiefern Normung zur Stärkung der Vertrauenswürdigkeit von KI-Systemen beiträgt. Und wie hängt die Vertrauenswürdigkeit mit anderen Aspekten der KI-Ethik zusammen, beispielsweise mit Fragen der Haftung und Verantwortung?
Organisiert von:
Programm
Das Programm wird fortlaufend aktualisiert. Stand: 12. Februar 2026
Location
Design Offices Bonn Neuer Kanzlerplatz
Bundeskanzlerplatz 2D, 53113 Bonn
Die Design Offices am Neuen Kanzlerplatz in Bonn bieten im Herzen der Stadt eine innovative Eventlandschaft im Zentrum der alten Bundesrepublik. Direkt gegenüber dem Kanzleramt gelegen, verbindet der Standort eindrucksvoll die Geschichte der Bonner Zeit mit dem kreativen Spirit der rheinischen Metropole. Neben einem geschlossenen Vortragsraum mit guter Akustik verfügt die Location über eine stylische Networking-Area mit Exhibition-Bereich.
Durch eine gute Anbindung an öffentliche Verkehrsmittel und die zentrale Lage sind die Design Offices einfach zu erreichen. Für alle, die mit dem PKW anreisen, gibt es zahlreiche Parkmöglichkeiten, die fußläufig in 9 bis 12 Minuten zu erreichen sind.
Informationen zu Parkmöglichkeiten und zur Anreise mit dem ÖPNV finden Sie hier:




Get-together
L’Osteria
In der Sürst 3
53111 Bonn
Im italienischen Restaurant „L’Osteria“ in der Bonner Fußgängerzone / Innenstadt sind für die angemeldeten Teilnehmenden der Tagung ab 18:30 Uhr Tische für ein gemütliches Get Together auf Selbstzahlerbasis reserviert.
Die „L’Osteria“ ist fußläufig zum Busbahnhof und Hauptbahnhof gelegen, im direkten Umfeld befinden sich zudem einige innenstädtische Tiefgaragen wie beispielsweise Münsterplatzgarage, Alte Bahnhofgarage oder Unigarage.
Anmeldung
Die Anmeldung für die Tagung ist beendet, die Veranstaltung ist ausgebucht.
Für eventuell verfügbare Restplätze lassen Sie uns gerne eine Nachricht an pr*****************@*************er.de zukommen.

Simon Boffen
acatech
Debuty Lead Mission KI
Der MISSION KI Qualitätsstandard für Low Risk AI: Vertrauen schaffen, effizient prüfen – anschlussfähig zum AI Act
Der MISSION KI Qualitätsstandard setzt dort an, wo der EU AI Act nur wenige Vorgaben macht, Qualität aber entscheidend für Vertrauen und Akzeptanz sein kann. Der Vortrag zeigt, wie der Standard als freiwilliger, praxistauglicher Rahmen Organisationen dabei unterstützt, die Qualität von Niedrigrisiko-KI-Systemen strukturiert und effizient zu bewerten und die Ergebnisse nachvollziehbar zu kommunizieren. Zudem wird das MISSION KI Prüfportal vorgestellt, das die Qualitätsprüfung digital als klaren Schritt-für-Schritt-Prozess unterstützt – von der Erfassung des KI Use Cases bis zum teilbaren Prüfbericht.
Simon Boffen ist Manager für strategische Projekte bei acatech, der deutschen Akademie der Technikwissenschaften und stellv. Leiter der Initiative MISSION KI – einem Hebelprojekt der Digitalstrategie der Bundesregierung zur Stärkung der deutschen Wettbewerbsfähigkeit im Bereich KI. Er verantwortet die strategische Ausrichtung wichtiger Projekte der Initiative, u. a. der Entwicklung eines freiwilligen Qualitätsstandards für Low-Risk-AI. Dabei agiert er an der Schnittstelle von Politik, Wirtschaft und Wissenschaft auf nationaler und EU-Ebene.
Zuvor leitete er Transformationsprogramme in der Industrie und im öffentlichen Sektor als Unternehmensberater.

Rebekka Görge
Fraunhofer IAIS
Senior Data Scientist
Rebekka Görge ist als Senior Data Scientist am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS in Sankt Augustin tätig. Ihre Forschungsschwerpunkte liegen im Bereich der vertrauenswürdigen KI, insbesondere bei der Erkennung und Minderung von Verzerrungen in großen Sprachmodellen unter Verwendung soziolinguistischer Grundlagen sowie bei der Entwicklung neuer Ansätze zur Bewertung und Prüfung von KI-Systemen.
Sie leitet für Fraunhofer IAIS Industrie- und Forschungsprojekte wie unter anderem das Projekt „MISSION KI“, eine groß angelegte Initiative für vertrauenswürdige KI in Deutschland. Darüber hinaus ist sie als Trainerin in der Fraunhofer Big Data Alliance für Datenwissenschaft und vertrauenswürdige KI tätig.

Andreas Hauschke
Bundesnetzagentur
Technischer Referent im Bereich der Marktüberwachung

Dr.-Ing. Lukas Höhndorf
IABG - Industrieanlagen- Betriebsgesellschaft mbH
Program Manager AI Conformity Assessment (Innovation Center / Methods & Technologies)
Uncertainty Quantification Standards for AI Safety: funktionale Sicherheit und KI
Der Vortrag verdeutlicht, wie funktionale Sicherheit und KI im Kontext des AI Acts zusammenwirken und welche Rolle Normung für vertrauenswürdige KI Systeme spielt. Er erläutert die Motivation der DIN SPEC 92005 Quantifizierung von Unsicherheiten im Maschinellen Lernen als Ergebnis von ZERTIFIZIERTE KI sowie ihren Übergang zur internationalen ISO/IEC TS 25223. Zudem ordnet er diese Entwicklungen in den aktuellen Stand der europäischen und internationalen KI Normung ein.
Lukas Höhndorf hat einen Hintergrund in Mathematik (Bachelor und Master) sowie in der Analyse von zivilen Luftfahrtdaten (Promotion). Seit 2019 ist er am Innovationszentrum des deutschen Technologieunternehmens IABG angestellt.
Durch seine Rolle in der KI-Standardisierung unterstützt er das Innovationszentrum der IABG das zukünftige Portfolio des Unternehmens mitzugestalten.

Florian Jovy-Klein
Deutsche Telekom Healthcare and Security Solutions / T-Systems
Projektleitung & Solution Design AI in Healthcare
Einsatz von Künstlicher Intelligenz in der Praxis – Wie gelingt das erfolgreiche Navigieren im Spannungsfeld zwischen Innovation, Vertrauenswürdigkeit und regulatorischer Compliance?
Der Vortrag gibt einen praxisorientierten Überblick über den aktuellen Stand des KI-Einsatzes in Organisationen ausgewählter Branchen – mit einem ehrlichen Blick auf Erfolge und bestehende Herausforderungen.
Anhand von Erkenntnissen aus dem Gesundheitssektor als Hochrisiko-Bereich wird aufgezeigt, wie das Spannungsfeld zwischen Innovation, Vertrauenswürdigkeit und regulatorischer Compliance erfolgreich navigiert werden kann.
Best-Practice-Beispiele aus dem T-Health Universum illustrieren konkrete Lösungsansätze und typische Hürden bei der Implementierung vertrauenswürdiger KI-Lösungen.
Florian Jovy ist Projektleiter und Solution Designer im Bereich AI Healthcare bei der Deutsche Telekom Healthcare and Security Solutions / T-Systems. Als Technologie- und Innovationsberater mit mehrjähriger Erfahrung in den Bereichen digitale Transformation und Künstliche Intelligenz begleitet er die Entwicklung von KI-Strategien und die Umsetzung praxisnaher Use Cases – von der Idee bis zum Rollout.
Im Gesundheitswesen bringt er besondere Expertise aus dem NRW-Leuchtturmprojekt SmartHospital.NRW mit. Über mehrere Jahre hinweg war er als Arbeitspaketleiter für die Wirkungsanalyse und Verstetigung verantwortlich, führte kontrollierte Wirkungsexperimente für KI-Prototypen in Realfeldumgebungen durch und entwickelte Messmodelle für kognitive Belastung und Nutzungsakzeptanz in klinischen Settings.
Florian hat einen Masterabschluss in Betriebswirtschaft und forscht berufsbegleitend im Bereich Technologie- und Innovationsmanagement mit Fokus auf KI im Gesundheitswesen an der RWTH Aachen University.

Dr. Till Klein
appliedAI Institute for Europe gGmbH
Head of AI regulation
Schneller zur Konformität: Ansätze und Erfahrungen aus Bayern
Dieser Vortrag beleuchtet die Frage, ob Konformität mit dem AI Act zum Wettbewerbsvorteil werden kann und welche Herausforderungen sich aufgrund der Komplexität und Dynamik des Regelwerks stellen. Vor diesem Hintergrund werden Ansätze und Erfahrungen des Bayerischen KI-Innovationsbeschleunigers geteilt – ein gefördertes Projekt des Bayerischen Staatsministeriums für Digitales, das KMU, Startups und den öffentlichen Sektor bei der Umsetzung des AI Act unterstützt.
Dr. Till Klein ist Head of AI Regulation bei appliedAI Institute for Europe gGmbH und Projektleiter des Bayerischen KI-Innovationsbeschleunigers.

Fabian Malms
Fraunhofer IAIS
Projektleiter in der Abteilung AI Assurance & Assessments
»AI Act« als Chance: Umsetzung der KI-Verordnung für Unternehmen – Risiken minimieren, Qualität sichern, Vertrauen fördern
Mit der Verabschiedung des EU AI Acts treten wichtige regulatorische Anforderungen für den Einsatz von KI in Kraft. Für Unternehmen ist es nun entscheidend, die Übergangsfrist zu nutzen, um diese effizient und möglichst pragmatisch umzusetzen. Der Vortrag zur Umsetzung des AI Acts gibt einen Überblick über die Kernelemente der KI-Verordnung und zeigt, wie sich diese operationalisieren lassen. Dabei werden Projektergebnisse aus dem KI.NRW-Flaggschiffprojekt „Zertifizierte KI” präsentiert.
Fabian Malms ist Projektleiter in der Abteilung AAA „AI Assurance and Assessments” und leitet unter anderem das Flaggschiff-Projekt „Zertifizierte KI”. Er hat zwei Master of Laws (LL.M.) in Europäischem Recht/Wirtschaftsrecht von der Universität Maastricht und verfügt somit über einen juristischen akademischen Hintergrund. Der Schwerpunkt seiner Arbeit liegt auf KI-Governance und der Frage, wie durch ein KI-Qualitäts- und Risikomanagement eine „AI Act Compliance by design” in Organisationen erreicht werden kann.
Zuvor war er zehn Jahre im Finanzsektor tätig, unter anderem in Compliance-Funktionen sowie in der Unternehmensentwicklung mit Fokus auf Digitalisierung, Produktentwicklung und Transformation. In dieser Zeit war er als Projektmanager unter anderem für den Aufbau eines „KI-Labs“ und die inhaltliche Entwicklung und Einführung verschiedener KI-Systeme in einer europäischen Großbank verantwortlich.

Dr. Christoph Poetsch
TÜV AI.Lab
Head of AI Quality and Ethics
Bridging the Gap – Ansätze und Werkzeuge zur Umsetzung der KI-Verordnung
Der Vortrag nimmt die Chancen und Herausforderungen bei der Umsetzung der KI-Verordnung in den Blick. Im Zentrum stehen dabei die systematische Überbrückung der Kluft zwischen regulatorischer und technischer Ebene sowie das AI Assessment Framework des TÜV AI.Lab. Darüber hinaus werden spezifische Ansätze und Werkzeuge vorgestellt, die das TÜV AI.Lab für die Operationalisierung der KI-Verordnung zur Verfügung stellt.
Dr. Christoph Poetsch ist Head of AI Quality and Ethics im TÜV AI.Lab, einem eigenständigen Joint Venture zentraler Akteure der globalen Prüfungs- und Zertifizierungswirtschaft. Das TÜV AI.Lab ebnet den Weg für vertrauenswürdige KI, indem es Konformitätskriterien und Prüfverfahren für KI-Systeme entwickelt. Dr. Christoph Poetschs Kernaufgaben im AI.Lab liegen im Bereich der KI-Qualität, der KI-Ethik sowie in der systematischen Grundlagenarbeit.
Er wurde an der Universität Heidelberg in Philosophie promoviert und absolvierte Forschungs- und Gastaufenthalte am Yale-NUS College Singapore, an der University of Notre Dame sowie der École Pratique des Hautes Études in Paris.

Dr. Maximilian Poretschkin
Fraunhofer IAIS
Abteilungsleiter AI Assurance & Assessments
Dr. Maximilian Poretschkin ist Abteilungsleiter der Abteilung AI Assurance & Assessments (AAA) am Fraunhofer IAIS. Seine Forschungsinteressen liegen im Bereich Prüfung und Absicherung von KI-Systemen hinsichtlich Vertrauenswürdigkeit, was insbesondere auch die Aspekte Zuverlässigkeit und Sicherheit umfasst.
Seine Erfahrungen hat er sowohl im Rahmen öffentlich geförderter Forschungsprojekte auf nationaler und europäischer Ebene als auch über Beteiligung an zahlreichen Industrie- und Wirtschaftsprojekten erworben, wo er als Forscher, Projekt- und Konsortialleiter tätig war.

Sigrun Schnurbusch-Grund
BITMARCK GmbH
Data & AI Governance Expertin | Center of Excellence (Daten)
TrustworthyAI Operations (TAIOps)« als Brücke zwischen AI Governance und Entwicklungspraxis
In dem Vortrag »TrustworthyAI Operations (TAIOps) als Brücke zwischen AI Governance und Entwicklungspraxis« zeigt die Referentin auf, wie BITMARCK eine belastbare Verbindung zwischen Compliance‑Anforderungen und der täglichen Entwicklungspraxis schafft. Am Beispiel von TAIOps als operativem Rahmenwerk demonstriert sie, wie regulatorische Vorgaben in umsetzbare Prozesse übersetzt werden können. Hierbei erläutert sie, wie TAIOps Teams befähigt werden, Risiken frühzeitig zu erkennen sowie mit Hilfe definierter Artefakte Transparenz, Nachvollziehbarkeit und damit auch Vertrauenswürdigkeit sicherzustellen.
Sigrun Schnurbusch‑Grund ist seit 2024 bei der BITMARCK GmbH tätig und baut dort unternehmensübergreifend Data und AI Governance auf. Sie verfügt über mehr als 25 Jahre Erfahrung im Datenmanagement und der Entwicklung von KI, unter anderem in der Telekommunikationsbranche, im Handel und im Gesundheitswesen. Ihr Schwerpunkt liegt auf der praktischen Umsetzung datengetriebener Strukturen und Prozesse über verschiedene Organisationen hinweg.

Maike Scholz
Deutsche Telekom
Squad Lead Digitale Ethik, Group Compliance
Maike Scholz ist Senior Compliance Expertin mit Fokus auf Compliance- und KI-Governance, digitale Ethik und Corporate Digital Responsibility. Als Squad Lead „Digital Ethics“ bei der Deutschen Telekom koordiniert sie die Implementierung der KI-Governance für den Konzern und ist aktiv in der deutschen Verbandsarbeit engagiert. Hier kann sie auf jahrzehntelange Erfahrung in den Bereichen Projekt-Management, Unternehmenssicherheit, Lage-, Notfall- und Krisenmanagement sowie Compliance, Integritäts- und Change-Management zurückblicken.

Dr. Philipp Schott
Robert Bosch GmbH
AI Governance
Umsetzung eines AI Governance Frameworks
Diese Session beleuchtet die Umsetzung der KI-Verordnung entlang des Lebenszyklus von KI-Systemen. Wir zeigen auf, wie die Brücke zwischen rechtlichen Vorgaben und konkreter technischer sowie organisatorischer Implementierung geschlagen werden kann. Erfahren Sie, wie ein globaler Konzern den AI Act mit verteilten Verantwortlichkeiten implementiert.

Prof. Dr. Indra Spiecker gen. Döhmann, LL.M. (Georgetown Univ.)
Universität zu Köln
Inhaberin des Lehrstuhls und Direktorin des Instituts für Digitalisierung
Den Bock zum Gärtner machen: Risikomanagement in der KI-VO
Die KI-VO der EU setzt weltweit Maßstäbe für die Regulierung von Künstlicher Intelligenz. U.a. verlangt sie ein Qualitätsmanagement und Transparenz. Gleichwohl zeigt ein genauerer Blick auf die Regulierungsmechanismen, dass an der Effektivität dieser Vorgaben Zweifel bestehen können. Viele Vorschriften belassen Risikodefinition und Gegenmaßnahmen in denselben Händen.
Der Vortrag stellt diesen Konflikt vor und analysiert die Strukturen der KI-Verordnung und ihre Wirksamkeit.
Prof. Dr. Indra Spiecker genannt Döhmann, LL.M. (Georgetown Univ.) ist seit 2024 Inhaberin des Lehrstuhls für Öffentliches Recht, Informationsrecht und Rechtstheorie und geschäftsführende Direktorin des Instituts für Digitalisierung an der Universität zu Köln, nach vorherigen Professuren an der Univ. Frankfurt a.M. und Karlsruhe/Freiburg. Sie forscht und publiziert im gesamten Staats- und Verwaltungsrecht unter Einbeziehung interdisziplinärer Erkenntnisse aus Ökonomie, Verhaltens- und Technikwissenschaften.
Sie befasst sich mit allen Aspekten der rechtlichen Begleitung der Digitalisierung, wie z.B. Künstliche Intelligenz, Algorithmische Transparenz, Robotik, Cloudcomputing, Profiling, Online-Marketing, Governance, Akzeptanz, Nutzerorientierung, Datensouveränität und Vertrauen. Ihre Schwerpunkte liegen im Informations-, IT-Sicherheits- und Datenschutzrecht, aber auch im Technikregulierungs-, Risiko-, Umwelt-, und Gesundheitsrecht.
Sie berät vielfältig, seit 2016 ist sie die erste Juristin in der Nationalen Akademie der Technikwissenschaften und u.a. im wissenschaftlichen Arbeitskreis der Bundesnetzagentur.

Dr. Christian Temath
KI.NRW
Geschäftsführer
KI.NRW Flagship »Zertifizierte KI« – Technische Antworten auf Regulierung
Künstliche Intelligenz entwickelt sich rasant – doch mit zunehmender Leistungsfähigkeit wächst auch die Verantwortung. In seinem Impuls zeigt Dr. Christian Temath (KI.NRW), warum vertrauenswürdige KI zum entscheidenden Erfolgsfaktor für Wirtschaft und Gesellschaft wird und wie Nordrhein-Westfalen mit dem Flagship-Projekt „Zertifizierte KI“ bereits seit Jahren an konkreten Lösungen arbeitet.
Freuen Sie sich auf Einblicke in aktuelle Entwicklungen, praktische Perspektiven zur Umsetzung der KI-Verordnung und einen Ausblick darauf, warum jetzt der richtige Zeitpunkt ist, aktiv zu werden.
Dr. Christian Temath ist seit September 2020 Geschäftsführer der Kompetenzplattform KI.NRW und arbeitet am Fraunhofer IAIS in Sankt Augustin mit seinem Team daran, die Marke »KI made in NRW« zu etablieren und die technologische Souveränität des Landes NRW zu stärken.
Als promovierter Wirtschaftsinformatiker verfügt er über langjährige Erfahrung in der Managementberatung im Bereich Technologie sowie in der praktischen Anwendung von KI-Technologien bei einem internationalen e-Commerce-Unternehmen. Sein Team aus KI-Manager*innen bündelt Wissen und Erfahrung aus den Bereichen Künstliche Intelligenz, Digitalisierung, Netzwerkarbeit und Beratung mit dem Ziel, Unternehmen, mittelständischen Firmen und Start-ups den Einstieg in die KI zu erleichtern.

Tim Vallée
Beyond AI Collective e.V.
Board Member
KI-Regulierung aus einer zivilgesellschaftlichen Perspektive: Vertrauen ist gut, Kontrolle ist besser?
Damit KI-Systeme vertrauenswürdig sein können, braucht es gerade im Hochrisikobereich umfassende Vorgaben – in sachlicher ebenso wie in prozeduraler Hinsicht. Die unternehmerische Praxis verlangt operationalisierbare Kriterien und Vorgaben, bestenfalls abhakbare Listen und effiziente Dokumentation. Ein ganzheitlicher, sozio-technischer Ansatz verlangt dagegen über den gesamten Lebenszyklus hinweg neben Transparenz und menschlicher Kontrolle immer wieder Stakeholder- und Betroffenenbeteiligung, Reflexion, Abwägung und Entscheidung. An vielen Stellen ein Zielkonflikt, doch kann dies für die Unternehmen auch erhebliche Chancen bieten für bessere KI-Systeme, für bessere Innovations- und Changeprozesse und mehr Vertrauen im Unternehmen wie außerhalb.
Tim Vallée ist Jurist und Politikwissenschaftler. Er ist Experte für die Regulierung der digitalen Welt und beschäftigt sich v.a. mit KI, Diskriminierungsrisiken und Plattformökonomie.
Der Beyond AI Collective e.V., dessen Mitgründer und Vorstandsmitglied Tim ist, verfolgt einen sozio-technischen Ansatz bei Analyse und Gestaltung von KI-Systemen, um gesellschaftliche Risiken identifizieren und bestmöglich mitigieren zu können.

Johannes Wellhöfer
DIN Deutsches Institut für Normung e. V.
IT-Themenentwickler in der Normung und Standardisierung
Johannes Wellhöfer ist IT-Themenentwickler und Projekt Manager im Bereich Normung und Standardisierung bei DIN, in der Abteilung Industrie und Informationstechnologie. Er unterstützt deutsche Stakeholder*innen dabei ihre technischen und strategischen Interessen effektiv in der Normung zu verfolgen. Sein Fokus liegt auf der Vernetzung der Normung nationalen interessierten Kreisen.
Die Normung ist das international etablierte System zur konsensorientierten Entwicklung technischer Regeln (Normen und Standards), an der deutsche Stakeholder über DIN konkret mitwirken.

Susanne von Hopffgarten
Moderatorin | Journalistin
Als erfahrene TV-Moderatorin steht Susanne von Hopffgarten seit über 15 Jahren auch als versierte Veranstaltungsmoderatorin für Zukunftsthemen rund um Künstliche Intelligenz und Digitalisierung auf der Bühne.
Mit fundiertem Hintergrundwissen und stilvoller Präsenz gestaltet sie den Dialog zu Regulierung, Innovation und vertrauenwürdiger KI. Ihr Studium in Moderationstechnik und Medienpräsentation sowie ihre langjährige Erfahrung als freie Redakteurin bei SAT.1 bilden das professionelle Fundament ihrer Arbeit.“
Franziska Weindauer ist Geschäftsführerin des TÜV AI.Lab, einem eigenständigen Joint Venture zentraler Akteure der globalen Prüfungs- und Zertifizierungswirtschaft. Das TÜV AI.Lab ebnet den Weg für vertrauenswürdige KI, indem es Konformitätskriterien und Prüfverfahren für KI-Systeme entwickelt.
Zuvor war Franziska Weindauer Senior Advisor für Digitalpolitik im Bundeskanzleramt, Leiterin des Politik-Teams beim Bitkom und Beraterin eines zentralen Europaabgeordneten im Europäischen Parlament. Sie hat European Studies an Universitäten in den Niederlanden, dem Vereinigten Königreich und der Türkei absolviert.
Anreise ÖPNV
Anreise zum Regionalbahnhof UN Campus mit den Bahnlinien RB26, RB30, RB48 und RE5 oder zur U-Bahnhaltestelle Heussallee/Museumsmeile mit den U-Bahnlinien 16, 63 und 66.
Vom Bahnhof erreichen Sie die Location in 11 Minuten Fußweg oder mit den Buslinien 610 und 611 bis Haltestelle Straßburger Weg. Von der U-Bahnhaltestelle sind es 8 Minuten zu Fuß. Alternativ fährt der Bus 634 bis zum Bundeskanzlerplatz.
Anreise PKW
Die nächstgelegenen öffentlichen Parkhäuser mit ausreichend Parkmöglichkeiten sind fußläufig mit 10 bis 13 Minuten Wegzeit zu erreichen, z. B. Parkhaus am World Conference Center in der Karl-Carstens-Straße 4 oder B+B Parkhaus in der Emil-Nolde-Straße 11.