Symposium zu

Scaling AI Assessments

Tools, Ecosystems and Business Models

30. September und 1. Oktober 2024 | Design Offices Dominium, Köln

Motivation

Vertrauenswürdige KI wird als eine zentrale Voraussetzung für Anwendungen der Künstlichen Intelligenz (KI) angesehen. Insbesondere vor dem Hintergrund der europäischen KI-Regulierung sind KI-Konformitätsbewertungsverfahren von besonderer Bedeutung, sowohl für spezifische Anwendungsfälle als auch für allgemeine Modelle. Aber auch in nicht-regulierten Bereichen ist die Qualität von KI-Systemen ein entscheidender Faktor, da unbeabsichtigtes Verhalten zu schwerwiegenden finanziellen und Reputationsschäden führen kann. Folglich besteht ein großer Bedarf an KI-Prüfungen und die Bildung eines entsprechenden Marktes ist zu beobachten. Gleichzeitig gibt es weiterhin (technische und rechtliche) Herausforderungen bei der Durchführung von KI-Prüfungen und einen Mangel an umfassender praktischer Erfahrung bei der Evaluation verschiedener KI-Systeme. Insgesamt ist die Entstehung erster marktfähiger/kommerzieller KI-Bewertungsangebote gerade erst im Gange und ein endgültiges, eindeutiges Verfahren zur KI-Qualitätssicherung hat sich noch nicht etabliert.

 

KI-Prüfungen erfordern eine weitere Operationalisierung sowohl auf der Ebene der Governance und der damit verbundenen Prozesse als auch auf der System-/Produktebene. Empirische Forschung, die Governance-Frameworks, Bewertungskriterien, KI-Qualitäts-KPIs und Methoden in der Praxis für verschiedene KI-Anwendungsfälle testet und bewertet, steht noch aus.

Die Durchführung von KI-Prüfungen in der Praxis erfordert ein Test-Ökosystem und Tool-Unterstützung, da viele Qualitäts-KPIs ohne Tool-Unterstützung nicht berechnet werden können. Gleichzeitig ist die Automatisierung solcher Bewertungen eine Voraussetzung dafür, dass das entsprechende Geschäftsmodell skalieren kann.

Impressionen

Zielgruppe

Dieses Symposium richtet sich insbesondere, aber nicht ausschließlich, an Fachleute aus dem TIC-Sektor, an Tech-Start-ups, die Lösungen für die oben genannten Herausforderungen anbieten, und an Forscher*innen aus dem Bereich der vertrauenswürdigen KI. Ein weiteres Ziel des Symposiums ist die Klärung des rechtlichen Rahmens von KI, insbesondere im Hinblick auf den kürzlich verabschiedeten AI Act der Europäischen Union und dessen Operationalisierung, weshalb es sich auch an Rechtsexperten auf dem Gebiet der KI wendet. Die Konferenz legt besonderen Wert darauf, dass neben erfahrenen Teilnehmer*innen auch junge Wissenschaftler*innen an der Konferenz teilnehmen.

Program

preliminary (last update 9/26/24)

Day 1

Monday, September 30th

Welcome (9:45)

Day 1 Session 1
Safeguarding and assessment methods

Coffee Break

Keynote
An overview of the results of Confiance.ai towards trustworthy AI systems for critical applications
Betrand Braunschweig

Day 1 Session 2
Risk Assessment & Evaluations

Lunch Break

Day 1 Session 3
Ethics

Day 1 Session 4
Standards

Coffee Break

Panel Discussion with
Legal Experts

Closing (17:45)

Get-Together Dinner
at local brewery restaurant “Brauhaus Früh am Dom"
(self-paid, optional)

Day 2

Tuesday, October 1st

Welcome (9:00)

Day 2 Session 1
Governance and regulations

Coffee Break

Day 2 Session 2
Transparency + XAI

Lunch Break

Keynote
Lessons Learned from Assessing Trustworthy AI in Practice
Roberto Zicari

Invited Talk
MISSION KI - Development of a voluntary AI Quality and testing standard
Carolin Anderson

Coffee Break

Day 2 Session 3
Certification

Closing (16:00)

Accepted Papers

  • Sergio Genovesi. Introducing an AI Governance Framework in Financial Organizations. Best Practices in Implementing the EU AI Act.
  • Benjamin Fresz, Danilo Brajovic and Marco Huber. AI Certification: Empirical Investigations into Possible Cul-de-sacs and Ways Forward.
  • Nicholas Kluge Corrêa, James William Santos, Éderson de Almeida, Marcelo Pasetti, Dieine Schiavon, Mateus Panizzon and Nythamar De Oliveira. Codes of Ethics in IT: do they matter?
  • Fabian Langer, Elisabeth Pachl, Thora Markert and Jeanette Lorenz. A View on Vulnerabilites: The Security Challenges of XAI.
  • Oliver Müller, Veronika Lazar and Matthias Heck. Transparency of AI systems.
  • Susanne Kuch and Raoul Kirmes. AI certification: an accreditation perspective.
  • Marc-Andre Zöller, Anastasiia Iurshina and Ines Röder. Trustworthy Generative AI for Financial Services.
  • Sergio Genovesi, Martin Haimerl, Iris Merget, Samantha Morgaine Prange, Otto Obert, Susanna Wolf and Jens Ziehn. Evaluating Dimensions of AI Transparency: A Comparative Study of Standards, Guidelines, and the EU AI Act.
  • Ronald Schnitzer, Andreas Hapfelmeier and Sonja Zillner. EAM Diagrams – A framework to systematically describe AI systems for effective AI risk assessment.
  • Afef Awadid and Boris Robert. On assessing Ml model robustness: A methodological framework.
  • Bastian Bernhardt, Dominik Eisl and Höhndorf Lukas. safeAI-kit: A Software Toolbox to Evaluate AI Systems with a Focus on Uncertainty Quantification.
  • Christoph Tobias Wirth, Mihai Maftei, Rosa Esther Martín-Peña and Iris Merget. Towards Trusted AI: A Blueprint for Ethics Assessment in Practice.
  • Daniel Weimer, Andreas Gensch and Kilian Koller. Scaling of End-to-End Governance Risk Assessments for  AI Systems.
  • Adrian Seeliger. AI Readiness of Standards: Bridging Traditional Norms with Modern Technologies.
  • Joachim Iden and Felix Zwarg. Risk Analysis Technique for the evaluation of AI technologies and their possible impacts on distinct entities throughout the AI deployment lifecycle.
  • Carmen Mei-Ling Frischknecht-Gruber, Philipp Denzel, Monika Reif, Yann Billeter, Stefan Brunner, Oliver Forster, Frank-Peter Schilling, Joanna Weng and Ricardo Chavarriaga. AI Assessment in Practice: Implementing a Certification Scheme for AI Trustworthiness.
  • Padmanaban Dheenadhayalan and Eduard Dojan. Leveraging AI Standards for Analyzing AI Components in Advanced Driver Assistance Systems (ADAS).
  • Nikolaus Pinger. Efficient Implementation of an AI Management System Based on ISO 42001.

Teilnahme & Registrierung

Die Konferenzteilnahme ist auf drei verschiedene Arten möglich. Erstens bieten wir einen konventionellen wissenschaftlichen Track an, der Vollbeiträge („full papers“) akzeptiert. Zweitens bieten wir einen anwendungsbezogenen Track an, der sich besonders für Vertreter*innen der Industrie oder von Start-ups eignet. Drittens ist es auch möglich, an der Konferenz teilzunehmen, ohne einen Beitrag einzureichen. Dies bietet die Möglichkeit, sich über den neuesten Stand der Forschung zu informieren, praktische Herausforderungen zu diskutieren sowie Möglichkeiten zu finden, vielversprechende und neueste Ansätze auf die Praxis zu übertragen.

 

  • Wissenschaftlicher Track: Dieser Track ist für wissenschaftliche Beiträge geeignet, die neue Ideen zu Konzepten, Technologien oder Methoden im Zusammenhang mit den oben genannten Themen vorstellen oder diskutieren. Die Einreichungen sollten eine klare Beschreibung der angesprochenen Problemstellung/Forschungslücke und des Beitrags der vorgestellten Forschung enthalten.
  • Anwendungsbezogener Track: Dieser Track bietet die Möglichkeit, sich für einen Vortragsplatz während der Konferenz zu bewerben. Als Bewerbung für einen Vortragsslot muss eine kurze Zusammenfassung des vorzustellenden Themas eingereicht werden, damit sichergestellt werden kann, dass der Vortrag zum Thema der Konferenz passt. Es ist möglich, Auszüge aus bereits veröffentlichten Whitepapers oder Positionspapieren einzureichen.
  • Konferenzteilnahme: Neben einem der oben genannten Tracks ist es auch möglich, sich für die reine Teilnahme an der Konferenz zu registrieren. Dies beinhaltet die aktive Teilnahme an den Austauschformaten. Dazu sollten die Teilnehmenden ein passendes Interessengebiet auswählen (entweder “Operationalisierung von marktfähigen KI-Prüfungen” oder “Testwerkzeuge und Implementierungsmethoden für vertrauenswürdige KI-Produkte”).

Keynotes & Panel

Hauptreferenten

    An overview of the results of Confiance.ai towards trustworthy AI systems for critical applications

    Bertrand Braunschweig
    Scientific Coordinator of the Confiance.ai Programme

    Abstract
    Ich werde die Ergebnisse vorstellen, die im Rahmen des Programms nach vier Jahren gemeinsamer Arbeit unserer Gruppe aus großen Industrieunternehmen, Akademikern und Forschungseinrichtungen erzielt wurden. Ich werde einige praktische Ergebnisse (Software-Tools, Umgebungen), unsere wichtigsten wissenschaftlichen Ergebnisse zu verschiedenen Faktoren vertrauenswürdiger KI und unsere Vision für die Zukunft einschließlich der anstehenden Herausforderungen vorstellen. Unsere Ergebnisse können und werden dazu beitragen, die Vertrauenswürdigkeit von KI zu verbessern und zu bewerten, um einige zentrale Anforderungen des KI-Gesetzes zu erfüllen.

    Bio
    Bertrand Braunschweig begann seine Karriere in der Ölindustrie als Forscher im Bereich Systemdynamik und künstliche Intelligenz. Danach wechselte er zum IFP Énergies Nouvelles, wo er die KI-Forschung leitete und internationale Projekte für Interoperabilitätsstandards koordinierte. Fünf Jahre lang war er bei der ANR als Leiter der Abteilung ICST tätig, bevor er 2011 zu Inria kam, zunächst als Direktor des Forschungszentrums in Rennes, später in Saclay, und schließlich die Forschungskomponente der nationalen KI-Strategie steuerte. Heute ist er als unabhängiger Berater tätig und unterstützt verschiedene Organisationen, insbesondere als wissenschaftlicher Koordinator des vom IRT SystemX durchgeführten Programms Confiance.ai.

    Bertrand Braunschweig ist ENSIIE-Ingenieur, promovierte an der Universität Paris Dauphine und habilitierte sich an der Universität Pierre und Marie Curie.

    Lessons Learned from Assessing Trustworthy AI in Practice

    Roberto V. Zicari
    Z-Inspection® Initiative Lead.

    Abstract
    Die Entwicklung von Systemen der künstlichen Intelligenz (KI), die ethischen Standards genügen, ist ein komplexes Problem. Zwar gibt es eine Vielzahl von Richtlinien für das Design und die Entwicklung solcher vertrauenswürdiger KI-Systeme, doch konzentrieren sich diese Richtlinien auf hochrangige und abstrakte Anforderungen an KI-Systeme, und es ist oft sehr schwierig zu beurteilen, ob ein bestimmtes System diese Anforderungen erfüllt.

    Der Z-Inspection®-Prozess bietet einen ganzheitlichen und dynamischen Rahmen, um die Vertrauenswürdigkeit spezifischer KI-Systeme in verschiedenen Phasen des KI-Lebenszyklus zu bewerten, einschließlich der beabsichtigten Nutzung, des Designs und der Entwicklung. Er konzentriert sich insbesondere auf die Diskussion und Identifizierung ethischer Fragen und Spannungen durch die Analyse sozio-technischer Szenarien und einen anforderungsbasierten Rahmen für ethische und vertrauenswürdige KI.

    Dieser Vortrag ist eine methodologische Reflexion über den Z-Inspection®-Prozess. Ich werde veranschaulichen, wie hochrangige Richtlinien für ethische und vertrauenswürdige KI in der Praxis angewendet werden können und Einblicke sowohl für KI-Forscher als auch für KI-Praktiker bieten. Ich werde die Erfahrungen teilen, die ich bei der Durchführung einer Reihe unabhängiger Bewertungen zur Beurteilung der Vertrauenswürdigkeit von KI-Systemen in der realen Welt gemacht habe, sowie wichtige Empfehlungen und praktische Vorschläge dazu geben, wie eine strenge Bewertung der Vertrauenswürdigkeit während des gesamten Lebenszyklus eines KI-Systems gewährleistet werden kann.

    Bio
    Roberto V. Zicari ist Professor an der Yrkeshögskolan Arcada, Helsinki, Finnland, und Lehrbeauftragter an der Seoul National University, Südkorea.

    Roberto V. Zicari leitet ein Team internationaler Experten, die einen Bewertungsprozess für vertrauenswürdige KI, genannt Z-Inspection®, entwickelt haben.

    Zuvor war er Professor für Datenbank- und Informationssysteme (DBIS) an der Goethe-Universität Frankfurt, Deutschland, wo er das Frankfurt Big Data Lab gründete.

    Er ist ein international anerkannter Experte auf dem Gebiet der Datenbanken und Big Data. Seine Interessen erstrecken sich auch auf Ethik und KI, Innovation und Unternehmertum. Er ist der Herausgeber des Webportals ODBMS.org und des ODBMS Industry Watch Blog. Er war mehrere Jahre lang Gastprofessor am Center for Entrepreneurship and Technology im Fachbereich Industrial Engineering and Operations Research der UC Berkeley (USA).

      Panel mit Rechtsexperten

      • Welche Anforderungen stellt der AI Act an generative KI und wie kann die Einhaltung sichergestellt werden? Anhand eines konkreten Fallbeispiels: Welche besonderen Herausforderungen stellen risikoreiche KI-Systeme dar und wie geht der AI Act mit ihnen um? Wie interagiert der AI Act mit anderen ergänzenden Rechtsrahmen wie der Datenschutz-Grundverordnung
      • Diese Fragen werden Gegenstand einer Reihe von Präsentationen ausgewählter Rechtsexperten sein, gefolgt von einer Diskussion.
      Andreas Engel

      Andreas Engel

      Abstract
      Regulierung der generativen KI durch den  AI Act: Der AI Act enthält neben dem allgemeinen risikobasierten Ansatz spezifische Regelungen für generative KI und Foundation Modelle: Dokumentations- und Informationspflichten für Anbieter von generativen KI-Modellen, zusätzliche Pflichten in Bezug auf systemische Risiken und Transparenzpflichten für KI-generierte Inhalte. In diesem Vortrag werden diese Pflichten kurz vorgestellt und die verschiedenen Mechanismen im AI Act erörtert, die die Einhaltung der Vorschriften fördern und den AI Act durch die Beibehaltung der Flexibilität zukunftssicher machen sollen.

      Bio
      Andreas Engel forscht zu den Herausforderungen der Digitalisierung, vor allem aus privatrechtlicher Perspektive. Er ist Mitherausgeber des Oxford Handbook of the Foundations and Regulation of Generative AI (erscheint demnächst). Er ist Senior Research Fellow an der Universität Heidelberg. Er studierte in München, Oxford und an der Yale School und schrieb seine Doktorarbeit am Max-Planck-Institut für ausländisches und internationales Privatrecht in Hamburg.

        Linardatos

        Dimitrios Linardatos

        Abstract
        Der Vortrag beleuchtet den Rechtsrahmen für Hochrisiko KI-Systeme im AI Act, analysiert dessen Bestimmungen, die Kriterien zur Einstufung von Hochrisiko KI-Systemen und die Auswirkungen. Er wird die wichtigsten rechtlichen, technischen und ethischen Standards sowie die spezifischen Anforderungen und Compliance-Verpflichtungen für Entwickler und Betreiber von Hochrisiko KI-Systemen behandeln.

        Bio
        Prof. Dr. Dimitrios Linardatos ist Inhaber des Lehrstuhls für Bürgerliches Recht, Digitalisierungsrecht und Wirtschaftsrecht an der Universität des Saarlandes. Seine Forschungsschwerpunkte sind Themen der digitalen Wirtschaft, insbesondere das Haftungsrecht.

          Cole

          Mark Cole

          Abstract
          Der Vortrag betrachtet den AI Act unter zwei Gesichtspunkten: Erstens stellt er den AI Act in den Kontext des bereits existierenden, komplexen Regelungsrahmen für den digitalen Bereich in der EU und zeigt Zusammenhänge damit auf. Dazu gehören Fragen der Verpflichtungen sowie der Aufsicht und Überwachung. Zweitens werden in einem kurzen Blick über die EU hinaus das Potenzial und der Ansatz verglichen, beispielsweise mit dem Rahmenübereinkommen des Europarats über künstliche Intelligenz und Menschenrechte, Demokratie und Rechtsstaatlichkeit.

          Bio
          Professor Dr. iur. Mark D. Cole ist Professor für Medien- und Telekommunikationsrecht an der Universität Luxemburg (seit 2007) und wissenschaftlicher Direktor des Instituts für Europäisches Medienrecht (EMR) in Saarbrücken (seit 2014). Er ist spezialisiert auf europäisches und vergleichendes Medienrecht, über das gesamte Spektrum vom Rechtsrahmen für traditionelle Medien bis hin zu Regulierungsfragen für das Internet, Datenschutz und Urheberrecht. Ferner ist er Mitherausgeber des Journal of Regulation and Law (AIRe).

            Hinweise für Autoren

            Wir laden Mitglieder der internationalen vertrauenswürdigen KI-Community – von Wissenschaftler*innen bis hin zu Fachleuten aus der Praxis – ein, ihre Arbeiten entweder im wissenschaftlichen Track oder im anwendungsbezogenen Track einzureichen und zu präsentieren. Die Einreichungen werden vom Programmkomitee einer Doppelblindprüfung unterzogen, die auf folgenden Kriterien beruht: Relevanz und Bedeutung, Originalität, Fundiertheit, Klarheit und Qualität der Darstellung. Das Symposium ist als Präsenzveranstaltung geplant, und mindestens ein Autor/eine Autorin jedes angenommenen Beitrags muss sich für die Konferenz anmelden und die eingereichte Arbeit mündlich vorstellen.

            Wissenschaftlicher Track:

            • Länge: Wir erwarten Beiträge mit einer Länge von ca. 4.800 – 6000 Wörtern, exklusive Referenzen.
            • Anweisungen zur Einreichung: Die Beiträge müssen in englischer Sprache verfasst sein und können entweder unter Verwendung der OASIcs LaTeX-Vorlage oder der (anfänglich bereitgestellten) Springer LNCS-Vorlage (LaTeX oder Word) eingereicht werden. Bitte beachten Sie, dass für den Tagungsband die OASIcs-Vorlage verwendet wird. Die camera-ready Version aller angenommenen Beiträge (bis zum 16. September) muss daher unter Verwendung der OASIcs-Vorlage formatiert werden, siehe Abschnitt „Templates“ unten.
            • Das Review erfolgt im Doppelblindverfahren, , daher sollten Sie für die Einreichung die Vorlage “anonymous article” verwenden (d.h. anonymous wird als Argument der \documentclass der OASIcs-Vorlage hinzugefügt) oder anonymisieren Sie Ihre Einreichung auf andere geeingete Weise..
            • Einreichungsfrist: 05.08.2024 (23:59 Uhr AoE)
            • Wir akzeptieren Einreichungen von bisher unveröffentlichtem Material sowie von bereits veröffentlichten Arbeiten, die mindestens 30 % neuen Inhalt enthalten.
            • Zum Einreichen eines Papers einfach den Button unten anklicken.

            Anwendungsbezogener Track:

            • Länge: Wir erwarten eine kurze Zusammenfassung mit einer Länge von ca. 200 – 1000 Wörtern, exklusive optionaler Referenzen.
            • Anweisungen zur Einreichung: Die Beiträge müssen in englischer Sprache verfasst sein. Für die Einreichung kann entweder die OASIcs-Vorlage oder die (anfänglich bereitgestellte) Springer LNC-Vorlage verwendet werden. Bitte beachten Sie, dass der Tagungsband die OASIcs-Vorlage verwenden wird.
            • Das Review ist als Single-Blind-Verfahren vorgesehen, aber auch vollständig anonymisierte Beiträge werden angeommen.
            • Einreichungsfrist: 05.08.2024 (23:59 Uhr AoE)
            • Wir akzeptieren Einreichungen von bisher unveröffentlichtem Material sowie neue Zusammenstellungen von bereits veröffentlichten Arbeiten, bspw. von Whitepapern.
            • Zum Einreichen eines Papers einfach den Button unten anklicken. Alternativ kann die Zusammenfassung per Mail an die Kontaktmailadresse gesendet werden zki-symposium@iais.fraunhofer.de.

            Templates:

            Proceedings:

            • Alle angenommenen Beiträge (beide Tracks) erhalten die Option, in den Konferenzband aufgenommen zu werden, der in der OASIcs-Reihe veröffentlicht wird. Zu diesem Zweck muss die camera-ready Version der Einreichung die Anforderungen der OASIcs-Reihe erfüllen (z.B. Style Guide, LaTeX-Vorlage, Autorenvereinbarungen). Die LaTeX-Vorlage kann unten heruntergeladen werden.
            • Zusätzlich zur LaTeX-Vorlage, die bereits für die Einreichung von Konferenzbeiträgen verwendet werden kann, werden den Autor*innen mit der endgültigen Benachrichtigung über die Annahme der Konferenzbeiträge weitere Informationen über den Publikationsprozess des Konferenzbandes zugesandt.
            • Hinweis zur Länge der Beiträge: Wenn Autoren diese Option nutzen möchten, sollten ihre eingereichten Beiträge bis zum 16. September über die OASIcs-Vorlage mit einem Umfang von ca. 2-6 Seiten (Practitioner Track) bzw. einem Umfang von ca. 10 bis 15 Seiten (Academic Track) formatiert werden. Ausgenommen von dieser Seitenbegrenzung sind die Bibliographie, die Titelseite(n) (Autoren, Zugehörigkeit, Schlüsselwörter, Zusammenfassung, …) und ein kurzer Anhang (bis zu 5 Seiten). Insbesondere ist dies auch nach der Ersteinreichung möglich. Das bedeutet, dass die Ersteinreichung bis zum 5. August (kurzer Abstract, Short Paper oder Regular Paper) bis zum 16. September (falls dieser Umfang nicht schon mit der Ersteinreichung erreicht wird) auf die geforderte Seitenanzahl erweitert werden kann, wenn ein Beitrag im Tagungsband gewünscht wird.
            • Hinweis: Selbstverständlich haben die Autoren auch die Möglichkeit, sich gegen eine Integration in den Tagungsband zu entscheiden. In diesem Fall müssen die Beiträge nicht an die Anforderungen des Tagungsbandes angepasst werden.

            Call for Papers

            Einreichungsfrist 5. August 2024

            Ziel dieses Symposiums ist es, marktfähige KI-Prüfungen für vertrauenswürdige KI voranzutreiben. Insbesondere werden Beiträge und Präsentationen sowohl aus der Perspektive der Operationalisierung (einschließlich Governance- und Geschäftsperspektiven) als auch aus der Perspektive des Prüfökosystems und der technischen Werkzeuge (einschließlich Ansätzen aus der Informatik) erbeten. Die Themen umfassen unter anderem aber nicht ausschließlich:

            Perspektive: Operationalisierung von marktfähigen KI-Prüfungen

            • Standardisierung von KI-Prüfungen: Wie können grundlegende Konzepte von KI-Prüfungen wie Prüfgegenstand, Prüfumgebung und Operational Design Domain (ODD) standardisiert spezifiziert werden? Wie müssen Prüfkriterien formuliert werden und welche KPIs sind geeignet, um KI-Qualität und Vertrauenswürdigkeit messbar zu machen? Wie kann die Kompatibilität mit bestehenden Bewertungsrahmen für andere Domänen (z.B. Sicherheit, Datenschutz) sichergestellt werden? Wie ist mit Komponenten von Drittanbietern umzugehen, insbesondere mit KI-Modellen für allgemeine Zwecke, die während einer Prüfung nur schwer zugänglich sind?
            • Risiko- und Schwachstellenbewertung: Welche Methoden können eingesetzt werden, um potenzielle Risiken und Schwachstellen wirksam zu charakterisieren und zu bewerten, wobei sowohl die technischen Aspekte als auch die allgemeineren Auswirkungen zu berücksichtigen sind? Wie müssen KI-Governance-Frameworks aussehen, um diese Risiken effizient abzumildern?
            • Umsetzung rechtlicher Anforderungen: Wie kann die Konformität mit der KI-Verordnung und kommenden Gesetzgebungen bei der Inbetriebnahme von KI-Software und KI-Systemen umgesetzt werden, insbesondere in bestimmten Anwendungsfällen, und welche Schritte sind erforderlich, um die Konformität zu erreichen und aufrechtzuerhalten? Wie sieht ein vertrauenswürdiges AI-Ops-Framework aus?
            • Geschäftsmodelle basierend auf KI-Prüfungen: Was sind Geschäftsmodelle, die auf KI-Prüfungen basieren und was sind die wichtigsten Erfolgsfaktoren? Wie müssen KI-Gütesiegel gestaltet sein und wie beeinflussen diese Konsumentenentscheidungen?

            Perspektive:Testwerkzeuge und Implementierungsmethoden für vertrauenswürdige KI-Produkte

            • Infrastruktur und Automatisierung: Welche Infrastruktur und welches Ökosystem ist für eine effektive KI-Prüfungen und -Zertifizierung erforderlich, einschließlich Überlegungen zum Daten- und Modellzugang, zum Schutz sensibler Informationen und zur Interoperabilität von Bewertungswerkzeugen? Welche Ansätze gibt es, um die Prüfprozess so weit wie möglich zu automatisieren?
            • Absicherungs- und Testmethoden: Welche Strategien oder Methoden können Entwickler*innen anwenden, um geeignete Test- oder Risikominderungsmaßnahmen auszuwählen, die auf die spezifischen Eigenschaften ihrer KI-Systeme zugeschnitten sind? Was sind neuartige Techniken, Werkzeuge oder Ansätze zur Qualitätssicherung? Wie kann generative KI als Teil neuartiger Bewertungswerkzeuge (z.B. zur Generierung von Testfällen) eingesetzt werden?
            • Systematisches Testen: Wie können systematische Tests durchgeführt werden und welche Garantien können diese Tests geben? Wie können insbesondere verschiedene Testbeispiele, einschließlich Corner Cases und synthetische Daten, generiert werden, um die Robustheit und Qualität von KI-Produkten zu verbessern?

            Programmkomitee

            Bertrand Braunschweig

            Bertrand Braunschweig

            Confiance.ai

            Lucie Flek

            Lucie Flek

            University of Bonn, Lamarr Institute for AI and ML

            Antoine Gautier

            Antoine Gautier

            QuantPi

            Marc Hauser

            Marc Hauser

            TÜV AI.Lab

            Manoj Kahdan

            Manoj Kahdan

            RWTH Aachen

            Foutse Khomh

            Foutse Khomh

            Polytechnique Montreal

            Julia Krämer

            Julia Krämer

            Erasmus School of Law in Rotterdam

            Qinghua Lu

            Qinghua Lu

            CSIRO

            Jakob Rehof

            Jakob Rehof

            TU Dortmund, Lamarr Institute for AI and ML

            Franziska Weindauer

            Franziska Weindauer

            TÜV AI.Lab

            Stefan Wrobel

            Stefan Wrobel

            University of Bonn, Fraunhofer IAIS

            Jan Zawadzki

            Jan Zawadzki

            Certif.AI

            Wichtige Daten

             

             

            7. Juli 2024
            Start der Einreichungen von Beiträgen via easychair

            22. Juli 2024 verlängert bis 5. August 2024
            Einreichungsfrist für Beiträge (wissenschaftlicher & anwendungsbezogener Track)

            19. August 2024
            Benachrichtigung der Autor*innen (anwendungsbezogener Track)

            26. August 2024
            Benachrichtigung der Autor*innen (wissenschaftlicher Track)

            9. September 2024 16. September 2024
            Frist für die druckreife Version (wissenschaftlicher Track). Optional: Druckreife Version des Practitioner Abstracts, um diesen auf eine mögliche Integration in die Proceedings vorzubereiten.

            22nd September
            Anmeldeschluss (für alle  Tracks und alle zusätzlichen Teilnehmenden).

            30. September und 1. Oktober 2024
            Konferenz (alle Tracks)
            Mit Key Notes, Papervorstellungen, Austauschformaten, Panels und Social Event

            Location

            Die Veranstaltung findet vor Ort in den “Design Offices Dominium” in Köln statt.

            Tunisstraße 19-23
            50667 Köln
            Deutschland

            Kontakt

            Organisationskomitee

            Rebekka Görge, Elena Haedecke, Fabian Malms, Maximilian Poretschkin, Anna Schmitz

            E-Mail: zki-symposium@iais.fraunhofer.de

            Kontakt für die juristische Sichtweise:

            Mathias Schuh, Erik Weiss, Maxine Folschweiller, Lena Zeit-Altpeter

            E-Mail: mathias.schuh(at)uni-koeln.de