Work­shops

In den Anwender­kreisen des Pro­jekts werden regel­mäßig Work­shops durch­ge­führt, um Unter­nehmens­bedarfe und Schwer­punkt­themen der KI‑Prüfung zu er­arbeiten. Detail­infor­mationen zur An­meldung und zur je­weiligen Agenda finden Sie zu ge­gebener Zeit hier und auf der ent­sprechenden Work­shop-Seite des DIN.

Workshops 2024

Workshopreihe „Europäische KI-Verordnung und ihre Operationalisierung“

Mit Verabschiedung der KI-Verordnung im Dezember kommen neue regulatorische Herausforderungen auf Unternehmen zu, die KI einsetzen. Während es nach Inkrafttreten Übergangsfristen zur Umsetzung der neuen Vorgaben geben wird, ist eine gute Vorbereitung wichtig, um die vielfältigen Chancen durch den Einsatz von KI-Modellen adäquat abzusichern und die Nutzung vertrauenswürdig zu gestalten.

In dieser Workshopreihe wollen wir gemeinsam mit Wissenschaft, Industrie und Anwender*innen Möglichkeiten zur technischen Umsetzung der KI-Verordnung erarbeiten und dabei auch darauf eingehen, wie man Compliance schon während der Anwendungsentwicklung adressieren kann.

Die Workshopreihe soll dabei drei verschiedene Thematiken beleuchten, die für die Umsetzung der KI-Verordnung essenziell sind. Im ersten Workshop werden Urheberrechtsverletzungen durch Generative KI mit Blick auf aktuelle Modelle thematisiert, weiter geht es mit der technischen Prüfung von rechtlichen Fairnessanforderungen im zweiten Workshop und die Reihe abschließen wird ein Workshop zur Entwicklung und Prüfung von Anwendungen mit generativer KI.  Die Workshopreihe richtet sich neben den Partnern und assoziierten Partnern des ZERTIFIZIERTE KI-Projektes an alle interessierten Expert*innen.

mehr Infos zur Workshop-Reihe…

=

Workshop 1
10. April 2024, 09:30 – 12:30 Uhr

Workshop AI Act und Operationalisierung – Generative KI und Urheberrecht

mehr…

=

Workshop 2
19. Juni 2024, Uhrzeit folgt

Workshop AI Act und Operationalisierung – Technische Prüfung von Fairnessanforderungen

mehr…

=

Workshop 3
11. September 2024, Uhrzeit folgt

Workshop AI Act und Operationalisierung – Entwicklung und Prüfung von Anwendungen mit generativer KI

mehr…

ICSE 2024 – International Conference on Software Engineering
2nd International Workshop on Responsible AI Engineering (RAIE’24)

Achieving responsible AI engineering (i.e., building adequate software engineering tools to support responsible engineering of AI systems) requires a good understanding of human expectations and the utilisation context of AI systems. Hence, the aim of this workshop is to bring together researchers and practitioners not only in software engineering and AI, but also social scientists and regulatory bodies to build up a community that will target the AI engineering challenges that practitioners are facing in developing AI systems responsibly. In this workshop, we are looking for cutting-edge software/AI engineering methods, techniques, tools and real-world case studies that can help operationalise responsible AI.

=

Workshop
April 2024

2nd International Workshop on Responsible
AI Engineering (RAIE’24)

Workshops 2022 und 2023

Anwender­kreis »Foundation Models«

Spätestens der mediale Hype um ChatGPT, Dall-E und Co. hat Foundation Models in das Licht der Öffentlichkeit gerückt. Die Gründe sind naheliegend: Generative Modelle, die nicht konkret für einen spezifischen Zweck trainiert werden, sondern aus großen Mengen nicht-annotierter Daten eigenständig Strukturen erlernen und variabel auf eine Vielzahl von Fragestellungen angewendet werden können, kommen menschlicher Intelligenz so nahe wie kein anderes Paradigma Künstlicher Intelligenz. Foundation Models versprechen neue Erfolge und Chancen in vielen Anwendungsfeldern angefangen von der Sprachverarbeitung über Computer Vision bis hin zu biomedizinischen Anwendungen. Gleichzeitig ergeben sich bereits neue Herausforderungen hinsichtlich der Vertrauenswürdigkeit dieser Modelle und ihrer Auswirkungen auf unsere Gesellschaft und unseren Arbeitsalltag, während auch die Diskussion, um die Prüfung der Vertrauenswürdigkeit von neuronalen Netzen allgemein noch nicht abgeschlossen ist.

Ziel dieser Workshopreihe ist es einerseits an die Technologie der Foundation Models heranzuführen und gemeinsam mit Wissenschaft, Industrie und Anwender*innen zu erarbeiten, welche Chancen, Herausforderungen und Lösungsmöglichkeiten sich durch den Einsatz dieser ergeben. Anderseits geht die Workshopreihe aber auch auf allgemeine Grundlagen ein, die sowohl für den vertrauenswürdigen Einsatz von einzelnen anwendungsspezifischen „klassischen“ KI-Modellen als auch für große generative Modelle notwendig sind. Der Workshop ist in vier voneinander unabhängige Workshops aufgeteilt und richtet sich neben den Partnern und assoziierten Partnern des ZERTIFIZIERTE KI-Projektes an alle interessierten Expert*innen.

R

Workshop 1
20. Juni 2023 |
10:00 Uhr bis 12:45 Uhr

Foundation Models – Chancen und
Herausforderungen
 

Mehr …

=

Workshop 2
27. September 2023 |
10:00 Uhr bis 12.30 Uhr

Multimodale Foundation Models – Funktionsweise und Einsatz als Werkzeug zum semantischen Testen

Mehr …

=

Workshop 3
30. Oktober 2023 |
10 Uhr bis 12.30 Uhr

Datenqualität – Grundlage für Vertrauenswürdigkeit von verschiedenster KI-Systemen

Mehr …

=

Workshop 4
29. November 2023
10:00 Uhr bis 12.30 Uhr

Prüfframeworks und Infrastruktur als allgemeine Basis zur Gestaltung von vertrauenswürdiger KI

Mehr …

Gemeinschaftsworkshop von ZERTIFIZIERTE KI und Normungsroadmap KI:
Anforderungen an KI-Prüfungen –Standardisierungspotentiale identifizieren

Normen und Standards ermöglichen neben einer sicheren und zuverlässigen Funktion von KI-Systemen eine Stärkung des Vertrauens in und der Akzeptanz von KI in Wirtschaft und Gesellschaft. Um die Anforderungen an diese bestmöglich zu erfassen, ist die Beteiligung von Stakeholdern aus Wirtschaft, Gesellschaft, Forschung und öffentlicher Hand notwendig.

Ziele der Veranstaltung

  • Vorstellung und Priorisierung ausgewählter Handlungs- und Normungsbedarfe der Normungsroadmap KI (Version 2) – Arbeitsgruppe „Prüfung und Zertifizierung“
  • Expertenfindung
=

Workshop
11. September 2023 | 10:00 Uhr bis 13:00 Uhr

Anforderungen an KI-Prüfungen –
Standardisierungspotentiale identifizieren

Anwender­kreis  »Vertrauenswürdige KI-Cloud-Services«

Ziel des Anwender­kreises ist z. B. die Ent­wicklung und Diskussion von Prüf­kriterien, Prüf­verfahren und Prüf­werkzeugen für vertrauens­würdige KI in der Cloud/Edge-Supply-Chain. Im Zentrum der Arbeiten des Anwender­kreises stehen zudem Aspekte im Kontext der ge­planten KI‑Regulierung der EU sowie der Standar­disierung und Normung.

Für eine Mit­arbeit im Anwender­kreis »Vertrauens­würdige KI-Cloud-Services« können Sie sich auf der Kollabora­tions­plattform DIN.one anmelden.

R

Workshop 1
10. März 2022 |
9:30 Uhr bis 13:00 Uhr

Kick-off-Veranstaltung

Mehr …

R

Workshop 2
6. September 2022 |
10:00 Uhr bis ca. 15:30 Uhr

KI-Qualität und Prüfverfahren im Finanzsektor

Mehr …

=

Workshop 3
verschoben |
neues Datum folgt

Implementation of the
AI Act with horizontal standards

Mehr …

R

Workshop 4
08. Mai 2023 |
13.30 Uhr bis 15.30 Uhr

AI Risk Management Frameworks

Mehr …

Informationsveranstaltung über die bisherigen Standardisierungsaktivitäten

Am Donnerstag, den 27. April von 12:30 Uhr bis 13:30 Uhr lädt DIN Sie zu einer Informationsveranstaltung über die bisherigen Standardisierungsaktivitäten aus dem Projekt ZERTIFIZIERTE KI im Rahmen des ISO-IEC/JTC 1/SC 42 »Artifcial Intelligence«-Plenary Meetings in Berlin ein.Bei Speis und Trank sind interessierte Expert*Innen und Teilnehmende des ISO-IEC/JTC 1/SC 42-Plenary Meetings herzlich eingeladen, sich über die aktuellen Zwischenstände der Standardisierungsaktivitäten aus dem Projekt ZERTIFIZIERTE KI zu informieren.

Für Interessierte, die leider nicht in Berlin dabei sein können, bieten wir die Möglichkeit einer Online-Teilnahme. Die Zugangsdaten hierfür erhalten Sie, sobald Sie sich für die Veranstaltung angemeldet haben.

Derzeit sind 3 Projekte aus dem Projekt ZERTIFIZIERTE KI hervorgegangen und befinden sich in der Erarbeitung:

  • DIN/TS 92004 Artificial intelligence — Quality requirements and processes — Risk scheme for AI systems along the entire life cycle
  • DIN SPEC 92001-3 Artificial intelligence — Life cycle processes and quality requirements — Part 3: Explainability
  • DIN SPEC 92005 Uncertainty Quantification in ML

Mehr Informationen zu den Standardisierungsaktivitäten im Projekt finden Sie hier.

Den aktuellen Stand der Tagesordnung und weitere Informationen zur Veranstaltung finden Sie auf der Kooperationsplattform DIN.one: AGENDA
Interessierte Teilnehmer melden sich bitte über nachfolgenden Link für die Veranstaltung an: REGISTRIERUNG (Log-in Code: standards)

Wir freuen uns darauf, Ihnen einen Einblick in die Dokumente zu geben, den Teilnehmern die Möglichkeit zu geben, Fragen zu stellen und zu diskutieren, wie die Dokumente helfen können, die internationale Normungsebene in Zukunft mitzugestalten.

R

Workshop
27. April 2023 | 12:30 Uhr bis 13:30 Uhr

Informationsveranstaltung über die bisherigen Standardisierungsaktivitäten

Workshop »KI und Normung im Finanzsektor«

Ziel des Workshops ist die Bildung und Vorbereitung der deutschen Position zum Thema Normung & KI im Bereich der Finanzwirtschaft.Im Rahmen der Veranstaltung wird es einen Impulsvortrag zum Thema AI Act und Trustworthiness aus Bankenperspektive geben. Im Anschluss erfolgt ein interaktiver Teil zur Entwicklung von Standardisierungsaktivitäten bspw. anhand der Normungsbedarfe der Normungsroadmap KI (siehe Normungsraodamp KI Seite 266 ff.).

Die Veranstaltung ist als Online-Veranstaltung geplant.

Interessierte Teilnehmende registrieren sich bitte für die Veranstaltung unter: ANMELDUNG (Log-in Code: finance)

R

Workshop
18. April 2023 | 10:00 Uhr bis 12:30 Uhr

KI und Normung im Finanzsektor

Workshopreihe  »Ethik und Bias in KI-Anwendungen im Smart Hospital«

Der Einsatz von Künstlicher Intelligenz (KI) in der Gesundheitsversorgung verspricht großes Potential. KI-basierte Assistenzsysteme können als Unterstützung in der Pflege, Medizin und vielen anderen Gesundheitsbereichen eingesetzt werden. Sie bieten basierend auf großen Mengen von Gesundheitsdaten Möglichkeiten z.B. zur Entwicklung von intelligenten Anwendungen zur Prävention, frühzeitigen Diagnose und Therapieplanung. Gleichzeitig stellt ein so hoch sicherheitskritischer Bereich wie die Medizin besondere Qualitätsanforderungen an die Entwicklung, Güte und vor allem Verlässlichkeit von KI-Systemen. Dazu zählt es insbesondere, verschiede Bias, d.h. Verzerrungseffekte wie z.B. Diskriminierung zu vermeiden oder so gering wie möglich zu halten. Um dies zu erreichen ist es allerdings nötig, mögliche Bias zunächst anwendungsbezogen zu identifizieren und darauf basierend entsprechende Vermeidungsstrategien technisch umzusetzen und zu integrieren.

Die Fragestellung, wie Bias für medizinische KI-Anwendungen identifiziert und vermieden werden kann, vereint die beiden KI.NRW Flagship-Projekte SmartHospital.NRW und ZERTIFIZIERTE KI. In einer gemeinsamen Workshopreihe sollen mögliche Bias identifiziert und Lösungsansätze für diese Problemstellungen diskutiert und erarbeitet werden

R

Workshop 1
25. November 2022 | 13:00 Uhr bis 16:00 Uhr

Bias im Kontext Smart Hospital – welche gibt es und worauf wirken sie?

Mehr …

R

Workshop 2
16. März 2023 | 09:00 Uhr bis 12:45 Uhr

Wie können wir Bias in medizinischen KI-Anwendungen vermeiden?

Mehr …

Anwender­kreis »Trans­parenz in neuronalen Netzen«

Neuro­nale Netze sind integraler Bestand­teil vieler moderner KI-Anwendungen und haben Einzug in diverse Industriebereiche gefunden – von der Robotik und Land­wirtschaft über das Finanz­wesen zu Online-Dienstleistern. Gerade in sicherheits­kritischen Anwendungs­bereichen, wie beim auto­nomen Fahren oder der medi­zinischen Diagnose, ist das Sicher­stellen ihrer korrekten Funktions­weise von zentraler Bedeutung. Zur Qualitäts­sicherung sollte ein neuro­nales Netz von eine*r Expert*in mit Hintergrund­wissen verstanden, auf Schwach­stellen hin unter­sucht und ge­prüft werden. Einem solchen Ver­ständnis steht jedoch der »Black Box«-Charakter eines neuro­nalen Netzes entgegen.

In dieser Workshop­reihe wird er­arbeitet, welche Bedarfe es aus Anwender­sicht und welche An­sätze es aus tech­nischer Sicht gibt, die Funktion von neuro­nalen Netzen syste­matisch zu ver­stehen und auf Schwach­stellen hin zu über­prüfen. In vier von­einander un­abhängigen Work­shops werden neue Forschungs­ansätze und bereits ent­wickelte konkrete Werk­zeuge, die ein tiefer­gehendes Ver­ständnis der KI durch Trans­parenz-, Unsicherheits­bewertungs- und Test­verfahren er­möglichen, vor­gestellt und dis­kutiert. Inter­essierte Expert*innen sind neben den Part­nern und assozi­ierten Part­nern des ZERTIFIZIERTE KI-Projektes herz­lich ein­ge­laden, an der Workshop­reihe teil­zu­nehmen.

R

Workshop 1
4. Mai 2022 |
9:30 Uhr bis 11:45 Uhr

Visuell-explorative Bewertung neuro­naler Netze

Mehr …

R

Workshop 2
21. Juni 2022 |
9:30 Uhr bis 11:30 Uhr

Verfahren zur Interpretier­barkeit von neuro­nalen Netzen

Mehr …

R

Workshop 3
19. Oktober 2022 |
9:30 Uhr bis 12:00 Uhr

Einschätzung von Un­sicher­heiten in neuro­nalen
Netzen

Mehr …

R

Workshop 4
12. Dezember 2022 |
9:30 Uhr bis 12:30 Uhr

Ansätze zum systematischen Testen neuronaler Netze

Mehr …

Workshops 2021

R

Workshop 1
23. Juni 2021

Ansätze zur Prüfung von KI-Systemen

R

Workshop 2
16. September 2021

KI-Risiken systematisch bewerten

R

Workshop 3
2. November 2021

Werkzeuge für
KI-Qualität

R

Workshop 4
7. Dezember 2021

Systematische Evaluation des Standardisierungs­bedarfes