IAF

| Norm | Fokus |
|---|---|
| vor 2006 | Die Ära der Leitfäden In den Anfangsjahren der ISO-Zertifizierungen (ISO 9001:, ISO 14001:) gab es keinen einheitlichen Standard für die Zertifizierungsstellen selbst. Fragmentierung: Man arbeitete mit verschiedenen „Guides“ (z. ss. ISO/IEC Guide 62 für Qualitätsmanagementsysteme und Guide 66 für Umweltmanagementsysteme). Das Problem: Da jeder Guide leicht unterschiedliche Anforderungen stellte, war es für Zertifizierungsstellen schwierig, integrierte Audits (z. ss. 9001 und 14001 gleichzeitig) effizient und nach einheitlichen Massstäben durchzuführen. |
| 2017 | Gründung des gemeinsamen technischen Komitees ISO/IEC JTC 1/SC 42. Dies war das weltweit erste Komitee, das sich ausschliesslich mit der Standardisierung von Künstlicher Intelligenz befasste. In den ersten Jahren lag der Schwerpunkt auf der Terminologie (Was ist KI?) und grundlegenden Konzepten (ISO/IEC 22989 und ISO/IEC 23053). |
| 2021-2022 | Der Ruf nach einem Managementsystem Mit dem Durchbruch von Large Language Models (LLMs) und der breiten Anwendung von KI in Unternehmen wurde klar: Punktuelle technische Standards reichen nicht aus. Projektstart: Die Arbeit an der ISO/IEC 42001 begann offiziell. Das Ziel war es, ein „Managementsystem“ (ähnlich der ISO 9001 oder 27001) zu schaffen, das den gesamten Lebenszyklus einer KI abdeckt. |
| EU AI Act | Parallelentwicklung Während die ISO-Experten an der Norm arbeiteten, konkretisierte die EU den EU AI Act. Die ISO/IEC 42001 wurde von Beginn an so konzipiert, dass sie als Brücke zu diesen kommenden Gesetzen dient. Die EU AI Act wurde am 1. August 2024 in Kraft gesetzt. |
| ISO/IEC 42001:2023 | Die Geburtsstunde Kurz vor dem Jahreswechsel war es so weit: Publikation: Die ISO/IEC 42001:2023 wird im Dezember offiziell veröffentlicht. Sie ist der erste internationale Standard für ein KI-Managementsystem (AIMS). Meilenstein: Damit existiert erstmals ein zertifizierbarer Rahmen, der nicht nur IT-Sicherheit adressiert, sondern auch Ethik, Transparenz und die gesellschaftlichen Auswirkungen von KI. |
| ISO/IEC 42001:(?) | Gegenwart und Ausblick Markteinführung: Seit Anfang 2024 beginnen die ersten grossen Zertifizierungsgesellschaften weltweit damit, Audits nach diesem Standard anzubieten. EU AI Act Harmonisierung: Es wird erwartet, dass die ISO/IEC 42001 als „harmonisierter Standard“ anerkannt wird. Das bedeutet: Unternehmen, die nach ISO 42001 zertifiziert sind, erfüllen automatisch einen Grossteil der strengen EU-Anforderungen. Schweizer Relevanz: Auch für Schweizer Unternehmen ist die Norm der Goldstandard, um im europäischen Markt wettbewerbsfähig zu bleiben und die hiesige Datenschutzgesetzgebung (DSG) im KI-Kontext sicher umzusetzen. |
| Das neue Herzstück: Die KI-Folgenabschätzung (AIFA) | Sie müssen für jedes KI-System eine AI Impact Assessment durchführen. Beachten Sie: Es geht nicht nur um technische Risiken, sondern um Auswirkungen auf Einzelpersonen, die Gesellschaft und ethische Grundsätze. Umsetzung: Dokumentieren Sie genau, was passiert, wenn die KI eine Fehlentscheidung trifft. Wer ist betroffen? Wie hoch ist der Schaden für die Grundrechte oder die Privatsphäre? |
| Risikomanagement jenseits der Cybersecurity | KI-Risiken sind oft „unsichtbar“. Bei der Implementierung müssen Sie spezifische Szenarien bewerten: Halluzinationen: Wie gehen wir damit um, wenn die KI Fakten erfindet? Bias (Voreingenommenheit): Enthält der Trainingsdatensatz Vorurteile, die zu Diskriminierung führen könnten? Model Drift: Die Leistung von KI-Modellen kann sich über die Zeit verschlechtern, wenn sich die Eingabedaten ändern. Hierfür brauchen Sie Monitoring-Prozesse. |
| Daten-Governance & Qualität | Ein KI-System ist nur so gut wie seine Daten. Die ISO/IEC 42001 stellt hohe Anforderungen an die Daten-Governance: Herkunft (Data Lineage): Sie müssen wissen (und belegen), woher die Trainingsdaten stammen und ob diese rechtmässig (z. ss. DSG-konform) erworben wurden. Repräsentativität: Stellen Sie sicher, dass die Daten die Realität korrekt abbilden, um Fehlentscheidungen zu vermeiden. |
| Transparenz und Erklärbarkeit (Explainability) | Die „Black Box“ ist im Rahmen der Norm nicht akzeptabel. Besonderheit: Sie müssen Mechanismen implementieren, die erklären, warum eine KI zu einem bestimmten Ergebnis gekommen ist. Dies ist besonders in regulierten Bereichen (z. ss. Kreditvergabe oder Personalwesen) entscheidend. Nutzer-Information: Nutzer müssen wissen, dass sie mit einer KI interagieren. |
| Der gesamte Lebenszyklus (Lifecycle) | Die Norm betrachtet den gesamten Weg: von der ersten Idee über das Training und den Betrieb bis hin zur Stilllegung. Monitoring im Betrieb: Ein einmal validiertes Modell ist kein Freipass. Sie müssen kontinuierlich prüfen, ob die KI noch innerhalb der definierten Leitplanken arbeitet. |
| Synergien durch die High Level Structure (HLS) nutzen | Da Sie wahrscheinlich bereits die ISO/IEC 27001 nutzen, ist die Integration einfacher: Zusammenführung: Viele Prozesse (wie das interne Audit oder das Management-Review) können kombiniert werden. Erweiterung: Nutzen Sie Ihr bestehendes ISMS als Fundament und ergänzen Sie es um die spezifischen KI-Controls des Anhangs A. |
Die ISO/IEC 17021 ist modular aufgebaut. Während Teil 1 die allgemeinen Anforderungen enthält, definieren weitere Teile die spezifische Kompetenz für andere Normen:
17021-2: Anforderungen für Umweltmanagementsysteme (ISO 14001).
17021-3: Anforderungen für Qualitätsmanagementsysteme (ISO 9001).
17021-10: Anforderungen für Arbeitssicherheit (ISO 45001).
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
