Deutsche Normungsroadmap Künstliche Intelligenz veröffentlicht

14. Dezember 2020 | | 2 Minuten Lesezeit

cyberHR

Themen:

Startseite » News » Deutsche Normungsroadmap Künstliche Intelligenz veröffentlicht

Mit der Normungsroadmap Künstliche Intelligenz legt Deutschland als erstes Land weltweit eine umfassende Analyse des Bestands und des Bedarfs an internationalen Normen und Standards für diese Schlüsseltechnologie vor. Dabei werden in dieser ersten Ausgabe der Deutschen
Normungsroadmap in einem breit angelegten interdisziplinären Ansatz nicht nur die technischen sondern gleichwertig auch die ethischen und gesellschaftlichen Aspekte von ­Normen in der KI ausführlich berücksichtigt.

Die Roadmap kann hier heruntergeladen werden

Mit über 70 identifizierten Normungs- und Standardisierungsbedarfen zeigt die Roadmap konkrete Potenziale auf und formuliert fünf zentrale und übergreifende Handlungsempfehlungen:

1. Datenreferenzmodelle für die Interoperabilität von KI-Systemen umsetzen

In Wertschöpfungsketten kommen viele unterschiedliche Akteure zusammen. Damit auch die verschiedenen KI-Systeme dieser Akteure automatisiert zusammenarbeiten können, ist ein Datenreferenzmodell nötig, um Daten sicher, zuverlässig, flexibel und kompatibel
auszutauschen. Standards für Datenreferenzmodelle aus unterschiedlichen Bereichen schaffen die Grundlage für einen übergreifenden Datenaustausch und stellen damit weltweit die Interoperabilität von KI-Systemen sicher.

2. Horizontale KI-Basis-Sicherheitsnorm erstellen

KI-Systeme sind im Kern IT-Systeme – für letztere gibt es bereits viele Normen und Standards aus verschiedensten Anwendungsbereichen. Um ein einheitliches Vorgehen beim Thema IT-Sicherheit von KI-Anwendungen zu ermöglichen, ist eine übergreifende „Umbrella-Norm“
sinnvoll, die vorhandene Normen und Prüfverfahren für IT-Systeme bündelt und um KI-Aspekte ergänzt. Diese Basis-Sicherheitsnorm kann dann durch Sub-Normen zu weiteren Themen ergänzt werden.

3. Praxisgerechte initiale Kritikalitätsprüfung von KI-Systemen ausgestalten

Wenn selbstlernende KI-Systeme über Menschen, deren Besitz oder Zugang zu knappen Ressourcen entscheiden, können ungeplante Probleme in der KI individuelle Grundrechte oder demokratische Werte gefährden. Damit sich KI-Systeme in ethisch unkritischen Anwendungsfeldern dennoch frei entwickeln lassen, sollte durch Normen und Standards eine initiale Kritikalitätsprüfung
gestaltet werden – diese kann schnell und rechtssicher klären, ob ein KI-System solche Konflikte überhaupt auslösen kann.

4. Nationales Umsetzungsprogramm „Trusted AI“ zur Ertüchtigung der europäischen Qualitätsinfrastruktur initiieren und durchführen

Bisher fehlen verlässliche Qualitätskriterien und Prüfverfahren für KI-Systeme – das gefährdet das wirtschaftliche Wachstum und die Wettbewerbsfähigkeit dieser Zukunftstechnologie. Es braucht ein nationales Umsetzungsprogramm „Trusted AI“, das die Basis für reproduzierbare und standardisierte Prüfverfahren legt, mit denen Eigenschaften von KI-Systemen wie Verlässlichkeit, Robustheit, Leistungsfähigkeit und funktionale Sicherheit geprüft und Aussagen über die Vertrauenswürdigkeit getroffen werden können. Normen und
Standards beschreiben Anforderungen an diese und bilden so die Grundlage für die Zertifizierung und Konformitätsbewertung von KI-Systemen. Mit einer solchen Initiative hat Deutschland die Chance, ein weltweit erstes und international anerkanntes Zertifizierungsprogramm zu entwickeln.

5. Use Cases auf Normungsbedarf analysieren und bewerten

Die KI-Forschung sowie die industrielle Entwicklung und Anwendung von KI-Systemen sind hoch dynamisch. Bereits heute gibt es viele Anwendungsfälle in den verschiedenen Einsatzfeldern von KI. Über anwendungstypische und branchenrelevante Use Cases lassen sich
Standardisierungsbedarfe für industriereife KI-Anwendungen ableiten. Um Normen und Standards zu gestalten, ist es wichtig, wechselseitige Impulse aus Forschung, Industrie, Gesellschaft und Regulierung einzubinden. Im Zentrum dieses Ansatzes sollten die entwickelten Standards entlang von Use Cases erprobt und weiterentwickelt werden. So lassen sich anwendungsspezifische Bedarfe frühzeitig erkennen und marktfähige KI-Standards realisieren.

cyberHR