Der wachsende Bedarf an KI-Governance
Es mag vielleicht nicht so aussehen, aber künstliche Intelligenz (KI) gibt es schon seit langer Zeit. Das früheste erfolgreiche KI-Programm wurde 1951 von Christopher Strachey geschrieben, der später Leiter der Forschungsgruppe für Programmierung an der Universität Oxford wurde.
ChatGPT ist ein Chatbot , der mithilfe von künstlicher Intelligenz eine Reihe von Aufgaben ausführt, darunter das Führen von Gesprächen, das Erstellen von Text und das Schreiben von Code. Der Chatbot hatte im Januar 2023, nur zwei Monate nach seinem Start, mehr als 100 Millionen aktive Nutzer und ist damit die am schnellsten wachsende Verbraucheranwendung in der Geschichte. In dem Maße, wie offene KI für die breite Masse verfügbar wird, wächst die Sorge über unethische Anwendungen von KI.
Die Notwendigkeit einer KI-Governance
Der Zweck der KI-Governance besteht darin, verschiedene Fragen im Zusammenhang mit der ethischen Nutzung von KI anzugehen, darunter Transparenz, Voreingenommenheit, Verantwortlichkeit für den Datenschutz und Sicherheit. Ziel ist es, KI so zu nutzen, dass der Nutzen maximiert und gleichzeitig Schaden und soziale Ungerechtigkeit minimiert werden. KI-Governance wird auch eine wichtige Rolle dabei spielen, Unternehmen bei der Einhaltung von Vorschriften und Gesetzen zu unterstützen. Hier ist eine Zusammenfassung dessen, was in den Vereinigten Staaten, Europa und Kanada zu erwarten ist.
Zwar gibt es in den Vereinigten Staaten keine umfassende Bundesgesetzgebung zur KI, doch konzentrieren sich kommunale und bundesstaatliche Gesetze zunehmend darauf, wie KI-Systeme personenbezogene Daten verarbeiten. So dürfen Arbeitgeber in New York City beispielsweise keine automatisierten Tools zur Personalentscheidung einsetzen, die auf KI basieren, um Bewerber zu prüfen, es sei denn, diese Tools wurden auf Verzerrungen überprüft. Unternehmen müssen Bewerber zudem darüber informieren, wenn ein solches Tool im Einstellungsentscheidungsprozess zum Einsatz kommt. Colorado verlangt nun von Versicherungsgesellschaften, nachzuweisen, dass ihre KI-Algorithmen und Vorhersagemodelle bei der automatisierten Risikoprüfung nicht zu ungerechter Diskriminierung führen. Die US-Handelskammer stellt einen Tracker zur Verfügung, der die Gesetzgebung zur künstlichen Intelligenz in den einzelnen Bundesstaaten auflistet.
In Europa schreibt die Datenschutz-Grundverordnung (DSGVO) vor, dass Organisationen keine algorithmischen Systeme einsetzen dürfen, um wichtige Entscheidungen zu treffen, die sich auf gesetzliche Rechte auswirken, ohne dass eine menschliche Aufsicht stattfindet, und dass Einzelpersonen Anspruch auf aussagekräftige Informationen über die verwendete Logik und die algorithmischen Systeme haben. Die Europäische Union hat am 21. April 2021 den Gesetzentwurf zur künstlichen Intelligenz (AIA) vorgelegt. Der Vorschlag wurde 2023 verabschiedet und schafft drei Kategorien von KI-Systemen – begrenztes Risiko, hohes Risiko und inakzeptables Risiko – und legt je nach Risikokategorie unterschiedliche Anforderungen an KI-Systeme fest.
In Kanada soll das vorgeschlagene Gesetz über künstliche Intelligenz und Daten (Artificial Intelligence and Data Act, AIDA) dazu beitragen, dass KI-Systeme sicher und nicht diskriminierend sind. Das Gesetz würde Unternehmen dafür verantwortlich machen, wie sie KI entwickeln und nutzen.
Was Ihre KI-Governance-Strategie umfassen sollte
Ihr Unternehmen wird zunehmend unter dem Druck der Kunden stehen, einen verantwortungsvollen Umgang mit KI nachzuweisen. Ihre Bemühungen werden zunehmen und reifen müssen, um den KI-Vorschriften gerecht zu werden, die in nicht allzu ferner Zukunft erweitert werden dürften. Es ist ratsam, sich jetzt vorzubereiten. Hier sind einige Schritte, die Ihnen helfen, sich vorzubereiten.
- Übertragen Sie die Verantwortung für die KI-Governance. Dies könnte Ihr Chief Privacy Officer oder ein spezieller KI-Governance-Beauftragter sein.
- Verstehen Sie den Einsatz von KI in Ihrem Unternehmen, einschließlich der Lösungen von Drittanbietern.
- Beurteilen Sie, wie sich der Einsatz von KI in Ihrem Unternehmen auf die Menschheit auswirkt, einschließlich Beschäftigung, Datenschutz, Rassismus und vieler anderer Probleme.
- Entwickeln Sie verbotene Anwendungsfälle.
- Entwicklung von Verhaltenskodizes und ethischen Richtlinien für Dateningenieure, Datenwissenschaftler, Datenanalysten und Mitarbeiter an vorderster Front.
- Stellen Sie sicher, dass Ihr Unternehmen die AI-Vorschriften überall dort einhält, wo es geschäftlich tätig ist.
- Prüfung von KI-Algorithmen und -Modellen auf Voreingenommenheit, insbesondere wenn sie in Bereichen eingesetzt werden, die zu rassischen und wirtschaftlichen Ungleichheiten führen könnten.
- Erstellen Sie wichtige Leistungsindikatoren (KPIs), um den Erfolg zu messen, und konzentrieren Sie sich dabei auf Messgrößen, die für Voreingenommenheit, Diskriminierung, Fairness und Erklärbarkeit von Bedeutung sind.
- Kontinuierliche Überwachung der Fortschritte und Ergreifung von Korrekturmaßnahmen nach Bedarf.
Über Actian
Kunden vertrauen Actian für ihre KI-Anforderungen, weil wir mehr als nur eine Plattform bieten. Wir helfen Unternehmen, sichere, data-driven Entscheidungen für ihre geschäftskritischen Anforderungen zu treffen und gleichzeitig ihr Geschäftswachstum zu beschleunigen. Mit der Actian Data Platform können Unternehmen ihre Daten einfach verbinden, verwalten und analysieren.