KI & ML

Algorithmische Verzerrungen: Die dunkle Seite der künstlichen Intelligenz

Actian Germany GmbH

6. Juli 2023

KI-Ethik und die dunkle Seite der künstlichen Intelligenz

Das Wachstum der social media und die Weiterentwicklung der Mobiltechnologie haben exponentiell mehr Möglichkeiten geschaffen, Informationen zu erstellen und zu teilen. Fortschrittliche Datentools wie KI und data science werden immer häufiger als Lösung für die Verarbeitung und Analyse dieser Daten eingesetzt. Künstliche Intelligenz (KI) kombiniert Informatik mit robusten Datensätzen und Modellen, um automatisierte Problemlösungen zu ermöglichen. Modelle des Maschinelles Lernen (ML), ein Teilbereich der KI, der statistische Techniken einsetzt, die es Computern ermöglichen, ohne explizite Programmierung zu lernen, verwenden Dateneingaben, um Aktionen und Reaktionen für Benutzer trainieren . Diese Daten werden genutzt, um wichtige Entscheidungen in Bezug auf Regierungsstrategien, Anspruch auf öffentliche Unterstützung, medizinische Versorgung, Beschäftigung, Versicherungen und Kreditwürdigkeitsprüfung zu treffen.

Als eines der größten Technologieunternehmen der Welt verlässt sich Amazon Web Services (AWS) in hohem Maße auf KI und ML als Lösung für die Speicherung, Verarbeitung und Analyse von Daten. Doch trotz seiner Größe und technischen Raffinesse entdeckte das Unternehmen im Jahr 2015 Voreingenommenheit in ihrem Einstellungsalgorithmus. Der Algorithmus bevorzugte Männer, weil der Datensatz, auf den er sich bezog, auf früheren Bewerbern der letzten 10 Jahre basierte, die eine viel größere Anzahl von Männern als von Frauen enthielten.

Verzerrung in einem Algorithmus gefunden COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), der von US-Gerichtssystemen zur Vorhersage der Rückfälligkeit von Straftätern verwendet wird. Die verwendeten Daten, das gewählte Modell und der verwendete Algorithmus insgesamt zeigten, dass er bei fast der Hälfte (45 %) der afroamerikanischen Straftäter im Vergleich zu den kaukasisch-amerikanischen Straftätern (23 %) zu falsch positiven Ergebnissen führte.

Ohne Protokolle und Vorschriften zur Durchsetzung von Kontrollmechanismen für den verantwortungsvollen Einsatz von künstlicher Intelligenz und ML wird sich die Gesellschaft auf eine schiefe Ebene begeben, die mit Voreingenommenheit aufgrund von sozioökonomischer Klasse, Geschlecht, Ethnie und sogar dem Zugang zu Technologie verbunden ist. Wenn es keine sauberen Daten gibt, können Algorithmen inhärent einfach durch die Verwendung von ungenauen, unvollständigen oder schlecht strukturierten Datensätzen zu Verzerrungen führen. Um Voreingenommenheit zu vermeiden, muss zunächst die Qualität des Datensatz genau bewertet werden, und das sollte der Fall sein:

  • Präzise.
  • Sauber und konsequent.
  • Repräsentativ für eine ausgewogene Datenstichprobe.
  • Klar strukturiert und durch faire Governance-Regeln und deren Durchsetzung definiert.

Definition von AI Data Bias

Das Problem bei der Anwendung von künstlicher Intelligenz für wichtige Entscheidungen ist das Vorhandensein und die Möglichkeit von Voreingenommenheit, die zu erheblichen Ungleichheiten bei gefährdeten Gruppen und unterversorgten Gemeinschaften führen kann. Ein Teil des Problems ist das Volumen und die Verarbeitungsmethoden von Big Data, aber es besteht auch die Möglichkeit, dass Daten absichtlich verwendet werden, um Diskriminierung, Voreingenommenheit und ungerechte Ergebnisse aufrechtzuerhalten

"Was als menschliche Voreingenommenheit beginnt, wird zu einer algorithmischen Voreingenommenheit", erklärt Gartner. Im Jahr 2019 wurde algorithmische Voreingenommenheit von Harvard-Forschern als die Anwendung eines Algorithmus definiert, der bestehende Ungleichheiten in Bezug auf den sozioökonomischen Status, die Ethnie, den ethnischen Hintergrund, die Religion, das Geschlecht, eine Behinderung oder die sexuelle Orientierung verstärkt und Ungleichheiten in den Gesundheitssystemen noch vergrößert. Gartner erläuterte außerdem vier Arten von algorithmischer Voreingenommenheit:

  • Verstärkte VerzerrungSystembedingte oder unbeabsichtigte Verzerrung bei der Verarbeitung von Daten, die beim training Algorithmen fürMaschinelles Lernen verwendet werden.
  • Algorithmus-Transparenz:Die Blackboxen der Endnutzerdaten, ob intrinsisch oder absichtlich, geben Anlass zur Sorge über die Integrität der Entscheidungsfindung.
  • Entmenschlichte ProzesseDie Ansichten über die Ersetzung menschlicher Intelligenz durch ML und KI sind stark polarisiert, insbesondere wenn es darum geht, kritische, lebensverändernde Entscheidungen zu treffen.
  • Rechenschaftspflicht bei Entscheidungen: Es besteht ein Mangel an ausreichender Berichterstattung und Rechenschaftspflicht von Organisationen, die Data Science nutzen, um Strategien zur Verringerung von Voreingenommenheit und Diskriminierung zu entwickeln.

Eine Studie von Pew Research ergab, dass 58 % der Amerikaner der Meinung sind, dass Computerprogramme immer ein gewisses Maß an menschlicher Voreingenommenheit widerspiegeln werden - obwohl 40 % der Meinung sind, dass diese Programme so konzipiert werden können, dass sie frei von Voreingenommenheit sind. Dies mag zutreffen, wenn Sie Daten über Lieferungen in einer supply chain oder Lagerbestände betrachten, die vorhersagen, wann Ihr Auto einen Ölwechsel benötigt, aber menschliche Demografie, Verhaltensweisen und Vorlieben können fließend sein und sich aufgrund von Datenpunkten ändern, die in den analysierten Datensätzen möglicherweise nicht enthalten sind.

Chief Data and Analytics Officers und Entscheidungsträger müssen sich selbst herausfordern, indem sie die Vermeidung von Verzerrungen in ihre Datenverarbeitungsalgorithmen einbauen. Das ist leichter gesagt als getan, wenn man bedenkt, wie viele Daten viele Unternehmen verarbeiten, um ihre Geschäftsziele zu erreichen.

Die hohen Kosten der Voreingenommenheit

Die Entdeckung von Datenunterschieden und algorithmischen Manipulationen zur Bevorzugung bestimmter Gruppen und zur Zurückweisung anderer hat schwerwiegende Folgen. Aufgrund der schwerwiegenden Auswirkungen von Voreingenommenheit in Big Data räumen immer mehr Unternehmen der Eindämmung von Voreingenommenheit in ihrem Betrieb Priorität ein. InformationWeek führte eine Umfrage über die Auswirkungen von KI-Voreingenommenheit auf Unternehmen durch, die schlechte Algorithmen verwenden. Es zeigte sich, dass Voreingenommenheit mit dem Geschlecht, dem Alter, der Ethnie, der sexuellen Orientierung und der Religion zusammenhängt. In Bezug auf die Schäden für die Unternehmen selbst, sie enthalten:

  • Verlorene Einnahmen (62%).
  • Verlorene Kunden (61%).
  • Verlorene Mitarbeiter (43%).
  • Zahlung von Anwaltskosten aufgrund von Klagen und Gerichtsverfahren gegen sie (35 %).
  • Schädigung des Rufs ihrer Marke und Medienecho (6 %).

Bias in Big Data beseitigen

Die Regulierung von Voreingenommenheit und anderen Problemen, die durch den Einsatz von KI oder minderwertige Daten entstehen, befindet sich in unterschiedlichen Entwicklungsstadien, je nachdem, wo auf der Welt man sich befindet. In der EU zum Beispiel ist ein Gesetz über künstliche Intelligenz in Arbeit, das KI-Voreingenommenheit identifizieren, analysieren und regulieren soll.

Der wirkliche Wandel beginnt jedoch bei den Unternehmensführern, die bereit sind, sich die Arbeit zu machen, um sicherzustellen, dass Diversität und verantwortungsvolle Nutzung und Governance im Vordergrund ihrer Datennutzung und -richtlinien stehen. "Führungskräfte im Bereich Daten und Analysen müssen verantwortungsvolle KI und die messbaren Elemente dieser Hierarchie verstehen - Erkennung und Abschwächung von Verzerrungen, Erklärbarkeit und Interpretierbarkeit", so Gartner erklärt. Die Beachtung dieser Elemente unterstützt einen abgerundeten Ansatz zur Erkennung, Lösung und Vermeidung von Problemen im Zusammenhang mit Verzerrungen in der Data Analytics.

Wird dem Aufbau von Vertrauen in der Öffentlichkeit nicht genügend Aufmerksamkeit geschenkt, kann dies für datenabhängige Organisationen sehr nachteilig sein. Implementieren Sie diese Strategien in Ihrem Unternehmen als Grundlage für den verantwortungsvollen Einsatz von Data Science :

  • Informieren Sie Stakeholder, Mitarbeiter und Kunden über die ethische Nutzung von Daten, einschließlich Grenzen, Möglichkeiten und verantwortungsvolle KI.
  • Einführung eines Prozesses zur kontinuierlichen Überprüfung von Vorurteilen mit interdisziplinären Überprüfungsteams, die potenzielle Verzerrungen und ethische Probleme mit dem algorithmischen Modell aufdecken.
  • Mandatierung menschlicher Eingriffe entlang des Entscheidungsfindung bei der Verarbeitung kritischer Daten.
  • Förderung der Zusammenarbeit mit staatlichen, privaten und öffentlichen Einrichtungen, Vordenkern und Verbänden in Bezug auf die Einhaltung aktueller und künftiger Vorschriften sowie die Planung und Förderung der Ausbildung in Bereichen, in denen häufig Vorurteile bestehen.

Um Verzerrungen in big data zu minimieren, muss man einen Schritt zurücktreten, um herauszufinden, wie sie entstehen, und Präventivmaßnahmen und Strategien entwickeln, die wirksam und skalierbar sind. Die Lösung muss vielleicht so groß sein wie big data , um die heute vorhandenen und in Zukunft sicherlich zunehmenden Unzulänglichkeiten erfolgreich zu überwinden. Diese Strategien sind ein effektiver Weg, um auf dem Laufenden zu bleiben, den Erfolg zu messen und mit den richtigen Ressourcen in Verbindung zu treten, um aktuelle und künftige algorithmische und analytikbasierte Verzerrungen zu verringern.

Zusätzliche Ressourcen:

actian avatar logo

Über Actian Corporation

Actian macht Daten einfach. Unsere Datenplattform vereinfacht die Verbindung, Verwaltung und Analyse von Daten in Cloud-, Hybrid- und lokalen Umgebungen. Mit jahrzehntelanger Erfahrung in den Bereichen Datenmanagement und -analyse liefert Actian leistungsstarke Lösungen, die es Unternehmen ermöglichen, datengesteuerte Entscheidungen zu treffen. Actian wird von führenden Analysten anerkannt und wurde für seine Leistung und Innovation mit Branchenpreisen ausgezeichnet. Unsere Teams präsentieren bewährte Anwendungsfälle auf Konferenzen (z. B. Strata Data) und tragen zu Open-Source-Projekten bei. Im ActianBlog behandeln wir Themen wie Echtzeit-Dateneingabe, Datenanalyse, Data Governance, Datenmanagement, Datenqualität, Datenintelligenz und KI-gesteuerte Analysen.