Das Wachstum der social media die Weiterentwicklung der Mobiltechnologie haben zu einer exponentiellen Zunahme der Möglichkeiten geführt, Informationen zu erstellen und zu teilen. Fortschrittliche Datentools wie KI und data science werden zunehmend als Lösung für die Verarbeitung und Analyse dieser Daten eingesetzt. Künstliche Intelligenz (KI) verbindet Informatik mit robusten Datensätzen und Modellen, um die automatisierte Problemlösung zu ermöglichen. Modelle Maschinelles Lernen ML), einem Teilgebiet der KI, das statistische Verfahren nutzt, mit denen Computer ohne explizite Programmierung lernen können, verwenden Dateneingaben, um trainieren und Reaktionen für Nutzer trainieren . Diese Daten werden genutzt, um wichtige Entscheidungen in Bezug auf Regierungsstrategien, den Anspruch auf Sozialleistungen, medizinische Versorgung, Beschäftigung, Versicherungen und Bonitätsbewertungen zu treffen.  

Als eines der größten Technologieunternehmen der Welt setzt Amazon Web Services (AWS) in hohem Maße auf KI und ML als Lösung für die Speicherung, Verarbeitung und Analyse von Daten. Doch im Jahr 2015 stellten sie trotz ihrer Größe und technischen Raffinesse fest, eine Verzerrung in seinem Einstellungsalgorithmus. Dieser war so voreingenommen, dass er Männer bevorzugte, da der zugrunde liegende Datensatz auf Bewerbern der letzten 10 Jahre basierte, in dem Männer deutlich stärker vertreten waren als Frauen. 

In einem Algorithmus wurde eine Verzerrung festgestellt COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) festgestellt, der von US-Gerichten zur Vorhersage der Rückfallquote von Straftätern verwendet wird. Die verwendeten Daten, das gewählte Modell und der eingesetzte Algorithmus zeigten insgesamt, dass er bei fast der Hälfte (45 %) der afroamerikanischen Straftäter im Vergleich zu weiß-amerikanischen Straftätern (23 %) zu falsch-positiven Ergebnissen führte. 

Ohne Protokolle und Vorschriften zur Durchsetzung von Kontrollmechanismen für den verantwortungsvollen Einsatz von künstlicher Intelligenz und ML wird sich die Gesellschaft auf eine schiefe Ebene begeben, die mit Voreingenommenheit aufgrund von sozioökonomischer Klasse, Geschlecht, Ethnie und sogar dem Zugang zu Technologie verbunden ist. Wenn es keine sauberen Daten gibt, können Algorithmen inhärent einfach durch die Verwendung von ungenauen, unvollständigen oder schlecht strukturierten Datensätzen zu Verzerrungen führen. Um Voreingenommenheit zu vermeiden, muss zunächst die Qualität des Datensatz genau bewertet werden, und das sollte der Fall sein:

  • Sauber und konsequent.
  • Repräsentativ für eine ausgewogene Datenstichprobe.
  • Klar strukturiert und durch faire Governance-Regeln und deren Durchsetzung definiert.

Definition von AI Data Bias

Das Problem bei der Nutzung künstlicher Intelligenz zur Entscheidungsfindung besteht darin, dass Vorurteile auftreten und sich auswirken können, was zu erheblichen Ungleichheiten bei schutzbedürftigen Gruppen und benachteiligten Bevölkerungsgruppen führt. Ein Teil des Problems liegt in der Datenmenge und den Verarbeitungsmethoden von Big Data, doch besteht auch die Gefahr, dass Daten bewusst dazu genutzt werden, Diskriminierung, Vorurteile und ungerechte Ergebnisse zu zementieren. 

"Was als menschliche Voreingenommenheit beginnt, wird zu einer algorithmischen Voreingenommenheit", erklärt Gartner. Im Jahr 2019 wurde algorithmische Voreingenommenheit von Harvard-Forschern als die Anwendung eines Algorithmus definiert, der bestehende Ungleichheiten in Bezug auf den sozioökonomischen Status, die Ethnie, den ethnischen Hintergrund, die Religion, das Geschlecht, eine Behinderung oder die sexuelle Orientierung verstärkt und Ungleichheiten in den Gesundheitssystemen noch vergrößert. Gartner erläuterte außerdem vier Arten von algorithmischer Voreingenommenheit:

  • Verstärkte VerzerrungSystembedingte oder unbeabsichtigte Verzerrungen bei der Verarbeitung von Daten, die für die Algorithmen desMaschinelles Lernen verwendet werden.
  • Algorithmus-Transparenz: Die Blackboxen der Nutzer , ob intrinsisch oder absichtlich, geben Anlass zur Sorge über die Integrität der Entscheidungsfindung.
  • Entmenschlichte ProzesseDie Ansichten über die Ersetzung menschlicher Intelligenz durch ML und KI sind stark polarisiert, insbesondere wenn es darum geht, kritische, lebensverändernde Entscheidungen zu treffen.
  • Rechenschaftspflicht bei Entscheidungen: Es besteht ein Mangel an ausreichender Berichterstattung und Rechenschaftspflicht von Organisationen, die Data Science nutzen, um Strategien zur Verringerung von Voreingenommenheit und Diskriminierung zu entwickeln.

Eine Studie von Pew Research ergab, dass 58 % der Amerikaner der Meinung sind, dass Computerprogramme immer ein gewisses Maß an menschlicher Voreingenommenheit widerspiegeln werden - obwohl 40 % der Meinung sind, dass diese Programme so konzipiert werden können, dass sie frei von Voreingenommenheit sind. Dies mag zutreffen, wenn Sie Daten über Lieferungen in einer supply chain oder Lagerbestände betrachten, die vorhersagen, wann Ihr Auto einen Ölwechsel benötigt, aber menschliche Demografie, Verhaltensweisen und Vorlieben können fließend sein und sich aufgrund von Datenpunkten ändern, die in den analysierten Datensätzen möglicherweise nicht enthalten sind.

Chief Data and Analytics Officers und Entscheidungsträger müssen sich selbst herausfordern, indem sie die Vermeidung von Verzerrungen in ihre Datenverarbeitungsalgorithmen einbauen. Das ist leichter gesagt als getan, wenn man bedenkt, wie viele Daten viele Unternehmen verarbeiten, um ihre Geschäftsziele zu erreichen.

Die hohen Kosten der Voreingenommenheit

Die Entdeckung von Datenunterschieden und algorithmischen Manipulationen zur Bevorzugung bestimmter Gruppen und zur Zurückweisung anderer hat schwerwiegende Folgen. Aufgrund der schwerwiegenden Auswirkungen von Voreingenommenheit in Big Data räumen immer mehr Unternehmen der Eindämmung von Voreingenommenheit in ihrem Betrieb Priorität ein. InformationWeek führte eine Umfrage über die Auswirkungen von KI-Voreingenommenheit auf Unternehmen durch, die schlechte Algorithmen verwenden. Es zeigte sich, dass Voreingenommenheit mit dem Geschlecht, dem Alter, der Ethnie, der sexuellen Orientierung und der Religion zusammenhängt. In Bezug auf die Schäden für die Unternehmen selbst, sie enthalten:

  • Verlorene Einnahmen (62%).
  • Verlorene Kunden (61%).
  • Verlorene Mitarbeiter (43%).
  • Zahlung von Anwaltskosten aufgrund von Klagen und Gerichtsverfahren gegen sie (35 %).
  • Schädigung des Rufs ihrer Marke und Medienecho (6 %).

Bias in Big Data beseitigen

Die Regulierung von Voreingenommenheit und anderen Problemen, die durch den Einsatz von KI oder minderwertige Daten entstehen, befindet sich in unterschiedlichen Entwicklungsstadien, je nachdem, wo auf der Welt man sich befindet. In der EU zum Beispiel ist ein Gesetz über künstliche Intelligenz in Arbeit, das KI-Voreingenommenheit identifizieren, analysieren und regulieren soll.

Der wirkliche Wandel beginnt jedoch bei den Unternehmensführern, die bereit sind, sich die Arbeit zu machen, um sicherzustellen, dass Diversität und verantwortungsvolle Nutzung und Governance im Vordergrund ihrer Datennutzung und -richtlinien stehen. "Führungskräfte im Bereich Daten und Analysen müssen verantwortungsvolle KI und die messbaren Elemente dieser Hierarchie verstehen - Erkennung und Abschwächung von Verzerrungen, Erklärbarkeit und Interpretierbarkeit", so Gartner erklärt. Die Beachtung dieser Elemente unterstützt einen abgerundeten Ansatz zur Erkennung, Lösung und Vermeidung von Problemen im Zusammenhang mit Verzerrungen in der Data Analytics.

Wird dem Aufbau von Vertrauen in der Öffentlichkeit nicht genügend Aufmerksamkeit geschenkt, kann dies für datenabhängige Organisationen sehr nachteilig sein. Implementieren Sie diese Strategien in Ihrem Unternehmen als Grundlage für den verantwortungsvollen Einsatz von Data Science :

  • Informieren Sie Stakeholder, Mitarbeiter und Kunden über die ethische Nutzung von Daten, einschließlich Grenzen, Möglichkeiten und verantwortungsvolle KI.
  • Einführung eines Prozesses zur kontinuierlichen Überprüfung von Vorurteilen mit interdisziplinären Überprüfungsteams, die potenzielle Verzerrungen und ethische Probleme mit dem algorithmischen Modell aufdecken.
  • Mandatierung menschlicher Eingriffe entlang des Entscheidungsfindung bei der Verarbeitung kritischer Daten.
  • Förderung der Zusammenarbeit mit staatlichen, privaten und öffentlichen Einrichtungen, Vordenkern und Verbänden in Bezug auf die Einhaltung aktueller und künftiger Vorschriften sowie die Planung und Förderung der Ausbildung in Bereichen, in denen häufig Vorurteile bestehen.

Um Verzerrungen in Big Data zu minimieren, muss man einen Schritt zurücktreten, um herauszufinden, wie sie entstehen, und Präventivmaßnahmen und Strategien entwickeln, die wirksam und skalierbar sind. Die Lösung muss vielleicht so groß sein wie Big Data , um die heute vorhandenen und in Zukunft sicherlich zunehmenden Unzulänglichkeiten erfolgreich zu überwinden. Diese Strategien sind ein effektiver Weg, um auf dem Laufenden zu bleiben, den Erfolg zu messen und sich mit den richtigen Ressourcen zu verbinden, um aktuelle und künftige algorithmische und analytikbasierte Verzerrungen zu vermeiden.

Zusätzliche Ressourcen: