Wie KI-Voreingenommenheit die Einführung behindert

6 Minuten lesen

Ursprünglich veröffentlicht auf itbrief.com.au

Künstliche Intelligenz (KI) hat bereits beträchtliche Auswirkungen auf Unternehmen aller Branchen, und es gibt keine Anzeichen dafür, dass ihr Einfluss nachlässt.

Es gibt nur wenige Bereiche, die noch nicht von der KI betroffen sind.

Während die Entwicklung und fortgesetzte Innovation im Bereich der KI der Wirtschaft und unserer Gesellschaft Vorteile bringen wird, ist es jedoch wichtig, dass mögliche Risiken angemessen gehandhabt werden, um eine Voreingenommenheit gegenüber der KI zu verhindern und eine verantwortungsvolle Weiterentwicklung der KI zu ermöglichen.

Untersuchungen von SnapLogic haben ergeben, dass die ethische und verantwortungsvolle Entwicklung von KI ein Hauptanliegen der IT-Führungskräfte ist. 94 % sind der Meinung, dass der unternehmerischen Verantwortung und Ethik bei der Anwendung von KI mehr Aufmerksamkeit geschenkt werden muss.

Aber nicht nur IT- und Wirtschaftsexperten machen sich Gedanken über KI.

Auch die Regierungen, die sich um die Umsetzung von KI-Strategien bemühen, machen deutlich, dass Transparenz und Verantwortung oberste Priorität haben werden.

Die Regierung von New South Wales kündigte kürzlich an, dass sie im März 2020 ihre KI-Strategie vorstellen wird, und versprach, dass Transparenz ganz oben auf der Agenda stehen wird.

Es steht außer Frage, dass die Erkenntnisse, die die KI bietet, von großem Nutzen sein können, aber wir müssen auch ihre Grenzen erkennen, wenn es darum geht, perfekte Antworten zu geben.

Bedenken hinsichtlich der Datenqualität, der Sicherheit und des Datenschutzes sind real, und solange diese nicht ausgeräumt sind, wird die Debatte über die KI-Regulierung weitergehen.

Was bremst die KI?
KI-Voreingenommenheit ist eine wichtige Hürde, die es zu überwinden gilt. Sie tritt auf, wenn ein Algorithmus aufgrund falscher Annahmen im Entwicklungsprozess voreingenommene Ergebnisse liefert.

Die Voreingenommenheit der KI ist oft durch die unbewussten Präferenzen der Menschen, die das Programm erstellen oder die Trainingsdaten auswählen, "eingebaut".

Probleme können auch während des gesamten Prozesses auftreten, z. B. in der Phase der Datenerhebung, wo Gewichtungsverfahren zu falschen Schlussfolgerungen über bestimmte Datensätze führen können.

Voreingenommenheit ist ein echtes Problem, da wir zunehmend auf KI angewiesen sind, und wir haben bereits Rechtsfälle erlebt, in denen Gruppen die Offenlegung der Art und Weise erzwungen haben, wie algorithmische Prozesse Entscheidungen treffen.

Ein Beispiel hierfür waren Lehrer, die keine Leistungsprämien erhielten.

Sie gewannen Schadensersatz, als sich herausstellte, dass der Algorithmus zur Beurteilung der Anspruchsberechtigung für den Bonus die Klassengröße nicht berücksichtigte - ein Faktor, der sich als äußerst wichtig für die Leistungen der Schüler erwiesen hat.

Solange die Voreingenommenheit der KI nicht angegangen und beseitigt wird, ist damit zu rechnen, dass das Vertrauen der Öffentlichkeit in die KI ein Problem bleiben wird und möglicherweise mehr Rechtsfälle auftreten werden, da Unternehmen und Einzelpersonen vollständige Transparenz darüber anstreben, wie die KI Entscheidungen trifft.

Wo schleichen sich Vorurteile in KI-Prozesse ein?
Die Schwierigkeit bei KI-Voreingenommenheit besteht darin, dass es schwierig sein kann, genau zu bestimmen, wo sie in das System gelangt. Voreingenommenheit kann in jeder Phase des Lernprozesses entstehen und bezieht sich nicht immer nur auf die Trainingsdaten - sie kann auch beim Sammeln von Daten, bei der Festlegung von Zielen oder bei der Vorbereitung der Daten für das Training oder den Betrieb entstehen.

Der anfängliche Prozess des Sammelns, Auswählens und Bereinigens von Daten ist häufig mit KI-Voreingenommenheit verbunden.

In dieser frühen Phase kann es zu Verzerrungen kommen, wenn Datenausreißer als irrelevant angesehen und nicht gründlich geprüft werden, so dass versehentlich Vorurteile eingeführt werden können.

Dies kann dazu führen, dass bestimmte Faktoren, wie z. B. das Geschlecht, fälschlicherweise von der KI bevorzugt werden.

Wenn beispielsweise ein erfolgreiches, von Männern dominiertes Unternehmen KI zur Überprüfung von Bewerbern einsetzt und die KI auf den Lebensläufen und Beschäftigungsdaten aktueller Mitarbeiter trainiert wird, ist es wahrscheinlich, dass sie eine Tendenz zu Männern entwickelt.

Es kann weibliche Bewerberinnen bei Vorstellungsgesprächen unberücksichtigt lassen, da sie nicht in das Erfolgsmuster des Unternehmens passen, wie es derzeit besteht.

Hier ist Vorsicht geboten, da eine einfache Lösung wie das Entfernen des Geschlechts der Mitarbeiter aus den Schulungsdaten möglicherweise nicht funktioniert.

Stattdessen kann der KI-Algorithmus beispielsweise Muster von männlich dominierten Hobbys als Indikatoren für erwünschte Mitarbeiter erkennen.

Auch bei der Festlegung der Ziele für ein Deep-Learning-Modell kann es zu Verzerrungen kommen. Diejenigen, die für den Prozess zuständig sind, können dies jedoch verhindern, indem sie kontextbezogene Ziele festlegen, damit die Empfehlungen korrekt generiert werden.

Schließlich können auch in der Phase, in der die Daten für die Verarbeitung vorbereitet werden, Verzerrungen auftreten.

Dies führt oft dazu, dass bestimmte Attribute für die Algorithmen gegenüber anderen bevorzugt werden.

Es ist unbedingt erforderlich, dass dieser Schritt genau durchgeführt wird, da die Entscheidung, welche Attribute berücksichtigt oder ignoriert werden sollen, einen erheblichen Einfluss auf die Genauigkeit der Ergebnisse hat.

Die Entwicklung einer Datenpipeline, die mit Ausnahmen umgehen kann, ist von entscheidender Bedeutung, um sicherzustellen, dass genügend Daten für gute Schulungsergebnisse vorhanden sind.

Wenn wir nicht genau wissen, woher die Voreingenommenheit der KI kommt, wie können wir sie dann verhindern?

IT- und Unternehmensentscheider müssen sich möglicher Voreingenommenheit bewusst sein und wissen, wie KI so eingesetzt werden kann, dass sie nicht gefördert oder versehentlich eingeführt werden kann.

Testen ist das A und O. Oft werden Fehler erst entdeckt, wenn ein System in Betrieb genommen wird, und dann ist es viel schwieriger, das Problem zu beheben.

Es ist für die Genauigkeit und den Erfolg des Systems von entscheidender Bedeutung, dass es während seiner Entwicklung anhand der Erwartungen getestet wird und dass eine Vielzahl von Interessengruppen in die Bewertung einbezogen wird.

Fortschritte bei der Bekämpfung der Wahrscheinlichkeit von Vorurteilen
Bei der Untersuchung der Ursachen von Vorurteilen wird häufig festgestellt, dass menschliches Engagement, das in die zugrunde liegenden Systeme einfließt, für die Entstehung von Vorurteilen verantwortlich ist.

Sobald dies jedoch erkannt und behoben ist, sollten die Entwickler auch die zugrunde liegenden Daten überprüfen, um zu bestätigen, dass sie für alle Faktoren, die in die Geschäftsentscheidung einfließen könnten, vollständig repräsentativ sind. In dieser Hinsicht wurden viele Entwicklungen gemacht - es gibt jetzt Algorithmen, die Verzerrungen wirksam erkennen und reduzieren können, was ein wichtiger Schritt in die richtige Richtung ist.

Die GDPR-Verordnung der Europäischen Union ist ein Beispiel für den Versuch der Regierung, die negativen Auswirkungen von KI-Voreingenommenheit zu verhindern.

Die Datenschutz-Grundverordnung gibt den Verbrauchern das Recht, eine Erklärung darüber zu erhalten, wie automatische Entscheidungen auf der Grundlage ihrer Daten getroffen wurden.

Sie schützt auch die Verbraucher, da die KI und die verschiedenen Methoden der Profilerstellung, für die sie eingesetzt wird, nicht als alleiniger Entscheidungsträger für Entscheidungen verwendet werden dürfen, die erhebliche Auswirkungen auf die Rechte oder Freiheiten des Einzelnen haben können.

KI allein kann zum Beispiel nicht entscheiden, ob jemand für einen Bankkredit in Frage kommt.

Vorantreiben datenorientierter Ansätze
Da die Industrie versucht, die potenziellen Risiken zu verringern, damit KI verantwortungsvoll weiterentwickelt werden kann, ist es von größter Bedeutung, dass KI-gestützte Ergebnisse globale, vielfältige Daten widerspiegeln.

Es gibt berechtigte Bedenken, dass KI-Entscheidungen oft die Vorurteile der Kulturen der ersten Welt widerspiegeln, die sich gegen die weniger Wohlhabenden in der Gesellschaft richten.

Um dem entgegenzuwirken, müssen die Entwickler dafür sorgen, dass Inputs aus breiteren, globalisierten und vielfältigen Daten einbezogen werden.

Darüber hinaus kann die Entwicklung von KI-Modellen auf der Grundlage von Originaldaten dazu beitragen, Voreingenommenheit zu vermeiden, da mehr Ideen und tatsächliche Erkenntnisse in die KI-Systeme einfließen und diese somit Erkenntnisse liefern können, die über die typische Perspektive der ersten Welt hinausgehen.

Durch diesen datengesteuerten Ansatz würden die KI-Systeme auch wesentlich flexibler und reaktionsfähiger werden und umfassenderen und vielfältigeren globalen Erwägungen ausgesetzt sein.

Ein datengesteuerter Ansatz ist definitiv der Weg in die Zukunft, aber um dies zu ermöglichen, ist es wichtig, dass der Schwerpunkt auf der Entwicklung von Systemen liegt, die Datensilos aufbrechen, eine nahtlose Datenintegration ermöglichen und einen konsistenten Datenzugriff und Informationsfluss gewährleisten.

Dies ist auch ohne erfahrene Softwareentwickler möglich, da es auf dem Markt intuitive Self-Service-Tools gibt, die große Datenmengen zwischen verschiedenen Systemen integrieren können.

Daten sind der Schlüssel für jedes KI-System, und letztlich muss es Vorschriften geben, die vor Voreingenommenheit schützen, aber auch einen kontinuierlichen Datenzugang und Informationsfluss ermöglichen.

Je mehr Entscheidungen aufgrund falscher Daten und vorurteilsbehafteter Annahmen getroffen werden, desto schwieriger wird es für die KI sein, weiterhin Innovationen und Fortschritte zu erzielen.

Diejenigen, die in den Zugang zu einem breiten und vielfältigen Datenpool investieren, werden am meisten davon profitieren, indem sie den wahren Wert von KI erkennen und verhindern, dass Entscheidungen durch Voreingenommenheit beeinflusst werden.

Leitender Lösungsingenieur bei SnapLogic

Wir stellen ein!

Entdecken Sie Ihre nächste große Karrierechance.