digital_it_16x12.jpg

Unternehmen müssen ihre Daten analysieren, bevor sie einen Algorithmus ausführen.

29 märz Min.

Künstliche Intelligenz (KI) wird für Unternehmen und Verbraucher immer bedeutender. Doch hierbei geht es um weit mehr als nur um Technologie. Laut Natasja van de L'Isle, Data Science Consultant bei TMC, können die Ergebnisse von KI-Systemen aufgrund verschiedener Ursachen voreingenommen sein, was möglicherweise enorme Folgen haben kann. KI-Systeme sind nicht immer objektiv, auch in den Niederlanden. „Voreingenommenheit in Daten kann ein Problem sein, genauso wie falsches Training oder fehlerhafte Evaluierung.“

Heutzutage findet man Algorithmen überall. Sie bestimmen die Suchergebnisse bei Google und das, was man in sozialen Medien sieht. Doch Algorithmen werden auch häufig in anderen Bereichen und Service Areas eingesetzt. Zum Beispiel bei Sicherheitssystemen in Geschäften, bei Überprüfungen an Selbstbedienungskassen und bei Online-Kreditprüfungen.

Ein Algorithmus ist ein Stück Code, um ein Problem zu lösen, und kann selbstlernend sein. Die Daten werden in den Algorithmus eingespeist, der daraufhin ein Ergebnis liefert. Es handelt sich um künstliche Intelligenz, wenn diese Algorithmen unabhängige Entscheidungen basierend auf Daten oder Signalen aus ihrer Umgebung treffen und aus diesen lernen. Allerdings lernen Algorithmen basierend auf dem, was Menschen in sie einbringen. „Wenn Daten bewusste oder unbewusste Vorurteile enthalten, wird der Algorithmus diese in das Ergebnis einfließen lassen. Daten können Vorurteile in Bezug auf Geschlecht, Alter, ethnische Herkunft oder Wohnort enthalten. Nehmen wir als Beispiel die Auswahl von Bewerbern. Es ist wichtig zu prüfen, ob die Daten eine gute Darstellung der Zielgruppe bieten. Aber auch, wie dies im Verhältnis zur Gesellschaft insgesamt steht. Um Vorurteile zu vermeiden, sollten Unternehmen zunächst ihre Daten gründlich analysieren, bevor sie einen Algorithmus ausführen. Sie müssen den Kontext kennen, in dem die Daten erhoben wurden, damit deutlich wird, welche Schwachstellen die Daten aufweisen können.“

Objektive Bewertung

Mehrere Beispiele zeigen, dass dies nicht immer geschieht. In den Niederlanden führen zunehmend Unternehmen Bonitätsprüfungen für andere Organisationen durch. Die NS nutzt diesen Service. Mithilfe künstlicher Intelligenz prüft ein anderes Unternehmen, ob jemand einen OV- oder NS-Businesscard-Abonnement beantragen kann. Möchte jemand gegen das negative Ergebnis dieser Prüfung Einspruch erheben, kann dies nur bei dem Unternehmen geschehen, das die Prüfungen durchführt. Die NS selbst übernimmt keine Verantwortung für das Ergebnis. Dies wurde aus mehreren Berichten über die Meldestelle des Verbraucherverbands „Dupe deiner Daten“ deutlich. Mehrere Personen konnten aufgrund dieser automatischen Bonitätsprüfung kein NS-Abonnement abschließen. „Eine Anfrage basiert nicht immer auf bezahlten Datenquellen wie BKR-Registrierungen. Oft genutzte Quellen sind die Handelskammer, Tages- und Wochenzeitungen, Inkassobüros und/oder Kunden, mit denen jemand eine (frühere) finanzielle Beziehung hatte, um nur einige Beispiele zu nennen. Dies könnte dazu führen, dass die Daten nicht immer korrekt oder aktuell sind und möglicherweise Informationen einer anderen Person enthalten. Das führt zu einem KI-System, das keine korrekten Schlussfolgerungen ziehen kann. Dennoch wird, ohne das Ergebnis zu überprüfen, davon ausgegangen, dass jemand nicht kreditwürdig ist.“

Messung von Vorurteilen und Fairness

„Wenn Sie mit KI-Anwendungen arbeiten, bei denen Menschen involviert sind, muss im Prozess eine zusätzliche Überprüfung stattfinden. Zudem ist es wichtig, nicht nur Daten, Algorithmen und künstliche Intelligenz korrekt zu verwenden, sondern auch die Daten zu trainieren. Andernfalls kann ein System unbewusst Vorurteile einbauen. Bei den Steuerbehörden wurde beispielsweise eine zweite Staatsangehörigkeit als offizielles Auswahlkriterium verwendet, um festzustellen, ob ein erhöhtes Betrugsrisiko bestand. Dadurch wurden Gruppen fälschlicherweise als ‚Betrüger‘ etikettiert. Mit verschiedenen Methoden können und sollten Sie die Vorurteile und die Fairness Ihrer Daten und Ergebnisse messen. Man weiß jedoch nicht immer, warum ein System eine bestimmte Vorhersage trifft. Und Sie möchten unbedingt verhindern, dass Dinge schiefgehen, wie im Fall der Zuschussaffäre. Dass sie so gehandelt haben, lag am Missbrauch von KI, einem fehlerhaften Algorithmusergebnis und mangelnder Kontrolle über das Ergebnis. Solange es um Menschen geht, müssen Überprüfungen stets von Menschen durchgeführt werden.“

Weitreichende Folgen

Für Unternehmen, die mit Algorithmen und künstlicher Intelligenz arbeiten, aber auch für Verbraucher, ist es wichtig zu verstehen, dass und wie Vorurteile in der KI entstehen. Insbesondere, wenn wir mit Daten arbeiten, die mit Ihren persönlichen Informationen verknüpft sind. Wir leben in einer Ära, in der Daten das neue Gold sind. Aber wenn Daten über Sie fehlerhaft sind oder auf falsche Weise verwendet werden, kann dies negative Auswirkungen haben. Mit weitreichenden Konsequenzen. „Wir sollten dem Ergebnis von Algorithmen nicht blind vertrauen, und es sollte eine Aufsicht über Unternehmen geben, die Algorithmen einsetzen. Besonders, wenn es um Menschen geht. Die Regierung muss dies zu einer Priorität machen, und Unternehmen müssen ihre Verantwortung erkennen und wahrnehmen. Auch Verbraucher müssen sich der Risiken bewusst sein. Zu verstehen, was ein Algorithmus macht und warum künstliche Intelligenz bestimmte Entscheidungen trifft, ist für alle wichtig!“

Durch die Einbindung von erklärbarer KI in den Algorithmus können bestimmte Entscheidungen erklärt werden. Darüber hinaus können mögliche Stärken und Schwächen einer solchen Entscheidung aufgezeigt werden. Wirkt eine Entscheidung (zu) voreingenommen? Dann kann sie geändert oder verbessert werden. Dies führt letztendlich zu einem besseren KI-System, von dem alle profitieren!

contactusattmc.png
Lassen Sie uns in Kontakt treten!

Bei Fragen an einer Zusammenarbeit können Sie uns jederzeit gerne kontaktieren.