Im Whitepaper der integratio werden die Ursachen für die Entstehung, Reproduktion und Verstärkung von Diskriminierung und Bias durch KI-Systeme in Augenschein genommen und Aspekte des Datenschutzes und der Regulierung betrachtet.
Künstliche Intelligenz (KI) hält zunehmend Einzug im Alltag in allen Bereichen. Dies kann im beruflichen Umfeld sein, wie im Falle von automatisierten Bewerbungsprozessen, prädikativer Ermittlungsarbeit und algorithmischen Entscheidungssystemen für Versicherungen, für Finanzgeschäfte und Risikobewertungen. Aber auch direkt vor unseren Augen im Privaten haben wir in immer mehr Fällen damit zu tun. Beispiele hierfür wären Gesichtserkennungssysteme von Smartphones, Sprachassistenten wie Siri und Alexa, Autokorrektursysteme, Empfehlungssysteme von Streamingdiensten, die Navigation mit Google Maps oder personalisierte Werbung.
Eine Künstliche Intelligenz wertet Informationen in all diesen Fällen unter anderem aufgrund ihr vorgelegter Trainingsdaten aus. Sind Trainingsdaten nicht repräsentativ, von schlechter Qualität, nicht in ausreichender Menge vorliegend oder beinhalten diese Unwahrheiten, dann kann dies eine Ursache für erhebliche Probleme bei der Anwendung von Künstlicher Intelligenz sein, sei dies nun in Form von Verzerrungen (Bias) oder Diskriminierung.
Geht es um den sozialen Hintergrund, läuft man bei der Nutzung Künstlicher Intelligenzen Gefahr, bestehende gesellschaftliche Probleme wie Ungleichheiten, bis hin zu Diskriminierung und Rassismus, nicht nur zu reproduzieren, sondern im gravierenden Fall noch zu verstärken. Dies betrifft dann nicht mehr nur das Individuum, sondern damit einhergehend können Künstliche Intelligenzen die politische und gesellschaftliche Meinungsbildung oder das Informationsökosystem beeinflussen.
Zunehmend sollte also die Verteilung von Rollen und Verantwortung im Falle der KI-Anwendung beleuchtet werden. Welche Verantwortung tragen Hersteller, Betreiber, Anwender und Nutzer:innen einer KI? Wie können sich diese Akteure aber auch schützen – sowohl in der Entwicklung, wie auch nach der Implementierung und während der Nutzung einer Anwendung?
Links:
Whitepaper integratio_Whitepaper_Bias durch Künstliche Intelligenz
https://integratio.com/de/wp-content/uploads/2026/01/integratio_Whitepaper_Bias-durch-Kuenstliche-Intelligenz.pdf
Autor: Dominic Baumann, Politologe und Soziologe – Master of Arts
Veröffentlicht am 10. März 2025

