top of page
  • Instagram
  • Weißes Xing
  • LinkedIn

KI im HR – Tool oder Trojanisches Pferd? 

  • slehner4
  • 18. Juli
  • 2 Min. Lesezeit

Aktualisiert: 20. Juli

„Künstliche Intelligenz soll unsere Arbeit erleichtern – aber was, wenn sie uns heimlich steuert?“


ree

Wir sprechen über KI in HR oft wie über einen Zauberstab: effizient, objektiv, zukunftsweisend. Doch wer genau hinsieht, erkennt: Dieses Tool ist nicht neutral. Es denkt nicht, es reproduziert – und oft klont es unbewusst die Vorurteile der Vergangenheit.


Die KI lügt nicht – sie wiederholt nur

Algorithmen bewerten Lebensläufe, führen Videointerviews, analysieren Sprachmuster. Viele Unternehmen vertrauen inzwischen auf automatisierte Prozesse, um schneller und vermeintlich objektiver Talente auszuwählen. Doch was, wenn die KI dieselben Muster bevorzugt wie wir – nur schneller?


Eine Analyse der MIT Media Lab ergab, dass viele KI-Systeme, die auf historische Bewerberdaten trainiert wurden, systematisch Frauen, PoC und Menschen mit Lücken im Lebenslauf benachteiligen (Buolamwini & Gebru, 2018). Warum? Weil sie historische Daten übernehmen – und damit historische Diskriminierung fortschreiben.


Der neue Bias: unbewusst, automatisiert, skaliert

Ein aktueller Trend in deutschen HR-Abteilungen ist die Nutzung von sogenannten „People Analytics“-Systemen. Sie versprechen bessere Entscheidungen durch Daten. Was dabei übersehen wird: Auch der Bias der Führungskräfte wandert oft stillschweigend in die Datenmodelle – und wird dort automatisiert reproduziert.


🧠 Neue Erkenntnis: Unternehmen, die KI einsetzen, sollten nicht nur die Systeme trainieren – sondern ihre Führungskräfte. Nur wer die eigene kognitive Verzerrung erkennt, kann den blinden Fleck im Algorithmus aufdecken (Lenso AI, 2025).


Und was ist die Alternative?

  • Schulung von Hiring-Managern in algorithmischer Fairness

  • Transparenzpflicht bei KI-gestützten Auswahlprozessen (vgl. EU AI Act, 2024)

  • Einführung von KI-Ethikboards im Unternehmen

  • Kombination von algorithmischer Vorselektion mit humaner Reflexion


Denn die Frage ist nicht: Wird KI das Recruiting übernehmen?

Sondern: Wer übernimmt Verantwortung, wenn sie es tut?


Der blinde Fleck in deutschen Unternehmen

Laut einer aktuellen Studie von StepStone (2025) nutzen bereits über 30 % der Unternehmen KI im Recruiting. Doch nur 8 % prüfen systematisch auf Fairness, Verzerrung oder Diskriminierungsrisiken. Das bedeutet: Der Fortschritt überholt den Diskurs – und die Risiken überholen die Verantwortung.


Fazit: KI ist kein Heilsbringer – sie ist ein Spiegel

Wenn wir KI unkritisch einsetzen, zeigt sie uns vor allem eines: wie wir denken, filtern und bewerten. Der Weg nach vorn ist daher nicht Verzicht, sondern Bewusstheit. KI kann ein starkes Werkzeug sein – aber nur, wenn wir wissen, wie es funktioniert. Und vor allem: wie wir es verantwortungsvoll einsetzen.


Was denkst du: Braucht KI in HR striktere Regeln – oder bessere Menschen?



Quellen:

  • Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81, 1–15.

  • Lenso AI. (2025). KI im Recruiting: Zwischen Bias und Balance. Abgerufen von https://lenso.ai

  • StepStone. (2025). HR Trends Report: Künstliche Intelligenz und Fairness im Recruiting. Düsseldorf: StepStone Deutschland GmbH.

  • Europäische Kommission. (2024). AI Act – Verordnung über Künstliche Intelligenz. Abgerufen von https://ec.europa.eu/digital-strategy


 
 
 

Kommentare


bottom of page