„Die finale Entscheidung trifft ein Mensch, nicht die KI“
Durch künstliche Intelligenz (KI) sollen Auswahlprozesse schneller, effizienter und objektiver werden, zugleich könnte sie die Transparenz und Fairness beeinträchtigen. Wie KI verantwortungsvoll in der Personalauswahl eingesetzt werden kann und warum menschliches Urteilsvermögen unersetzlich bleibt, erläutert Prof. Dr. Matthias Ziegler im Interview.
Herr Ziegler, wie kann KI im Personalauswahlprozess eingesetzt werden?
Die Möglichkeiten sind zahlreich. Meist sehen wir KI als Teil des Assessments, indem sie Interviews führt, Verhaltensbeobachtungen vornimmt, Berichte schreibt oder Lebensläufe liest. Die Empirie zeigt, dass die KI vieles davon bereits ähnlich gut kann wie menschliche Beobachter*innen.
Oft übersehen wird, dass KI auch wertvolle „Hintergrundarbeit“ in der Personalauswahl leisten kann. Da sie gut darin ist, große Datenmengen zu strukturieren, kann sie z. B. analysieren, wer sich bei einem Unternehmen bewirbt, oder Bewerbungsunterlagen nach bestimmten Kriterien vorsortieren. Einige Unternehmen füttern die KI mit internen Informationen und programmieren z. B. einen Chatbot, der nicht wie andere Large Language Modelle auf das gesamte Internet zurückgreift, sondern nur auf die eigene Datenbank. Das ist beim Wissensmanagement sehr hilfreich.
Nicht zuletzt halte ich den Einsatz von KI in der Personalauswahl gerade in Zeiten des Fachkräftemangels für vielversprechend: Die KI kann individualisierte Lernpfade schätzen, die neuen Mitarbeiter*innen ein erfolgreiches Onboarding ermöglichen. So entsteht ein direkter Übergang zur Personalentwicklung.
Welche weiteren Vorteile bringt KI mit?
Zum einen ist sie schneller und verschafft uns somit einen Effizienzgewinn. Zum anderen ist ein Zuwachs an Fairness möglich. Zwar wird berechtigterweise oft kritisiert, dass eine KI biased sein kann, weil sie nur blind nach Mustern sucht. Allerdings kann man bei der KI einen Bias besser enttarnen und abstellen als bei so manchen menschlichen Urteiler*innen, was die Wahrscheinlichkeit erhöht, dass Bewerber*innen objektiv beurteilt werden.
Die KI soll die Personalauswahl nicht allein verantworten, das wäre aus guten Gründen – siehe EU AI Act – problematisch. Aber wenn menschliche Urteiler*innen und KI bei der Verhaltensbeobachtung ein Team bilden, kann das Ergebnis ebenso gut sein, wie wenn zwei Menschen eine Doppelbeobachtung vornehmen. In dieser Erkenntnis liegt viel Potenzial, allein schon in Bezug auf Effizienz und Kontrolle.
Ist es denn möglich, eine KI zu kontrollieren?
Wir wissen nicht genau, wie die KI funktioniert, auch wenn Expert*innen stetig daran arbeiten, diese Blackbox zu öffnen. Ein wichtiges Schlagwort ist daher interpretierbares Machine Learning oder Explainable AI. Bei diesen Ansätzen wird versucht, den „Gedankengang“ der KI nachzubauen. Man schaut beispielsweise, wo die KI hinguckt, wenn sie ein Video analysiert. Explainable AI ist noch nicht ausgereift, doch statistische Parameter wie Regressionsgewichte, die wir üblicherweise heranziehen, sind ebenfalls nicht unfehlbar. Solange wir nicht im Detail wissen, wie die KI arbeitet, braucht es umso mehr den Sachverstand menschlicher Urteiler*innen.

Im Gespräch mit Prof. Dr. Matthias Ziegler (Foto: privat).
Wie kann die Güte von KI-basierten Einschätzungen überprüft werden?
Mit der ganzen Bandbreite an statistischen und psychometrischen Evaluationsmöglichkeiten. Die statistischen Verfahren, die wir üblicherweise einsetzen, sind in der Regel korrelations- oder regressionsbasiert, d. h., sie gehen von linearen Zusammenhängen aus. Eine KI findet jedoch auch nicht-lineare Muster oder Interaktionen, wenn wir ihr genügend Daten zur Verfügung stellen, was ein großer Vorteil ist. Es kann sehr aufschlussreich sein, wenn wir z. B. sehen, dass bestimmte Aspekte in einem Auswahlprozess zwar als positiv bewertet werden, für die berufliche Leistung später jedoch gar nicht so bedeutend sind oder ihre Wirkung nur im Zusammenspiel mit anderen Eignungsmerkmalen entfalten.
Lässt das Rückschlüsse auf die Anforderungsprofile zu?
Ja, wir können daraus Implikationen für das Soll-Profil ableiten. Es ist jedoch wichtig zu betonen, dass es in der Regel um hypothesengenerierende Verfahren geht. Wir sollten diese Arbeit mit KI nicht den Data Scientists überlassen, denn um Ergebnisse korrekt zu interpretieren und eine KI adäquat zu briefen, braucht es ein sehr gutes Konstrukt- und Prozesswissen. Erkennt eine KI beispielsweise ein bestimmtes psychologisches Merkmal als guten Erfolgsprädiktor, wissen Psycholog*innen womöglich, dass es bei diesem Merkmal einen Geschlechts- oder Alterseffekt gibt, was die Frage aufwirft, ob es wirklich um das Konstrukt geht oder ob die KI nur diese versteckte Konfundierung entdeckt hat. An dieser Stelle sind Eignungsdiagnostiker*innen mit psychologischer Expertise essenziell, um KI-basierte Ergebnisse einordnen zu können.
Wie verbreitet ist die Nutzung von KI in Personalauswahlprozessen in Unternehmen?
Natürlich müssen die Risiken vor der Nutzung genau abgewogen werden. Eine Hürde ist der gesetzliche Rahmen, v. a. die Datenschutzgrundverordnung und der EU AI Act. Diese juristischen Schwellen gehen mit einer gewissen Dokumentationspflicht einher. Datenschutz ist somit sicherlich ein Thema, das in vielen Unternehmen dazu führt, dass KI maximal für Backoffice-Einsätze genutzt und nicht mit echten Bewerber*innendaten gefüttert wird.
Des Weiteren sind Unternehmen unsicher, wie der Einsatz von KI auf Bewerber*innen wirkt. Einerseits ist es für das Employer Branding positiv, wenn man sich als modern darstellen kann. Andererseits kann es intransparent und abschreckend wirken, weil manche Bewerber*innen in der KI eine Gefahr für die prozedurale Gerechtigkeit sehen.
Die Empfehlung der Literatur ist daher absolute Transparenz: Unternehmen müssen klar kommunizieren, welche Daten sie wofür erheben und wie sie Fairness gewährleisten.
Ein letzter Grund, warum KI noch nicht so gut einsetzbar ist, ist der Mangel an Trainingsdaten. Entweder sind Unternehmen zu klein, als dass sie über genügend Daten verfügen, oder es fehlen die zeitlichen und finanziellen Ressourcen, um ein eigenes Modell zu bauen. Bei extern entwickelten Modellen hingegen stellt sich die Frage, ob diese zum Unternehmen passen und die Anforderungsanalyse abdecken.
Wie akzeptiert ist der Einsatz von KI unter Personaler*innen?
Zum einen wissen wir aus der Robotik und der Arbeitspsychologie, dass das Vertrauen in Maschinen und auch in KI sehr hoch ist. Menschen neigen sogar dazu, der KI zu sehr zu vertrauen. Zum anderen möchte ich betonen, dass die KI keine Entscheidung vorgibt, sondern dass sie Konstrukte vermisst und auf dieser Basis einen Vorschlag macht. Die finale Entscheidung trifft immer eine menschliche Person.
Welche Kompetenzen sind wichtig, um KI verantwortungsvoll einzusetzen?
Wir müssen das Rad nicht neu erfinden, denn die erforderlichen Kompetenzen sind bekannt, so zum Beispiel gutes Projektmanagement, IT-Literacy und Führungsfähigkeit. Mit KI kommt jedoch ein neuer Aspekt hinzu. Je nach Rolle ist ein bestimmtes Wissen über KI sinnvoll, um zu verstehen, was sie tut und wie man ihre Ergebnisse transparent vermittelt. Generell ist die kritische Bewertung des Ergebnisses im Umgang mit KI sehr wichtig. Zwar können Large Language Modelle sehr plausibel argumentieren, doch das muss nicht richtig sein. Um das beurteilen zu können, muss man theoretisch in der Lage sein, den Personalauswahlprozess selbst zu begleiten, von der Anforderungsanalyse bis zur eignungsdiagnostischen Entscheidung. Nur dann sieht man, dass man womöglich zu einer anderen Schlussfolgerung käme. Wir müssen in der Lage sein, Fehler der KI zu erkennen, um diese korrigieren zu können.
Wie wird sich die Rolle von KI in der Personalauswahl voraussichtlich in den nächsten Jahren entwickeln?
Im europäischen Rechtsraum werden wir sicherlich daran festhalten, dass KI keine finale Entscheidung treffen darf, auch wenn sie das ehrlicherweise wahrscheinlich schon könnte. Wenn man überlegt, wie rasant sich Large Language Modelle entwickeln, seitdem sie vor ungefähr drei Jahren auf den Markt kamen, ist eine realistische Prognose für die Entwicklung in den nächsten Jahren schwierig. Wie auch immer die technische Weiterentwicklung verläuft, ich vermute, dass der Einsatz von KI eine gewisse Normalisierung erfahren wird, v. a. bei Routinetätigkeiten, und das Vertrauen in KI steigen wird. Wenn man mit der KI wesentlich effizienter und vielleicht auch zielgenauer agieren kann, dann ist das vielleicht schon Fortschritt genug, als dass wir weiter über die Frage fachsimpeln müssen, wann KI Menschen ersetzen wird.
Vielen Dank für das Gespräch!
Prof. Dr. Matthias Ziegler leitet den Bereich Psychologische Diagnostik am Institut für Psychologie der Humboldt-Universität zu Berlin. Mit seinem Team forscht er zu den Themen Persönlichkeit, Intelligenz und lebenslanges Lernen. Zudem ist Matthias Ziegler Vorsitzender des Diagnostik- und Testkuratoriums.
[Werbung] Der Autor hält am 12.11.2025 einen digitalen Vortrag zum Thema "KI in der Personalauswahl" im Rahmen der wirtschaftspsychologischen Fortbildungswoche der Deutschen Psychologen Akademie.
Weitere Literatur zum Thema
Hunkenschroer, A. L., & Luetge, C. (2022). Ethics of AI-enabled recruiting and selection: A review and research agenda. Journal of Business Ethics, 178(4), 977-1007.
Mori, M., Sassetti, S., Cavaliere, V., & Bonti, M. (2025). A systematic literature review on artificial intelligence in recruiting and selection: a matter of ethics. Personnel Review, 54(3), 854-878.
Rozado, D. (2025). Gender and Positional Biases in LLM-Based Hiring Decisions: Evidence from Comparative CV/Resume Evaluations. arXiv preprint arXiv:2505.17049.