Künstliche Intelligenz (KI) verändert das HR entlang der gesamten Employee Journey. Von der Rekrutierung über das Onboarding bis hin zu Engagement- und Feedbackprozessen ermöglicht sie datenbasierte Auswertungen, personalisierte Unterstützung und effizientere Abläufe. Dem praktischen Nutzen stehen jedoch erhebliche rechtliche und ethische Anforderungen gegenüber. Wer KI im Arbeitsverhältnis einsetzt, muss insbesondere den Daten- und Persönlichkeitsschutz, Diskriminierungsrisiken sowie die Gefahr faktischer Überwachung von Anfang an mitdenken. Die folgenden Abschnitte zeigen typische Einsatzfelder von KI in den Bereichen Recruit & Hire, Onboard und Engage auf, benennen die damit verbundenen Risiken und skizzieren geeignete Gegenmassnahmen.
Recruit & Hire
In der Rekrutierung wird KI am häufigsten als Vorsortierung und Kommunikationstool eingesetzt. Systeme analysieren Lebensläufe und Bewerbungsunterlagen, erkennen Schlüsselbegriffe, vergleichen Profile mit Stellenanforderungen und generieren Rangfolgen oder Passungs-Scores. Parallel dazu übernehmen Chatbots Teile der Bewerberkommunikation, vereinbaren Termine oder beantworten Fragen. Viele Organisationen arbeiten zudem mit Talentpools, die frühere Bewerbungen oder Kontakte aus Events strukturiert erfassen, um bei künftigen Vakanzen schneller zu reagieren.
Der Rekrutierung kommt eine besondere Bedeutung zu, weil sie über Zugangschancen entscheidet und zugleich die Versuchung gross ist, mehr Daten zu erheben als für den konkreten Zweck erforderlich ist. Risiken entstehen insbesondere dort, wo Datenquellen unklar sind, wenn aus digitalen Spuren auf Persönlichkeit oder Verhaltensmerkmale geschlossen wird oder wenn Informationen aus dem Bewerbungsprozess später ohne klare Zweckbindung in andere HR-Prozesse einfliessen. Zudem besteht ein erhebliches Diskriminierungsrisiko. Sind die zugrunde liegenden Daten historisch verzerrt oder bilden sie bestimmte Gruppen systematisch unzureichend ab, kann ein Modell solche Muster unbeabsichtigt fortschreiben. Schliesslich kann es zu einer faktischen Automatisierung kommen, wenn Empfehlungen derart dominieren, dass die menschliche Prüfung auf eine rein formale Kontrolle reduziert wird.
Diesen Risiken kann die Personalabteilung mit wirksamen Massnahmen begegnen. Im Vordergrund steht eine klare Zweckdefinition des KI-Tools, die genau festlegt, wofür Daten verwendet werden dürfen. Die Bearbeitung muss dabei auch zweckmässig und verhältnismässig sein. Dazu gehören kurze, nachvollziehbare Löschfristen für Bewerbungsdaten und eine bewusste Entscheidung, ob und unter welchen Bedingungen Bewerbungen in Talentpools weitergeführt werden. Selbstverständlich müssen die betroffenen Personen transparent darüber informiert werden. Werden besonders schützenswerte Personendaten bearbeitet oder liegt ein Profiling mit hohem Risiko vor, ist zudem eine ausdrückliche Einwilligung erforderlich. Bringt das System ein hohes Risiko mit sich, können zusätzliche Pflichten hinzukommen, etwa eine Datenschutz-Folgenabschätzung.
Vor dem Einsatz eines KI-Modells braucht es zudem eine systematische Qualitäts- und Fairnessprüfung. Dazu zählt die Analyse der Trainingsdaten, die Suche nach diskriminierenden Stellvertretermerkmalen und die Validierung der Resultate über unterschiedliche Gruppen hinweg. Wichtig ist zudem, dass das Unternehmen ein echtes Human-in-the-loop-Design aufsetzt. KI darf Hinweise liefern und Muster sichtbar machen, die Entscheidung muss aber beim Menschen bleiben, inklusive dokumentierter Plausibilisierung.
Onboard
Im Onboarding wird KI häufig zur Personalisierung eingesetzt. Neue Mitarbeitende erhalten automatisch zugeschnittene Einarbeitungspläne, Aufgabenlisten und Erinnerungen. Mentoren werden anhand von Profilen und Skills gematcht und kurze Feedbackinstrumente messen den Einstieg, die Belastung oder die Zufriedenheit in den ersten Wochen. Gerade in der frühen Phase des Anstellungsverhältnisses besteht durch den Einsatz von KI ein erhebliches Risiko, dass Onboarding- und Lerninformationen später als Leistungsindikatoren umgedeutet werden oder dass frühe Einschätzungen zu dauerhaften Etiketten werden.
Wirksame Gegenmassnahmen beginnen mit datensparsamen Voreinstellungen. Zudem lohnt sich eine klare Zwecktrennung, sodass Lern- und Onboarding-Daten nicht stillschweigend in Performance-Systeme einfliessen. Die Bearbeitung muss auch hier arbeitsbezogen, zweckmässig und verhältnismässig sein. Schliesslich ist im Onboarding die transparente Kommunikation gegenüber Mitarbeitenden besonders wirkungsvoll, womit auch das Risiko von Missverständnissen und Vertrauensverlust sinkt.
Engage
KI-Tools können weiter für Engagement-Messungen, Kollaborationsanalysen und zur Zielverfolgung eingesetzt werden. Dabei werden Befragungen ausgewertet, Freitextantworten analysiert oder Stimmungsbilder erkannt. Kommunikationsplattformen erzeugen Kennzahlen zur Zusammenarbeit, wie etwa zu Vernetzung, Reaktionszeiten oder Meetingmuster.
Die rechtliche Leitfrage lautet hier, ob die Analyse durch die KI das Arbeitsumfeld unterstützt oder sie eine Überwachungswirkung erzeugt. Je näher die Auswertungen an die verbotene Verhaltensüberwachung heranrücken, desto eher entsteht auch bei den Mitarbeitenden der Eindruck von Micromanagement. Besonders heikel sind Analysen, die Rückschlüsse auf psychische Verfassung, Belastbarkeit oder private Umstände erlauben, wobei auch hier die Gefahr von Fehlinterpretationen gross ist. Zudem können in solchen Fällen besonders schützenswerte Personendaten betroffen sein, was eine ausdrückliche Einwilligung und bei hohem Risiko zusätzlich eine Datenschutz-Folgenabschätzung erforderlich machen kann.
Zentral ist die klare Abgrenzung gegenüber einer unzulässigen Verhaltensüberwachung. Sie ist durch eine präzise Zweckumschreibung und eine konsequente Zweckbindung sicherzustellen. Die Arbeitgeberin hat zudem verbindlich festzulegen, wofür Kennzahlen genutzt werden dürfen. In vielen Fällen reicht es, mit aggregierten Kennzahlen zu arbeiten. Auch brauchen Führungskräfte Schulung, damit sie KI-basierte Auswertungen als indikative Hinweise einordnen und nicht als vermeintlich objektive Wahrheit übernehmen. Zusätzliche Qualitätssicherung erreicht man durch Stichproben, Plausibilisierung durch Fachpersonen sowie den systematischen Einbezug des jeweiligen Kontextes, sodass das Dashboard die Realität nicht ersetzt.
Serie und Webinar zu People Analytics entlang der Employee Journey
Künstliche Intelligenz hält zunehmend Einzug in HR-Prozesse. Sie unterstützt bei der Rekrutierung, im Onboarding, in der Entwicklung von Mitarbeitenden oder bei der Leistungs- und Karriereplanung. Damit steigen aber auch die rechtlichen Anforderungen. Wo KI im Arbeitsverhältnis eingesetzt wird, stellen sich insbesondere Fragen des Daten- und Persönlichkeitsschutzes, der Fairness sowie einer angemessenen Governance.
Die vierteilige Serie zeigt auf, wie Unternehmen People Analytics entlang der Employee Journey rechtskonform und praxistauglich einsetzen können. Sie beleuchtet typische Einsatzfelder, ordnet die zentralen Risiken ein und skizziert konkrete Massnahmen für einen rechtssicheren Einsatz von KI im HR.
• Rechtsrisiken beim Einsatz von KI in People Analytics
• KI-Einsatz entlang der Employee Journey – Teil 1
• KI-Einsatz entlang der Employee Journey – Teil 2
• Rechtssichere Umsetzung von People Analytics
Jetzt vormerken: Live-Webinar mit Olivia Boccali
Am Dienstag, 21. April findet um 16 Uhr ein «Penso Know-how-Meeting» mit Olivia Boccali statt. In diesem einstündigen Live-Webinar erörtert sie die Inhalte der Serie und steht auch für Fragen zur Verfügung.
Die Teilnahme ist exklusiv den Abonnentinnen und Abonnenten von Penso vorbehalten. Diese profitieren sechsmal jährlich von einem Penso Know-how-Meeting und erhalten 5 Tage vor dem Meeting automatisch einen Link zur Teilnahme. Im Nachgang des Webinars steht auch eine professionelle Video-Aufzeichnung zur Verfügung.
Noch kein Abo? - Jetzt abonnieren und am Webinar teilnehmen.