Künstliche Intelligenz (KI) verändert das HR entlang der gesamten Employee Journey. Auch in den späteren Phasen der Employee Journey schafft KI neue Möglichkeiten für Entwicklung, Leistungssteuerung und Offboarding. Zugleich steigt dort die rechtliche Sensibilität, weil KI-gestützte Auswertungen häufig nahe an personenbezogenen Bewertungen, Prognosen und organisatorisch kritischen Prozessen erfolgen. Im Zentrum stehen dabei insbesondere Fragen der Datenqualität, der Zweckbindung, des Diskriminierungsschutzes und der datenschutzkonformen Einbettung in betriebliche Entscheidprozesse. Die folgenden Abschnitte behandeln diese Spannungsfelder in den Bereichen Develop, Progress und Exit, zeigen die damit verbundenen Risiken auf und stellen geeignete Massnahmen zu deren Begrenzung dar.
Develop
In der Entwicklungsphase tritt KI oft als Skill- und Lernassistenz auf. Systeme schätzen Fähigkeiten, identifizieren mögliche Lücken, schlagen Weiterbildungen vor und gestalten Lernpfade adaptiv. Im Hintergrund laufen Auswertungen über Fortschritte, Peer-Reviews oder Projektzuordnungen. In vielen Unternehmen entstehen dadurch dynamische Kompetenzprofile, die für Projektbesetzung, Mentoring oder Talentprogramme genutzt werden.
Ein erhöhtes Risiko besteht, wenn Skill-Schätzungen auf unvollständigen Datengrundlagen beruhen oder wenn bestimmte Gruppen in den Datensätzen systematisch unterrepräsentiert sind. Nicht jede Arbeit hinterlässt in gleicher Dichte digitale Spuren. Wer weniger toolbasiert arbeitet und dabei zum Beispiel mehrheitlich Leistungen im direkten Kundenkontakt erbringt, wird in datengetriebenen Auswertungen häufig nur unvollständig erfasst. Dies kann zu Verzerrungen und wiederum zu falschen Entwicklungsentscheiden führen. Hinzu tritt das Risiko einer Zweckausweitung, wenn Entwicklungsdaten nachträglich für Beförderungsentscheide oder Leistungsbeurteilungen herangezogen werden, obwohl sie ursprünglich ausschliesslich als Unterstützungsinstrument genutzt werden sollten.
Ein robustes Design setzt eine faire und breit abgestützte Datengrundlage voraus. Neben digitalen Signalen sind daher auch strukturierte und nachvollziehbare Inputs heranzuziehen, namentlich Ziel- und Entwicklungsgespräche, Qualifikationsnachweise oder standardisierte Kompetenzmodelle. Die Resultate sind regelmässig zu validieren, vorzugsweise auch gruppenspezifisch, um systematische Abweichungen frühzeitig zu erkennen und adressieren zu können. Zudem ist bereits bei der Erhebung von Mitarbeiterdaten der konkrete Zweck transparent zu kommunizieren und verbindlich festzulegen. Auch hier sind die datenschutzrechtlichen Vorgaben zu beachten, insbesondere die arbeitsbezogene, zweckmässige und verhältnismässige Bearbeitung.
Progress
In der Phase der Leistungs- und Vergütungssteuerung sowie der Karriereplanung ist von einer erhöhten Eingriffs- und Risikolage auszugehen, weil KI-Outputs typischerweise in Entscheidprozesse mit unmittelbarer Wirkung auf Mitarbeitende einfliessen. KI wird hier eingesetzt, um Ziele zu verfolgen, Feedback zu bündeln, Potenzial einzuschätzen oder Nachfolgeplanung zu strukturieren. Hinzu kommen Prognosen, etwa zu Fluktuationsrisiken oder Absenzen, die Massnahmen auslösen sollen. In der Praxis werden derartige Outputs häufig in Dashboards überführt und von Führungskräften mitunter ohne hinreichende Einordnung verwendet, womit ein erhebliches Haftungs- und Reputationsrisiko einhergeht. Ein Score wird schnell als objektive Wahrheit rezipiert, obwohl er lediglich das Ergebnis statistischer Modellannahmen abbildet. Gerade in diesem Kontext kumulieren zudem Diskriminierungsrisiken, weil historische Karrierepfade, Teilzeitmuster oder Unterbrüche in Datenbeständen zu systematischen Benachteiligungen führen können. Hinzu kommt die Gefahr der Stabilitätsillusion. Modelle altern, betriebliche Sachverhalte ändern sich, und ohne laufende Überwachung entstehen Fehlklassifikationen, die unbemerkt bleiben.
Im Bereich Progress ist den datenschutzrechtlichen Anforderungen besondere Aufmerksamkeit zu schenken, zumal die Bearbeitung von Personendaten hier regelmässig mit unmittelbaren Auswirkungen auf Mitarbeitende verbunden ist. Erforderlich sind daher klar definierte Entscheidrollen: Wer entscheidet, wer überprüft, wer dokumentiert und wie wird mit Abweichungen umgegangen. Flankierend braucht es ein laufendes Monitoring, das nicht nur die technische Performance misst, sondern ebenso Fairness-Kennzahlen und Fehlerraten erfasst. Verändern sich Datenlagen oder Prozessrealitäten, sind Modelle nachzuführen oder bewusst ausser Betrieb zu nehmen. Ebenfalls zentral ist ein funktionierender Korrekturweg. Betroffene müssen Datenfehler melden können und eine menschliche Überprüfung erhalten, wenn ein KI-Output konkrete Nachteile auslöst.
Exit
Beim Offboarding steuern KI-Tools mittels automatisierten Checklisten Übergaben, Wissensmanagement und Aufgaben. Gleichzeitig werden Austrittsbefragungen inhaltlich ausgewertet und Fluktuationsmuster analysiert, um Bindungsmassnahmen zu verbessern oder Risikogruppen zu identifizieren.
Das zentrale Risiko liegt hierbei in der Datenhygiene. Nach dem Austritt bleiben Daten in vielen Systemen erhalten, sei es aufgrund uneinheitlicher Löschroutinen, vorhandener Schattenkopien oder unklarer Zuständigkeiten. Zudem besteht die Gefahr einer unrechtmässigen Zweckerweiterung, weil Exit-Daten schnell für neue Zwecke interessant werden, wie etwa für Teamrankings. Gerade im Offboarding sind deshalb auch die datenschutzrechtlichen Vorgaben besonders sorgfältig zu beachten, namentlich mit Blick auf Zweckbindung, Verhältnismässigkeit und die rechtzeitige Löschung nicht mehr erforderlicher Personendaten.
Schliesslich wird Offboarding auch zur Security-Angelegenheit, da Zugriffe konsequent zu beenden, Exporte zu verhindern und Geheimnisse zu schützen sind. KI im Offboarding ist deshalb als gesteuerter Prozess mit klaren Verantwortlichkeiten zu konzipieren und nicht als rein formale Checkliste ohne wirksame Kontrolle. Praxiswirksam sind insbesondere systemübergreifend abgestimmte Aufbewahrungs- und Löschkonzepte mit klarer Rollen- und Verantwortlichkeitszuordnung. Für die Wissenssicherung empfiehlt es sich sodann den Schwerpunkt auf Inhalte und Prozesse zu legen und nicht auf personenbezogene Verhaltensprofile. So bleibt das Wissen im Unternehmen, ohne dass Personendaten der ehemaligen Mitarbeitenden über die erforderliche Dauer hinaus weiterbearbeitet werden.
Serie und Webinar zu People Analytics entlang der Employee Journey
Künstliche Intelligenz hält zunehmend Einzug in HR-Prozesse. Sie unterstützt bei der Rekrutierung, im Onboarding, in der Entwicklung von Mitarbeitenden oder bei der Leistungs- und Karriereplanung. Damit steigen aber auch die rechtlichen Anforderungen. Wo KI im Arbeitsverhältnis eingesetzt wird, stellen sich insbesondere Fragen des Daten- und Persönlichkeitsschutzes, der Fairness sowie einer angemessenen Governance.
Die vierteilige Serie zeigt auf, wie Unternehmen People Analytics entlang der Employee Journey rechtskonform und praxistauglich einsetzen können. Sie beleuchtet typische Einsatzfelder, ordnet die zentralen Risiken ein und skizziert konkrete Massnahmen für einen rechtssicheren Einsatz von KI im HR.
• Rechtsrisiken beim Einsatz von KI in People Analytics
• KI-Einsatz entlang der Employee Journey – Teil 1
• KI-Einsatz entlang der Employee Journey – Teil 2
• Rechtssichere Umsetzung von People Analytics
Jetzt vormerken: Live-Webinar mit Olivia Boccali
Am Dienstag, 21. April findet um 16 Uhr ein «Penso Know-how-Meeting» mit Olivia Boccali statt. In diesem einstündigen Live-Webinar erörtert sie die Inhalte der Serie und steht auch für Fragen zur Verfügung.
Die Teilnahme ist exklusiv den Abonnentinnen und Abonnenten von Penso vorbehalten. Diese profitieren sechsmal jährlich von einem Penso Know-how-Meeting und erhalten 5 Tage vor dem Meeting automatisch einen Link zur Teilnahme. Im Nachgang des Webinars steht auch eine professionelle Video-Aufzeichnung zur Verfügung.
Noch kein Abo? - Jetzt abonnieren und am Webinar teilnehmen.