Künstliche Intelligenz verändert das HR grundlegend. Entlang der gesamten Employee Journey entstehen neue Möglichkeiten, Personalprozesse datenbasiert zu steuern, Entscheidungen vorzubereiten und Entwicklungen frühzeitig zu erkennen. Gerade im Bereich People Analytics stehen dem praktischen Nutzen jedoch erhebliche rechtliche Anforderungen gegenüber. Wer KI im Arbeitsverhältnis einsetzt, muss insbesondere Daten- und Persönlichkeitsschutz, Diskriminierungsrisiken sowie Governance von Anfang an mitbedenken.
KI im HR: Effizienzgewinn mit neuer Risikolage
Künstliche Intelligenz im HR ist längst nicht mehr nur ein Innovationsprojekt. Sie wird zur Infrastruktur, die Entscheidungen vorbereitet, Prozesse beschleunigt und Erwartungen an Objektivität erhöht. Damit gehen klassische Versprechen einher, wie etwa schnellere Rekrutierung, optimierte Prozesse, frühere Erkennung von Trends oder gezieltere Personal- und Kompetenzentwicklung. Was früher lediglich punktuell und mit erheblichem personellem Aufwand möglich war, lässt sich heute fortlaufend, datenbasiert und skalierbar realisieren. Die Kehrseite davon ist evident: Je mehr KI-Systeme persönlichkeitsrechtlich geschützte Sphären tangieren, desto eher steigen sowohl das Risiko einer Verhaltensüberwachung als auch jenes einer unbemerkten Diskriminierung und desto anspruchsvoller gestaltet sich die Rechenschaftslegung. Im Arbeitsverhältnis wirkt der Einsatz von KI besonders intensiv, weil Mitarbeitende und Bewerbende über längere Zeiträume hinweg in einer Vielzahl von Systemen digitale Spuren hinterlassen. Gerade in People Analytics begünstigt Ubiquität, Interoperabilität und Einsatz von KI eine neuartige Informations- und Machtkonzentration bei der Arbeitgeberin. Aus vielen einzelnen Datenpunkten entsteht so ein dichtes Profil, das sich technisch einfach auswerten lässt, für Betroffene aber oft schwer nachvollziehbar bleibt. Dieses strukturelle Informationsungleichgewicht bildet den Kern der rechtlichen wie auch der praktischen Herausforderungen.
Daten- und Persönlichkeitsschutz
Bei Einsatz von KI entlang der Employee Journey sind insbesondere drei Rechtsbereiche risikorelevant. Zum einen steht beim Einsatz von KI der Daten- und Persönlichkeitsschutz im Zentrum. Gemäss Art. 328 OR hat die Arbeitgeberin die Persönlichkeit ihrer Mitarbeitenden zu achten und zu schützen. Sodann darf die Arbeitgeberin gemäss Art. 328b OR nur Daten über Mitarbeitende bearbeiten, soweit sie deren Eignung für das Arbeitsverhältnis betreffen oder zur Durchführung des Arbeitsvertrages erforderlich sind. Da die Arbeitgeberin Personendaten in einem Kontext bearbeitet, in dem die Einwilligung des Mitarbeitenden aufgrund des Abhängigkeitsverhältnisses oftmals fraglich ist, sind Zweckbindung, Verhältnismässigkeit und Transparenz bei der Datenbearbeitung durch KI-Tools zentral. Art. 26 ArGV 3 verbietet schliesslich den Einsatz von Überwachungs- oder Kontrollsystemen, die das Verhalten von Angestellten am Arbeitsplatz überwachen. Sind Überwachungs- oder Kontrollsysteme aus anderen Gründen erforderlich, müssen diese so angeordnet werden, dass die Gesundheit und die Bewegungsfreiheit der Mitarbeitenden nicht beeinträchtigt werden.
Diskriminierungsrisiken
Zum anderen besteht mit dem Einsatz von KI die Gefahr der Diskriminierung. Diese kann entlang des gesamten KI-Modelllebenszyklus entstehen. Für Unternehmen ist es deshalb wichtig, die Diskriminierungsfreiheit und Fairness im Hinblick auf Trainingsdaten, beim Modell selbst sowie bei der Anwendung der KI zu prüfen. So können bereits die verwendeten Trainingsdaten des KI-Modells an Mängeln leiden, wenn die KI historische Muster aus Datenbeständen übernimmt. Auch kann sie unter Umständen indirekte Benachteiligungen über scheinbar neutrale Merkmale erzeugen. Deshalb muss sichergestellt werden, dass in der Datenbasis alle Gruppen angemessen abgebildet sind, klare Qualitätsmassstäbe und eine laufende Kontrolle darüber bestehen, ob Ergebnisse für bestimmte Gruppen systematisch schlechter ausfallen. Auch sind viele KI-Systeme auf Effizienz optimiert, nicht auf Gleichbehandlung. Deshalb braucht es eine Validierung, die unterschiedliche Gruppen und realistische Szenarien abbildet, sowie die Integration von Fairness-Kriterien, laufendes Monitoring und Re-Training bei veränderten Datenlagen.
Anwendung und Governance von KI-Systemen
Schliesslich entscheidet die Anwendung des KI-Tools darüber, ob sich ein System in der Praxis als fair erweist. Denn selbst ein leistungsfähiges KI-Modell kann problematisch werden, wenn es im Prozess falsch eingesetzt wird. Entscheidend sind klare Regeln im Unternehmen dazu, wie Outputs zu interpretieren sind, wie und in welchem Umfang sie zu dokumentieren sind und welche Folgerungen daraus gezogen werden dürfen. Ein wirksamer Korrekturweg, die transparente Information an die Mitarbeitenden sowie die Sicherstellung von Begründungs- und Überprüfbarkeitspflichten bilden hierbei unverzichtbare Qualitätsinstrumente. Damit wird sogleich der dritte Risikobereich angesprochen, wonach die Governance des KI-Tools entscheidend ist. Wer ein Tool einkauft oder entwickelt, muss jederzeit darlegen können, wer im Unternehmen die Verantwortung trägt, nach welchen Standards Modelle getestet und überwacht werden und wie Fehler festgestellt, adressiert und korrigiert werden. Wird die Mitwirkung der Mitarbeitenden als Bestandteil dieser Governance verstanden, lassen sich Konfliktpotenziale reduzieren und Vertrauen nachhaltig stärken. Wer sich demgegenüber lediglich auf KI-generierte Scores oder Ranglisten stützt, ohne deren Zustandekommen und Aussagekraft erklären zu können, schafft nicht nur ein rechtliches Risiko, sondern zugleich ein erhebliches Akzeptanz- und Vertrauensproblem.
Serie und Webinar zu People Analytics entlang der Employee Journey
Künstliche Intelligenz hält zunehmend Einzug in HR-Prozesse. Sie unterstützt bei der Rekrutierung, im Onboarding, in der Entwicklung von Mitarbeitenden oder bei der Leistungs- und Karriereplanung. Damit steigen aber auch die rechtlichen Anforderungen. Wo KI im Arbeitsverhältnis eingesetzt wird, stellen sich insbesondere Fragen des Daten- und Persönlichkeitsschutzes, der Fairness sowie einer angemessenen Governance.
Die vierteilige Serie zeigt auf, wie Unternehmen People Analytics entlang der Employee Journey rechtskonform und praxistauglich einsetzen können. Sie beleuchtet typische Einsatzfelder, ordnet die zentralen Risiken ein und skizziert konkrete Massnahmen für einen rechtssicheren Einsatz von KI im HR.
• Rechtsrisiken beim Einsatz von KI in People Analytics
• KI-Einsatz entlang der Employee Journey – Teil 1
• KI-Einsatz entlang der Employee Journey – Teil 2
• Rechtssichere Umsetzung von People Analytics
Jetzt vormerken: Live-Webinar mit Olivia Boccali
Am Dienstag, 21. April findet um 16 Uhr ein «Penso Know-how-Meeting» mit Olivia Boccali statt. In diesem einstündigen Live-Webinar erörtert sie die Inhalte der Serie und steht auch für Fragen zur Verfügung.
Die Teilnahme ist exklusiv den Abonnentinnen und Abonnenten von Penso vorbehalten. Diese profitieren sechsmal jährlich von einem Penso Know-how-Meeting und erhalten 5 Tage vor dem Meeting automatisch einen Link zur Teilnahme. Im Nachgang des Webinars steht auch eine professionelle Video-Aufzeichnung zur Verfügung.
Noch kein Abo? - Jetzt abonnieren und am Webinar teilnehmen.