Gesetzliches Rahmenwerk für Künstliche Intelligenz

Dienstag, 31. Januar 2023 - Karen Heidl
Im Dezember 2022 verabschiedete der Europäische Rat einen Vorschlag für einen Gesetzentwurf der EU zur Regulierung des Einsatzes Künstlicher Intelligenz. Was Personalverantwortliche dazu wissen müssen.

Warum es Regulierungsbedarf zum Schutz von Menschen vor technisch bedingten Fehlentscheidungen, Diskriminierung und Verletzung von Persönlichkeitsrechten gibt, erklärte Jan Berger, Co-Autor des Buchtitels «Die Zukunft der KI im Talentmanagement» in einem Vortrag anlässlich der Online-Konferenz HR Tech, Software & Innovation. Er schilderte diverse Fälle, bei denen Künstliche Intelligenz (KI) erstaunliche Personalentscheidungen gefällt hatte.

Beispielsweise wurde bei Amazon eine Frau aufgrund einer KI-Entscheidung gekündigt, weil sie bestimmte Zeiten für Prozesse nicht eingehalten hat – dies in einer Situation, als schlagartig im Zuge der Corona-Pandemie das Paketaufkommen durch erhöhten E-Commerce eklatant zunahm. Auch ihre Beschwerden wurden von einer KI bearbeitet, sodass diese erfolglos blieben. Gemäss Berger nehme Amazon diese Fehler bewusst in Kauf, da der Einsatz einer KI günstiger sei als die Bearbeitung von Problemfällen durch HR-Mitarbeitende.

Ein weiteres Beispiel hat die Harvard Business School in einer Studie über sogenannte Applicant Tracking Systems (ATS; Bewerbungsmanagement-Software) herausgearbeitet. Sie zeigt, dass aufgrund zu enger automatisierter Vorgaben Bewerbende, die durchaus qualifiziert gewesen wären, nicht berücksichtigt wurden.

ATS sind zudem leicht manipulierbar, wie auch der Fall Angelina Lee zeigte. Angelina Lee ist ein männlicher IT-Experte. Er wunderte sich, warum er bei diversen Bewerbungen nicht berücksichtigt wurde, und begann dann, sein Bewerbungsprofil zu verändern – angefangen mit einem weiblichen Namen. Dies steigerte sich in recht unsinnige Jobbezeichnungen, die er selbst kreierte. Die ATS haben dieses Profil ungeachtet dieser Fake-Jobtitel hoch bewertet und so trafen auch Einladungen zu Bewerbungsgesprächen ein.

Buchempfehlung

Die Zukunft der KI im Talentmanagement

Dieses Buch beleuchtet die Zukunft von KI im Talentmanagement. Es verschafft Klarheit darüber, was Führungskräfte und Personalabteilungen bei der Auswahl von KI-Software beachten müssen, welche Abwägungen und Entscheidungen sie erwarten und was die technologischen und kulturellen Herausforderungen sind, um KI erfolgreich in Unternehmen einzusetzen.

Gerrit Zehrer, Jan Berger, Carina Stöttner, James Hoefnagels. 1. Auflage 2022. 129 Seiten.
Softcover. ISBN 978-3-7562-9873-0

Ethik und Effizienz sind bekanntermassen nicht immer beste Freunde. Aus diesem Grund sah die Europäische Union Regulierungsbedarf. Der im April 2021 vorgelegte Vorschlag einer Kommission wurde nun vom EU-Rat in einem gemeinsamen Standpunkt gebilligt, was den Weg zu einem EU-Gesetz ebnet, das Anfang 2024 erwartet wird.

Was wird reguliert?

Der Gesetzesvorschlag unterscheidet zwischen verschiedenen Anwendungsbereichen Künstlicher Intelligenz und vier Risikoklassen. Systeme, die nicht den ethischen Grundsätzen der EU entsprechen, stellen ein unzulässiges Risiko dar. So sollen etwa Social-Scoring-Systeme verboten werden, die beispielsweise in China im Einsatz sind, oder Spielzeug mit Sprachassistenten, das zu riskantem Verhalten verleiten könnte. Weitere Klassifizierungen umfassen hochriskante Anwendungen und Varianten mit begrenztem und minimalem Risiko.

Als Hochrisikoanwendung würde beispielsweise eine Software eingestuft, die automatisch Lebensläufe in einem Bewerbungsprozess analysiert, das sogenannte CV-Parsing, das auch im Fall von Angelina Lee eingesetzt wurde. Nach welchen Entscheidungskriterien eine Selektion stattfinden darf, wäre zukünftig Gegenstand einer Prüfung, in der die Einhaltung ethischer und arbeitsrechtlicher Grundlagen nachgewiesen werden muss.

Für Anwendungen mit geringem Risiko, beispielsweise Chatbots, die mit Künstlicher Intelligenz arbeiten, sind Transparenzpflichten vorgesehen. Für Systeme mit minimalem Risiko, wie Videospiele oder Spamfilter, die mit Entscheidungsalgorithmen arbeiten, entstehen keine zusätzlichen rechtlichen Verpflichtungen.

Hochriskanter Einsatz Künstlicher Intelligenz

Die Risikoklasse hochriskant ist für Unternehmen relevant. Sie umfasst gemäss Medieninformation der EU folgende Fälle:

  • Kritische Infrastrukturen (z.B. im Verkehr), in denen das Leben und die Gesundheit der Bürger gefährdet werden könnten;
  • Schul- oder Berufsausbildung, wenn der Zugang einer Person zur Bildung und zum Berufsleben beeinträchtigt werden könnte (z.B. Bewertung von Prüfungen);
  • Sicherheitskomponenten von Produkten (z.B. eine KI-Anwendung für die roboterassistierte Chirurgie);
  • Beschäftigung, Personalmanagement und Zugang zu selbstständiger Tätigkeit (z.B. Software zur Auswertung von Lebensläufen für Einstellungsverfahren);
  • Zentrale private und öffentliche Dienstleistungen (z.B. Bewertung der Kreditwürdigkeit);
  • Strafverfolgung, die in die Grundrechte der Menschen eingreifen könnte (z. B. Überprüfung der Echtheit von Beweismitteln);
  • Migration, Asyl und Grenzkontrolle (z.B. Überprüfung der Echtheit von Reisedokumenten);
  • Rechtspflege und demokratische Prozesse (z.B. Anwendung der Rechtsvorschriften auf konkrete Sachverhalte).

Bedeutung des AI Act für die Schweiz

«Der AI Act wird auch Auswirkungen auf die Schweiz haben. Die Verordnung ist anwendbar, wenn ein AI-System innerhalb der EU eingesetzt oder dessen Output in der EU ‹verwendet› wird. Dies trifft zum Beispiel zu, wenn Schweizer Unternehmen ihre Systeme anderen Unternehmen, öffentlichen Stellen oder Personen innerhalb der EU zugänglich machen oder wenn eine in der Schweiz von einem AI-basierten System getroffene Prognose, Empfehlung oder Entscheidung innerhalb der EU eingesetzt wird», erläutert Reto Zbinden, Jurist und CEO des Beratungsunternehmens Swiss Infosec AG, das auf Informations- und IT-Sicherheit spezialisiert ist, die Situation.

Regulierungsbedarf hinsichtlich des Einsatzes Künstlicher Intelligenz sieht die Schweiz nach aktuellen Informationen der «Netzwoche» derzeit noch nicht. Reto Zbinden geht davon aus, dass die Situation noch beobachtet werde. Viele Anliegen, die mit dem EU-Gesetz adressiert werden sollen, seien bereits durch anderweitige Gesetze abgedeckt, führt Zbinden dazu aus, beispielsweise durch das Datenschutzgesetz und die damit verbundene Transparenzpflicht oder das Gleichstellungsgesetz. Auch bedürfe das EU-Gesetz noch einiger Detailregelungen.

Die Integrität intelligenter Systeme erfordere es allerdings ganz unabhängig von weitergehenden Regulierungen, dass sie wie auch andere IT-Systeme gegen Angriffe geschützt werden. Manipulationen von aussen könnten fatale Folgen haben, ergänzt Zbinden seine Einschätzung des Risikopotenzials.

Bevor eine Künstliche Intelligenz – auch als Fertiglösung eines Drittanbieters – im Unternehmen ausgerollt wird, ist eine genauere Analyse der Algorithmen und ihrer selbstlernenden Mechanismen empfehlenswert. Dabei geht es nicht nur um Konformität mit geltenden Gesetzen, sondern möglicherweise auch um die Passung mit den Werten und der Kultur des Unternehmens – und nicht zuletzt um ganz reale Erfordernisse, die bestimmte Entscheidungsspektren vorsehen müssen. Jan Berger empfahl ein  vorausschauendes Vorgehen: «KI wird Entscheidungen von Personalverantwortlichen nicht ersetzen können. Falls man dennoch KI einsetzt, muss man sich mit diversen Prozessen befassen, die greifen, wenn Entscheidungen rückgängig gemacht werden sollen oder Algorithmen aufgrund neuer Gesetzeslagen oder interner Vorgaben umgearbeitet werden müssen.»

Links

Artikel «Hidden Workers: Untapped talent», herausgegeben von der Harvard Business School, PDF
Vorschlag des EU-Rats zum AI Act (Medienmitteilung) 

Take Aways

  • Die Europäische Union präzisiert aktuell die Ausgestaltung eines Gesetzes zur Regulierung des Einsatzes Künstlicher Intelligenz.
  • Kernelement ist die Definition von vier Risikoklassen für den KI-Einsatz.
  • Bestimmte Anwendungen werden per se als unvereinbar mit geltendem Recht klassifiziert und gelten als unzulässig.
  • Hochriskante Anwendungen, die in der EU betrieben werden, unterliegen zukünftig einer Nachweispflicht hinsichtlich ihrer Vereinbarkeit mit geltendem Recht. Dazu gehören je nach Ausprägung auch Anwendungen im Personalbereich, beispielsweise die KI-gestützte Auswertung von Lebensläufen und sonstige automatisierte, personal- und bewerberbezogene Entscheidungen.
  • In der Schweiz gibt es noch keine Regulierungsinitiativen.
  • Entscheidungen für den Einsatz Künstlicher Intelligenz sollte eine Analyse der eingesetzten Algorithmen vorausgehen, die nicht nur deren Entscheidungspräferenzen, sondern auch die Passung mit der Kultur und den Werten des Unternehmens und Anpassbarkeit an veränderte Gesetzeslagen umfasst.

Artikel teilen


Jederzeit top informiert!

Erhalten Sie alle News-Highlights direkt per Browser-Push und bleiben Sie immer auf dem Laufenden.

Folgen sie uns auf