QSC ist jetzt q.beyond. Weitere Infos in unserer Pressemitteilung.
Publiziert am 27. September 2018 von unter:

Welchen Einfluss hat künstliche Intelligenz auf das Arbeitsrecht?

Scales of justice in the hands of a lawyer .

Quelle: ©istock.com/Natali_Mis

Die Digitalisierung der Arbeitswelt schreitet unaufhaltsam voran. Eines der vielversprechendsten, aber zugleich besorgniserregendsten Themengebiete ist die künstliche Intelligenz. Welchen Einfluss haben durch KI automatisierte Entscheidungsprozesse auf das Arbeitsrecht?

In vielen Bereichen wird heute bereits Künstliche Intelligenz eingesetzt. So dürfte den meisten klar sein, dass in Callcentern oder aber bei Computerchats das Gegenüber nicht immer ein Mensch ist. Und gerade in produzierenden Gewerben wie zum Beispiel der Schwerindustrie werden immer mehr Beschäftigte auf den Produktionsflächen durch automatisierte Maschinen ersetzt.

Künstliche Intelligenz führt also in bestimmten Bereichen unbestritten zu einem Verlust von Arbeitsplätzen. Trotzdem wird dieses Problem in der Öffentlichkeit und besonders von der Politik noch zu wenig adressiert, so dass auch viele juristische Fragen bislang unbeantwortet bleiben. In einigen arbeitsrechtlichen Bereichen erschwert der Einsatz von künstlicher Intelligenz sogar die Beantwortung von typischen Streitfragen im Verhältnis von Arbeitgebern und Angestellten. Dies ist zum Beispiel bei der Auszahlung von variablen Vergütungen wie Leistungsboni der Fall. Die Auszahlung setzt in der Regel das Erreichen bestimmter vorab definierter, individueller Ziele voraus. Am Ende einer Leistungsperiode wird berechnet, wie viele Ziele in welchem Umfang erreicht wurden und auf Basis dessen entschieden, ob ein Bonus gezahlt wird. Hier stellt sich die Frage, welche Auswirkungen der Einsatz von KI auf solche Bewertungsprozesse hat.

Kann künstliche Intelligenz menschliche Leistung beurteilen?

KI bedeutet allgemein erst einmal nur, dass die Entscheidungsstrukturen eines Menschen automatisiert und durch Algorithmen abgebildet werden. Aber wie kann solch ein technisches Vehikel auf Basis und unter Berücksichtigung bestimmter Parameter eine gerechte Entscheidung treffen, die darüber hinaus auch nicht kritisiert und in Frage gestellt werden kann? Denn der Einsatz von künstlicher Intelligenz ist nur dann effizient, wenn der Prozess der Entscheidungsfindung sowie die Entscheidung selbst nicht mehr vom Menschen hinterfragt wird. Soll aber nun ein technisches Programm darüber entscheiden, ob ein Vertragsabschluss zu treffen ist, oder ob eine bestimmte Bearbeitungsrate erreicht worden ist, so ist es dem verantwortlichen Mitarbeiter oft gar nicht möglich, die vereinbarten Ziele durch Einsatz seiner persönlichen Leistungen zu erreichen.

Vor dem Hintergrund der aktuellen Rechtsprechung ist dies nicht befriedigend. Diese sieht  nämlich vor, dass ein Arbeitnehmer, der durch Handlungen des Arbeitgebers gehindert wird, seine Ziele zu erreichen, trotzdem einen Anspruch auf 100 % der vereinbarten variablen Vergütung hat – auch wenn die an und für sich vorgegebenen Ziele nicht erreicht worden sind. Sofern das Bonussystem zudem allein die Vorgaben von § 315 BGB abbildet, stellt sich die Frage, ob eine faktische Leistungsbestimmung durch ein technisches System überhaupt angemessen bzw. gerecht ist. Daher sind die Unternehmen aufgerufen, ihre variablen Vergütungssysteme erst einmal den neuen technischen Umständen anzupassen und, wenn nötig, ihre Vergütungsmodelle zu modifizieren. Dieses Beispiel zeigt, dass bisherige Lösungsansätze unbefriedigend sind.

Kann ein Arbeitnehmer verweigern, was die KI von ihm will?

Ein mögliches weiteres Problem berührt sogar die Frage der Grundrechte selbst. Auf den ersten Blick mag es abwegig erscheinen, doch es gibt durchaus schon Bereiche, in denen der Arbeitnehmer nicht mehr frei in seinen Entscheidungen ist, weil er fachliche Weisungen von der künstlichen Intelligenz erhält. Etwa, wenn auf einen bestimmten Prozessschritt ein weiterer zwingend zu erfolgen hat. Im Arbeitsrecht unbestritten ist, dass die Erledigung bestimmter Tätigkeiten aufgrund religiöser oder weltanschaulicher Überzeugungen berechtigt abgelehnt werden kann. Ein streng muslimischer Angestellter kann sich zum Beispiel weigern, in einem Getränkehandel alkoholische Getränke einzusortieren. Prinzipiell könnten Gläubige die Anweisungen einer KI auch ablehnen, wenn ihr Glaube ihnen nur erlaubt, Anweisungen von „Geschöpfen Gottes“ entgegen zu nehmen – eine Definition, die auf künstliche Intelligenz auf den ersten Blick nicht zutrifft. Für diesen Widerstreit wäre das Grundgesetz also durchaus der rechtliche Rahmen.

Insgesamt betrachtet bietet die künstliche Intelligenz also viele operative Vorteile, denen aber noch rechtliche Leitlinien fehlen. Unternehmen sollten schon im Vorfeld ihre Prozesse analysieren, um zu erkennen, welche rechtlichen Fragen damit verbunden sind.

Dieser Artikel erschien ursprünglich auf Digitales-Wirtschaftswunder.de, dem Themenblog der QSC AG

Drucken

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*

Um die Diskussionsqualität zu wahren, veröffentlichen wir nur noch Kommentare mit nachvollziehbarem Vor- und Nachnamen sowie authentischer E-Mail-Adresse.