QSC ist jetzt q.beyond. Weitere Infos in unserer Pressemitteilung.

Mehr Transparenz bei Algorithmen

Automatisierte Entscheidungssysteme bestimmen mittlerweile unseren Lebensalltag. Doch wie kann man verhindern, dass der zunehmende Einsatz Künstlicher Intelligenz die Grund- und Verbraucherrechte einschränkt? Und welche Instrumente bietet die neue Datenschutz-Grundverordnung (DSGVO) dabei?

Vor kurzem schockte Google die Öffentlichkeit mit einer Software, die im Auftrag von Menschen Telefonate durchführt, zum Beispiel zur Verabredung eines Friseurtermins. „Duplex“ ahmte dabei die Sprechweise von Menschen so täuschend echt nach, dass die Angerufenen nicht erkennen konnten, dass sie von einem KI-basierten Automaten kontaktiert wurden. SPIEGEL online bezeichnete die neue Technik als „gruselig gut“. Darf eine künstliche Intelligenz (KI) einen Menschen derart in die Irre führen? Viele der Angerufenen nahmen die automatisierten Anrufe als Täuschung wahr und nicht als besonders hilfreichen Service. Manche Kritiker bezeichneten dieses Vorgehen sogar als „digitalen Enkeltrick“ und rückten den Service in die Nähe eines Betrugsversuchs. Sie fragten sich, ob sich eine KI-basierte Stimme nicht als solche zu erkennen geben müsse. Mittlerweile hat Google reagiert und klargestellt, dass „Duplex“ sich als Automat vorstellen werde: „Wir entwickeln die Funktion mitsamt einer eingebauten Offenlegung und werden sicherstellen, dass sich das System ordentlich identifiziert“, sagte ein Google-Sprecher dem Technologie-Medium „The Verge“.

Mehr Transparenz und Kontrolle – das ist die grundlegende Forderung angesichts des weit verbreiteten Einsatzes von Algorithmen. Die automatisierten Entscheidungsfindungen haben schon diverse Lebensbereiche erfasst: Sie ermitteln die Preise von Flugtickets, entscheiden über unsere Kreditwürdigkeit und die Produkte, die uns Amazon vorschlägt. Oder darüber, welche Einträge es auf der Google-Trefferliste nach oben schaffen. In den USA überlässt man ihnen sogar die Entscheidung darüber, ob Straftäter auf Bewährung freikommen und wie hoch das Risiko ist, dass diese wieder rückfällig werden. Die Stadtverwaltung von New York lässt Algorithmen berechnen, wie hoch das Risiko für eine Person ist, obdachlos zu werden und welches Kind für welche weiterführende Schule geeignet ist. Beim „Predictive Policing“ wird berechnet, wie sich die Kriminalität in bestimmten Stadtteilen entwickeln wird. Die Medizin-Plattform WAVE sagt per Algorithmus lebensbedrohliche Zustände und den Tod von schwer kranken Patienten voraus. Auch die moderne Arbeitswelt tickt längst im Rhythmus der Algorithmen, zum Beispiel bei der Bewerbervorauswahl.

Hilft die neue Datenschutz-Grundverordnung (DSVGO)?

Doch wie kann man verhindern, dass der zunehmende Einsatz Künstlicher Intelligenz die Grund- und Verbraucherrechte einschränkt? Wie kann man mehr Transparenz schaffen und mehr Kontrolle erlangen? Hilft die neue Datenschutz-Grundverordnung (DSGVO), die am 25. Mai in Kraft getreten ist, die Algorithmen besser zu überprüfen oder sogar an die Kette zu legen? Bisher führten die bestehenden Lücken in Datenschutzgesetzen zu einem ungeregelten und unkontrollierten Einsatz der Algorithmen.

Nur begrenzt, denn die DSGVO wird lediglich einen Teil dieser Regelungslücke schließen. Der Artikel 22 verbietet bloß vollständig automatisierte Entscheidungen, an denen keine Menschen an der Entscheidungsfindung beteiligt sind. Bei den meisten ADM-Systemen (Algorithmic decision making) sind jedoch Menschen in den Entscheidungsprozess einbezogen: Beim Scoring etwa bereitet der Algorithmus die Entscheidung lediglich vor, die dann ein echter Mensch fällt. Hier greifen die ADM-spezifischen Informations- und Erläuterungspflichten der DSGVO nicht.

Verbesserung: Recht auf individuelle Auskünfte

Die DSVGO schützt auch nicht vor gesellschaftlich relevanten Risiken, die weit über das Datenschutzinteresse des Einzelnen hinausgehen. Dies liegt auch daran, dass die DSGVO vorrangig den Schutz Einzelner regelt. „Für die fehlerhafte Bewertung oder systematische Diskriminierung ganzer Gruppen durch automatisierte Entscheidungen ist die neue Regulierung blind“, sagt Wolfgang Schulz vom Hans-Bredow-Institut für Medienforschung an der Universität Hamburg, der das Gesetz im Auftrag der Bertelsmann-Stiftung analysiert hat.

Doch es gibt auch Verbesserungen: Bürger können mithilfe der DSGVO individuelle Auskünfte einholen. Bei einer Jobbewerbung stellt die Verordnung sicher, dass ein erfolgloser Bewerber erfahren kann, welche seiner Daten ausschlaggebend für die negative Entscheidung waren. Zudem führen die strengeren Vorgaben zur Dokumentation dazu, dass Akteure, die Daten verarbeiten, ein höheres Bewusstsein für Datenschutzfragen entwickeln. Fazit: „Die Datenschutz-Grundverordnung ist ein wichtiger Schritt für europaweite Datenschutzstandards und Auskunftsrechte der Bürger, aber sie greift bei neuen Technologien wie Algorithmen und künstlicher Intelligenz eindeutig zu kurz“, sagt Ralph Müller-Eiselt, Digitalisierungsexperte der Bertelsmann Stiftung.

Bundesanstalt für Algorithmenaufsicht

Die beiden Wissenschaftler Konrad Lischka und Julia Krüger haben in ihrem Arbeitspapier „Damit Maschinen Menschen dienen“ aufgeführt, welche Instrumente es gibt, um diesen Herausforderungen zu begegnen:

  1. Zielsetzung algorithmischer Systeme auf gesellschaftliche Angemessenheit prüfen.
  2. Umsetzung dieser Ziele im Einsatz überprüfen.
  3. Vielfalt der Systeme, Ziele und Betreiber schaffen und sichern.
  4. Übergreifende Rahmenbedingungen für den teilhabeförderlichen Einsatz schaffen, wie zum Beispiel Kompetenz bei Betroffenen, Anwendern sowie staatliche Regulierungskompetenz.

Auch Verbraucherschützer fordern, dass algorithmenbasierte Entscheidungsprozesse so gestaltet werden müssen, dass sie die Entscheidungssouveränität und informationelle Selbstbestimmung von Verbrauchern gewährleisten, so der Verbraucherzentrale Bundesverband. Hierfür müsse ein staatlich legitimiertes Kontrollsystem geschaffen werden, etwa eine Bundesanstalt für Algorithmenaufsicht, vergleichbar mit der Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin). Darüber hinaus gibt es viele weitere Ideen, wie man diese Kontrolle erlangen kann: innerbetriebliche Algorithmen-Beauftragte, angelehnt an Datenschutzbeauftragte oder Vereine, die wie der TÜV in staatlichem Auftrag Systeme überprüfen, Verträglichkeitsprüfungen, Qualitätssiegel für Herkunft und Güte von Daten, Verbandsklagerechte für die Antidiskriminierungsstelle des Bundes, eine kompetente Algorithmenagentur – kurz: Möglichkeiten, algorithmische Entscheidungen zu kontrollieren und deren Big-Data-Basis transparenter zu machen, gibt es viele. Man muss sie nur anwenden.

Dieser Artikel erschien ursprünglich auf Digitales-Wirtschaftswunder.de, dem Themenblog der QSC AG

Drucken

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*

Um die Diskussionsqualität zu wahren, veröffentlichen wir nur noch Kommentare mit nachvollziehbarem Vor- und Nachnamen sowie authentischer E-Mail-Adresse.