Person nutzt KI an Laptop.

Warum KI-Nutzer*innen immer mehr Verantwortung schultern müssen

Compliance hin oder her, Fakt ist: Gesetzliche Pflichten und etablierte Normen und Standards schränken menschliche Kreativität und Handlungsfreiheiten zunehmend ein. Das gilt auch für die Nutzung von Künstlicher Intelligenz (KI). Die Krux bei KI ist jedoch, dass die KI technisch bedingt einen stochastischen Freiraum für Fehler und Unwahrheiten genießt, der Mitarbeitenden so nicht gewährt werden würde. Wer würde schon einen Mitarbeitenden einstellen, der zu Halluzinationen neigt und sich gern mal verrechnet?

Ein KI-Chatbot braucht also jemanden, der Verantwortung übernimmt – eine Art Wächter oder Erziehungsberechtigten. Jemanden, der aufpasst, Grenzen setzt und Fehler ausgleicht. Denn so können wir KI-Chatbots wie ChatGPT, Copilot und dergleichen nicht direkt auf die Menschheit loslassen. Darin sind sich eigentlich alle einig.

EU-Datenschutz reguliert, um individuelle Verantwortung zu reduzieren

Schaut man auf den Datenschutz nach der DSGVO, lässt sich eine klare Logik erkennen: Prozesse und Arbeitsanweisungen werden so gebaut, dass der Umgang mit personenbezogenen Daten möglichst narrensicher ist. Mitarbeitende sollen nicht lange überlegen, sondern wie am Fließband standardisierte Schritte abarbeiten. Entscheidungen werden auf wenige Punkte reduziert, Gestaltungsspielräume weitgehend eliminiert. Und wenn doch ein Fehler passiert? Dann wird nicht der einzelne Mitarbeitende in Frage gestellt, sondern der Prozess, in dem der Fehler sich ereignete. Er wird so angepasst, dass ein ähnlicher Fehler künftig gar nicht mehr entstehen kann.

Das bedeutet am Ende, dass die Mitarbeitenden immer weniger Verantwortung tragen müssen. Sie werden geschult und zur Einhaltung der Prozesse ermahnt. Der Arbeitgeber trägt die organisatorische Verantwortung dieser Choreographie. Mitarbeitende machen weiterhin Fehler, aber zunehmend weniger oft.

EU-KI-Regulierung geht einen anderen Weg

Doch nach diesem gemütlichen Sauna-Aufguss kommt nun die kalte Dusche der KI-Regulierung. Denn KI-Chatbots lassen sich nicht in diese Logik einordnen. Sie arbeiten auf der Grundlage schwer oder gar nicht nachvollziehbarer stochastischer Methoden. Die Fehler von der KI können wir jedenfalls nach derzeitigen Möglichkeiten nicht hinreichend aufklären und noch weniger die Prozesse optimieren.

Es liegt also letztlich bei den Nutzer*innen der KI zu erkennen, was richtig und was falsch ist. Während sie ohnehin die Eingaben in die KI steuern und entscheiden, müssen sie auch die Ausgabe stets prüfen und nach eigenem Ermessen verwenden oder verwerfen. Sie tragen also eine nicht unerhebliche und im Vergleich zur digitalen Welt ohne KI neue Verantwortung im Umgang mit der KI.

Aus dem Grund geht die KI-Verordnung hier auch neue Wege. Sie versucht – anders als die DSGVO – weniger ein enges Korsett an Maßnahmen zu schnüren, sondern setzt die Herstellung einer ausreichenden KI-Kompetenz bei den Mitarbeitenden voraus, welche diese in die Lage versetzen soll, die KI verantwortungsvoll zu nutzen bzw. die Fehler und Tücken der KI letztlich zu beheben.

KI-Entwicklungen in naher Zukunft  

So weit so gut, denkt sich der durchschnittliche KI-Beauftragte nun. Doch wir stehen erst am Anfang der Entwicklung. Schon jetzt ist absehbar, dass KI-Systeme unser digitales Leben immer stärker prägen werden. Heute lesen sie Texte gegen, unterstützen bei Recherchen und liefern Vorschläge. Morgen (und in Teilen auch schon heute) übernehmen spezialisierte KI-Agenten wiederkehrende Aufgaben und arbeiten enorme Datenmengen in übermenschlicher Geschwindigkeit durch. Und da wir das, was die KI macht, nur begrenzt und wenn überhaupt nachvollziehen können, wächst die Mengen dessen, was wir und auch die Nutzer*innen der KI nicht mehr verstehen.

Zwar werden diese Agenten noch eine Weile von Menschen überwacht, doch die Verlagerung von faktischer Verantwortung hin zur KI ist kaum zu leugnen. Denn Mitarbeitende können mit der Geschwindigkeit der KI-Outputs nicht mehr Schritt halten – oder sie sinken in eine Rolle herab, in der sie Aufgaben nur noch überwachen, aber nicht mehr wirklich mitgestalten. Selbst geschulte KI-Nutzer*innen werden überfordert sein und teils blind auf ein korrektes Verhalten der KI vertrauen müssen.

Hinzu kommt, dass nicht alle KI-Nutzer*innen den gleichen Enthusiasmus im verspielten Umgang mit KI-Systemen teilen. Gerade die, die KI als Störung ihrer eingespielten Abläufe empfinden, werden der Verantwortung schneller überdrüssig – und die ihnen übertragene Verantwortung eher aus Zwang als aus Überzeugung an die KI abgeben.

Zusammengefasst

Wir können also festhalten: Mit der zunehmenden Integration von KI-Systemen in Arbeitsprozesse wächst auch die Verantwortung der Nutzenden. Diese Verantwortung dauerhaft allein auf die Nutzenden abzuwälzen, ist langfristig gesehen problematisch bis riskant. Doch die Hände in den Schoß zu legen und sich der Entwicklung zu beugen, wäre ebenso fatal. Da ist die europäische Regulierung mit ihrer Pflicht zur Schaffung von KI-Kompetenz bei den Nutzenden richtig und wichtig.

Arbeitgeber sind deshalb gefordert, ihre Mitarbeitenden nicht allein zu lassen. Sie können Verantwortung kanalisieren, indem sie klare Rahmenbedingungen schaffen. Genau dabei unterstützen wir Sie – und helfen Ihnen bei:

  • Der Sensibilisierung und Schulung durch unsere eLearning Angebote über DSN train, damit Mitarbeitende KI-Ergebnisse richtig einordnen können.
  • Der Einführung einer unternehmensweite KI-Richtlinie, die definiert, wo und wie KI eingesetzt werden darf.
  • Der Entwicklung von standardisierten Prozessen für neue KI-Systeme und für neue Use-Cases mit bereits freigegebenen Systemen.
  • Der Stellung Ihres KI-Beauftragten oder die Beratung eines vorhandenen KI-Beauftragten, der die Compliance nach der KI-Verordnung sicherstellt.
  • Der Dokumentation und Klassifikation der eingesetzten und freigegebenen KI-Systeme mit unserer Softwarelösung DSN port und dem Modul Künstliche Intelligenz.

Wenn Sie mehr über unsere Leistungen und Lösungen wissen möchten, dann nehmen Sie gern Kontakt zu uns auf.