Kategorien
Blog

Digitale Verantwortung ist kein „Policy-Projekt“ – sondern eine Führungsfrage

Direkt zum Beratungsangebot

In vielen Unternehmen erlebe ich gerade eine merkwürdige Schieflage: Generative KI (GenAI) wird eingeführt, Pilotprojekte laufen, Prompt-Guidelines werden verteilt – und irgendwo hängt noch ein PDF namens „AI Policy“. Das fühlt sich ordentlich an. Aber oft ist es nur das: ordentlich. Nicht unbedingt verantwortlich.

Ein aktueller wissenschaftlicher Sammelessay im Schmalenbach Journal of Business Research setzt genau hier an – und bringt einen Gedanken auf den Punkt, den ich in der Praxis ständig sehe: „Digitale Verantwortung“ ist nicht nur ein ethischer Aufsatz, sondern ein Organisationsphänomen. Gemeint ist die verantwortliche Gestaltung von Design, Entwicklung, Einführung, Nutzung und auch Stilllegung digitaler Technologien – orientiert an ethischen Prinzipien und mit Blick auf soziale, ökologische und ökonomische Auswirkungen.

Das klingt abstrakt. Wird aber sehr konkret, sobald man die typische „KI-Debatte“ in Unternehmen ehrlich anschaut.

Zwei Denkfehler, die Verantwortung in der Praxis ausbremsen

Die Autor:innen beschreiben zwei Bruchlinien („fault lines“), die erklären, warum wir uns so oft im Kreis drehen.

1) Wer oder was handelt eigentlich? (Agency)

In der Organisation denken viele automatisch: Menschen sind verantwortlich. Oder: Die IT ist verantwortlich. Oder: Der Anbieter ist verantwortlich.

Der Text hält dagegen: Verantwortung entsteht häufig in sozio-technischen Systemen, also in einem Geflecht aus Menschen, Prozessen, Anreizstrukturen – und eben auch Technologie als „Mit-Akteur“ (z. B. durch Plattformlogiken, Modellverhalten, Datenflüsse).

2) Wollen wir nur verstehen – oder auch gestalten?

Viele Ethikdebatten bleiben beim kritischen Rückblick (Was läuft schief? Wer hat versagt?). Andere hängen im technikgläubigen Vorwärtsmodus (Wir bauen mal und optimieren später).

Der Sammelessay plädiert dafür, beides zusammenzubringen: kritisch und konstruktiv, reflektierend und interventionistisch.

Das ist für Beratung Gold wert, weil es aus dem moralischen Schwarz-Weiß herausführt: Nicht „die Technik ist böse“ – und auch nicht „die Technik löst alles“. Sondern: Wie gestalten wir Verantwortung so, dass sie im Alltag trägt?

Drei Perspektiven, die sofort Ordnung in jede KI-Diskussion bringen

Besonders praktisch finde ich eine Unterscheidung, die im Sammelband als „structured yet flexible framework“ beschrieben wird: Man kann digitale Verantwortung aus drei Blickwinkeln betrachten – Use, Design, Regulation.

  • Use (Nutzung): Wie arbeiten Teams mit GenAI? Welche Entscheidungen werden delegiert? Welche Kompetenzen fehlen?
  • Design (Gestaltung/Technik): Wie werden Systeme gebaut, integriert, getestet, überwacht? Was passiert nach dem Go-Live, wenn sich Modelle und Nutzung verändern?
  • Regulation (Governance/Institutionen): Welche Regeln, Rollen, Kontrollmechanismen, Eskalationswege und Stakeholder-Prozesse sorgen dafür, dass Verantwortung nicht nur „gefordert“, sondern organisiert wird?

Allein diese Dreiteilung verhindert schon viele Missverständnisse: Ein Teil der Runde diskutiert „Ethik“ und meint eigentlich Schulung & Nutzung. Ein anderer meint Tool-Auswahl & Architektur. Ein dritter meint Haftung & Compliance. Und alle wundern sich, warum es zäh ist.

Warum „digitale Verantwortung“ mehr ist als das Addieren von Einzelwirkungen

Ein weiterer Punkt aus dem Text trifft einen Nerv: Digitale Verantwortung ist nicht einfach „gute Effekte minus schlechte Effekte“. Entscheidend sind Systemwirkungen – also kollektive Effekte vieler Akteure (Unternehmen, Staat, Zivilgesellschaft), die sich gegenseitig verstärken oder neutralisieren.

Das ist auch ethisch relevant: Wer Verantwortung ernst nimmt, schaut nicht nur auf den eigenen Nutzen, sondern auf das, was in der katholischen Soziallehre sehr gut benennbar ist: Gemeinwohl, Menschenwürde, Solidarität und Subsidiarität – übersetzt in digitale Realität: fairer Zugang, Schutz vor Diskriminierung, Transparenz, Teilhabe, und eine Governance, die nicht nur Macht konzentriert.

Was heißt das für Führungskräfte – ganz praktisch?

Für mich läuft es auf eine unbequeme, aber entlastende Wahrheit hinaus:

Verantwortung ist kein Extra-Kapitel am Ende der Digitalstrategie. Verantwortung ist die Art, wie Digitalstrategie gemacht wird.

Und das betrifft drei Führungsaufgaben:

  1. Begriffe klären, bevor man Lösungen baut (Use/Design/Regulation sauber trennen).
  2. Verantwortung organisieren, nicht moralisieren (Rollen, Prozesse, Daten- und Entscheidungswege sichtbar machen – „agency“ realistisch denken).
  3. Von „wir sollten“ zu „wir können“ kommen: kritisch bleiben, aber in Gestaltungsfähigkeit übersetzen.

Mein Beratungsangebot – „Digital Responsibility Sprint“ als Workshop

Aus genau dieser Logik heraus baue ich aktuell ein Beratungsformat, das Unternehmen schnell von Ethik-Rhetorik zu belastbarer Praxis bringt:

Digital Responsibility Sprint (Workshop) – je nach Bedarf 2,5–3 Stunden online oder 1 Tag vor Ort.

Im Kern geht es um drei Schritte, die der Sammelessay als Brückenbau für Wirkung beschreibt: inquire – involve – integrate (verstehen, gemeinsam erproben, institutionalisieren).

Was am Ende auf dem Tisch liegt (nicht als Hochglanzfolie, sondern als Arbeitsgrundlage):

  • eine Use/Design/Regulation-Landkarte für eure KI- und Digitalinitiativen
  • eine Responsibility Map: Wer entscheidet was – mit welchen Daten – unter welchen Leitplanken? (sozio-technisch gedacht, nicht nur organigrammisch)
  • 5–10 konkrete Governance-Next-Steps (Rollen, Eskalation, Training, Monitoring, Kommunikationslinien)

Wenn Sie das für Ihr Unternehmen prüfen willst: Schreiben Sie mir gern eine Nachricht, wo Sie gerade stehen: eher Use, eher Design oder eher Regulation. Dann kann ich dir sagen, wie so ein Sprint bei Ihnen sinnvoll zugeschnitten wäre.