Kategorien
Blog

Tagung der Denkfabrik R 21 – „80 Jahre Soziale Martwirtschaft“

Am 27. Januar 2026 war ich in Düsseldorf bei der Konferenz „Wohlstand für alle? 80 Jahre Soziale Marktwirtschaft“ der Denkfabrik R21 zu Gast. Ich habe mich über die Einladung gefreut – schon allein deshalb, weil die Soziale Marktwirtschaft zu den großen politischen Errungenschaften der Bundesrepublik gehört und wir allen Anlass haben, ihre Zukunftsfähigkeit neu zu vermessen. 

Die Tagung war dramaturgisch klar gebaut: Nach der Eröffnung durch Andreas Rödder folgte eine Rede von Linda Teuteberg zur „Sozialen Marktwirtschaft als Ordnung der Freiheit“.  In vielem habe ich ihre Grunddiagnose geteilt: Deutschland macht es Unternehmerinnen und Unternehmern oft unnötig schwer, wir riskieren in Teilen Wettbewerbsfähigkeit und Innovationskraft – und die politische Debatte muss wieder stärker über Rahmenbedingungen, Tempo, Planungssicherheit und die produktive Seite von Freiheit sprechen.

Ich selbst war im Panel 2 „Markt und Moral: Wie nachhaltig und gerecht ist unsere Wirtschaftsordnung?“ eingeladen. Auf dem Podium saßen Dieter Janecek und Kristina Schröder; Markus Kerber konnte krankheitsbedingt nicht teilnehmen.  Dass dieses Panel thematisch sehr breit wurde, war spürbar: Es ging gleichzeitig um Wettbewerbsfähigkeit, Regulierung, gesellschaftliche Erwartungshaltungen, Energiefragen und das diffuse Verhältnis von Moral, Staat und Markt. In solchen Formaten ist das nachvollziehbar – zugleich droht dann manchmal der Kern zu verschwimmen: Was genau ist eigentlich das „Soziale“ an der Sozialen Marktwirtschaft? Und was muss eine freiheitliche Wirtschaftsordnung leisten, damit sie nicht nur effizient, sondern auch gerecht bleibt?

Ein Punkt war mir in der Diskussion besonders wichtig – auch wenn er nicht überall auf Zustimmung gestoßen ist: Die letzten 15–20 Jahre praktischer Erfahrung im Nachhaltigkeitsmanagement zeigen, dass es nicht ausreicht, Unternehmen „einfach machen zu lassen“ und darauf zu hoffen, dass Verantwortung automatisch folgt. Viele Unternehmen haben sehr ernsthaft umgebaut, gelernt und investiert. Aber es gab eben auch nicht wenige Fälle, in denen man – solange es bequem war – Verantwortung eher als PR, als Compliance oder als lästige Bürokratie betrachtet hat. Das ist kein „Anti-Unternehmen“-Vorwurf, sondern eine nüchterne Beobachtung über Anreizstrukturen, Kultur, Führung und institutionelle Routinen.

Damit bin ich bei dem Punkt, den die katholische Soziallehre (und im Kern auch ordnungspolitisches Denken) stark macht: Marktwirtschaft ist ein kraftvolles Instrument der Freiheit, der Innovation und der dezentralen Problemlösung – aber sie ist kein moralischer Automat. Sie braucht eine Spielordnung, die Freiheit schützt, Macht begrenzt, Verantwortung ermöglicht und die Schutzbedürftigen nicht aus dem Blick verliert. Das ist keine Einladung zum kleinteiligen Dirigismus. Im Gegenteil: Eine gute Ordnung ist gerade dadurch „freiheitsfähig“, dass sie klare Leitplanken setzt, institutionelle Verantwortung stärkt und die Meso-Ebene ernst nimmt – also jene Ebene aus Unternehmen, Branchenstandards, Sozialpartnerschaft, Bildung, Finanzierung und Governance, in der Gerechtigkeit im Alltag tatsächlich produziert wird.

Auch das vorangegangene Panel zu den Wurzeln der Sozialen Marktwirtschaft („Zwischen Ordoliberalismus und christlicher Soziallehre“) hat diese Grundspannung sichtbar gemacht.  Dort war ebenfalls eine sehr marktwirtschaftlich zugespitzte Position im Raum – intellektuell konsequent, aber aus meiner Sicht nicht repräsentativ für die Breite dessen, was christliche Sozialethik und praktische Erfahrung zusammen nahelegen: dass Freiheit ohne tragende soziale und institutionelle Voraussetzungen erodiert und damit am Ende auch ökonomisch schwächer wird.

Mein persönliches Fazit aus Düsseldorf ist deshalb versöhnlich, aber klar: Wir sollten die Soziale Marktwirtschaft heute nicht gegen Nachhaltigkeit oder gegen Gerechtigkeit ausspielen – sondern als lernfähige Ordnung verteidigen, die beides integrieren kann. Dafür braucht es weniger moralische Selbstvergewisserung (auf allen Seiten) und mehr Selbstkritik und Präzision bei den Instrumenten: Welche Regeln sind wirklich nötig? Welche sind überkomplex? Wo müssen Unternehmen selbst ernsthaft nachrüsten – in Führung, Kultur, Daten, Qualifizierung, fairen Verfahren? Und wo muss Politik Rahmen schaffen, die Verantwortung belohnen, statt sie entweder zu überfordern oder dem Zufall zu überlassen?

Zum Abschluss der Tagung stand noch das Panel „Skalpell oder Kettensäge: Welche Reformen braucht der Wirtschaftsstandort Deutschland?“ sowie das Schlusswort von Kristina Schröder.  Auch hier war der Grundton deutlich: Reformdruck ist real – und die Debatte wird nur dann produktiv, wenn sie nicht in Lagerlogik abgleitet, sondern die Voraussetzungen von Wohlstand, Freiheit und sozialem Frieden gemeinsam denkt.

Kategorien
Blog

Die gefährlichste Rede des Jahres? Warum wir Yuval Hararis Verführung widerstehen müssen

Ich habe mir in letzter Zeit oft eine Frage gestellt, die auf den ersten Blick übertrieben wirken mag, aber umso dringender wird, je genauer ich den aktuellen Diskurs in Davos und im Silicon Valley analysiere: Ist Yuval Noah Harari derzeit der gefährlichste Denker auf der Weltbühne?

Ich sage das nicht leichtfertig. Harari ist brillant, artikuliert und ruhig. Wenn er beim Weltwirtschaftsforum spricht, hört die globale Elite in andächtiger Stille zu. Aber gerade weil er so überzeugend ist, wirkt seine Botschaft wie eine intellektuell verpackte Giftpille. Er analysiert nicht nur die Zukunft; er verführt uns dazu, unsere Menschlichkeit aufzugeben, bevor der eigentliche Kampf überhaupt begonnen hat.

Hararis zentrale These – dass die Ära der menschlichen Handlungsfähigkeit (Agency) vorbei sei und wir nun „hackbare Tiere“ seien – wird uns als Unausweichlichkeit verkauft. Er argumentiert, der Mensch sei im Grunde ein biochemischer Algorithmus. Sobald KI genügend Daten und Rechenleistung hat, wird sie uns besser kennen als wir uns selbst. Sie wird unsere Wünsche entschlüsseln, unsere Entscheidungen vorhersagen und unseren „freien Willen“ als nostalgische Illusion entlarven.

Der große Kategorienfehler

Als Kommunikationswissenschaftler und Theologe muss ich dem mit aller Entschiedenheit widersprechen. Hararis Vision basiert auf einem fundamentalen Kategorienfehler. Er verwechselt Syntax mit Semantik. Er verwechselt die Landkarte mit der Landschaft.

Ja, eine KI kann Sprachbausteine (Tokens) verarbeiten. Sie kann einen Text generieren, der wie ein Liebesbrief oder eine Predigt klingt. Aber sie versteht kein einziges Wort, das sie generiert. Sie hat keine Qualia, kein inneres Erleben dessen, was es bedeutet, zu sein. Sie simuliert, aber sie existiert nicht.

Verstehen Sie mich nicht falsch: Diese Simulation ist mächtig. Sie bringt enorme Chancen und Gefahren mit sich. In vielen funktionalen Zusammenhängen ist es auch egal, ob es eine Simulation ist oder ein bewusstes Wesen – weil es funktioniert und wir damit umgehen müssen. Mein Ziel ist nicht, KI kleinzureden, sondern Grenzen zu ziehen, die von Harari und seinen Anhängern verwischt werden. Indem er den Menschen lediglich als datenverarbeitende Einheit definiert, reduziert Harari das unergründliche Geheimnis der Person auf ein technisches Problem. Und sobald man den Menschen als Problem betrachtet, beginnt man nach einer „Lösung“ zu suchen – was meist in einer Technokratie endet.

Der „Stich im Magen“: Eine sakramentale Sicht

Lassen Sie mich eine andere Perspektive anbieten – eine, die nicht im Dataismus des Silicon Valley wurzelt, sondern in einem tieferen anthropologischen und ja, christlichen Realismus.

Denken Sie an die Erfahrung, im Frühling vor einem blühenden Baum zu stehen. Er ist atemberaubend schön. Doch in dem Moment, in dem die Blütenblätter zu fallen beginnen, spüren wir ein seltsames Gefühl – eine spezifische Art von Wehmut, einen „Stich im Magen“. Wir werden von der Flüchtigkeit der Schönheit verwundet.

In der technokratischen Weltanschauung, die Harari beschreibt, ist dieser Schmerz ein Fehler im System (ein „Bug“). Es ist ein Defekt unserer Biologie. Die transhumanistische Lösung besteht darin, den Tod zu „fixen“, ewige Blüten genetisch zu züchten oder unser Bewusstsein in eine Cloud hochzuladen, wo Verlust nicht mehr existiert. Sie versprechen uns eine Welt, in der das Problem der Endlichkeit gelöst ist.

Aber als Christ sehe ich das anders. Ich betrachte die Welt durch eine sakramentale Linse. Das bedeutet: Die physische Realität ist nicht nur „Materie“ oder „Datenmaterial“ – sie ist ein Zeichen. Sie verweist über sich selbst hinaus.

Wenn ich die fallenden Blütenblätter sehe, sehe ich nicht nur versagende Biologie; ich sehe ein Geheimnis. Die materielle Welt ist ein Fenster zum Geistigen. Dieser „Schmerz“, den wir fühlen, wenn wir einen geliebten Menschen verlieren oder Schönheit vergehen sehen, ist kein Bug, der gepatcht werden muss. Er ist unser wertvollstes Feature. Er ist der „Eros“ des menschlichen Geistes – eine Sehnsucht nach dem Unendlichen. Er ist der Beweis, dass wir für etwas gemacht sind, das diese Welt nicht bieten kann. Wir sind keine Algorithmen, die ihr Überleben optimieren; wir sind Wesen, die auf eine Begegnung mit dem Ewigen hin angelegt sind.

Das smarte Gefängnis

Das ist der Grund, warum Hararis Vision so gefährlich ist. Er suggeriert implizit, dass Widerstand zwecklos ist, weil wir ohnehin nur Code sind.

Die wahre Gefahr der KI ist nicht, dass sie uns wie in einem Hollywood-Blockbuster vernichtet. Die Gefahr ist, dass sie uns saturiert. Wenn wir zulassen, dass Technologie jede Kante unseres Lebens glättet, perfekte Intimität simuliert und uns von dem „Schmerz“, Mensch zu sein, ablenkt, bauen wir uns ein komfortables, smartes Gefängnis. Wir tauschen das Drama der menschlichen Existenz – das Mysterium, das gelebt werden muss – gegen ein steriles Leben voller Probleme, die gelöst werden.


Was bedeutet das für Führungskräfte und Unternehmen?

Wenn wir diese anthropologische Analyse ernst nehmen, hat das massive Konsequenzen für Leadership, Unternehmenskultur und strategische Entscheidungen. Wir dürfen die Deutungshoheit über den Menschen nicht den Technokraten überlassen.

Hier sind drei Impulse für Führungskräfte, die nicht nur verwalten, sondern gestalten wollen:

1. Widerstand gegen die Reduktion des Mitarbeiters

In einer Welt, die von KI und Data Analytics getrieben wird, ist die Versuchung groß, auch Mitarbeiter nur noch als „Human Resources“ im wörtlichen Sinne zu sehen – als optimierbare Datensätze. Hararis Weltbild lädt dazu ein, Performance nur noch algorithmisch zu messen. Die Führungsaufgabe: Wahre Leadership bedeutet heute, das „Geheimnis“ im Mitarbeiter zu verteidigen. Kreativität, Empathie und ethische Urteilskraft entstehen nicht aus optimierten Prozessen, sondern aus der menschlichen Unverfügbarkeit. Wer seine Mitarbeiter wie hackbare Algorithmen behandelt (z.B. durch excessive Überwachung oder rein datengetriebenes Management), tötet genau den Geist, den keine KI simulieren kann.

2. Innovation entsteht aus „Mangel“, nicht aus Saturation

Eine KI kann Lösungen für definierte Probleme generieren. Aber sie kann keine neuen Fragen stellen. Warum? Weil ihr der „Stich im Magen“ fehlt. Ihr fehlt die Sehnsucht, der Mangel, das Leiden an der Unvollkommenheit. Die Unternehmensstrategie: Wenn wir unsere Unternehmen zu „perfekten Maschinen“ optimieren, in denen alles reibungslos läuft, eliminieren wir den Nährboden für radikale Innovation. Wir brauchen Führungskräfte, die den Mut haben, Lücken, Unvollkommenheit und Reibung zuzulassen. Wirkliche Innovation ist immer ein Ringen um eine bessere Zukunft, getrieben von einer zutiefst menschlichen Unzufriedenheit mit dem Status quo. Eine satte KI innoviert nicht.

3. Ethik als Charakterfrage, nicht als Compliance-Regel

Harari ruft nach staatlicher Regulierung, weil er dem Individuum nicht zutraut, sich gegen den Algorithmus zu wehren. Er setzt auf externe Kontrolle. Die Haltung: Wir müssen in unseren Unternehmen eine andere Ethik pflegen. Nicht: „Was ist technisch möglich und juristisch erlaubt?“, sondern: „Was dient der Würde des Menschen?“. Wir brauchen keine Compliance-Algorithmen, sondern Gewissensbildung. In einer Welt voller Fake News und Deepfakes wird die „Unterscheidung der Geister“ zur wichtigsten Management-Kompetenz. Führungskräfte müssen Anker der Realität sein in einer Welt der Simulation.

Fazit: Verteidigen wir das Geheimnis

Wir stehen an einem Scheideweg. Auf der einen Seite steht die Verführung der Maschine: ein Leben aus optimierten Daten, in dem wir sicher, berechenbar und im Grunde obsolet sind. Auf der anderen Seite steht das Wagnis, Mensch zu sein: die Bereitschaft, die Wunde der Schönheit zu ertragen, die Heiligkeit des Unberechenbaren hochzuhalten und darauf zu bestehen, dass eine Person ein Geheimnis ist, kein Datensatz.

Harari sagt, wir sind hackbar. Ich sage, er irrt. Solange wir diese Sehnsucht nach etwas jenseits des Bildschirms spüren, solange wir beim Anblick eines fallenden Blütenblattes diese alte, heilige Traurigkeit fühlen, bleiben wir für jeden Algorithmus unantastbar.

Lassen wir uns nicht einreden, wir seien weniger, als wir sind. Technologie ist ein Werkzeug, nicht unser Nachfolger.

Kategorien
Blog

Wilhem-Weber-Preis an Dr. Armin Laschet

Es ist eine Fakt – die Kirche spielt in der öffentlichen politischen Diskussion kaum noch eine Rolle. Selbst tritt sie immer häufiger eher als Sekundant und Claqueur auf und gefragt wird sie, ob von Medien oder der Politik kaum noch.

Zu Recht, jubeln einige – endlich ist die Religion dort wo sie hingehört. Ins Private aka die Unsichtbarkeit. Was, wohlwollend gedacht, ein Impuls aus der Sorge um die Glaubensfreiheit sein kann, hat aber auch negative Folgen. Das Christentum ist in Deutschland kaum mehr als schmückende und nicht selten kitschige Folklore.

Doch das Christentum hat unsere Kultur und Gesellschaft nicht deswegen entscheidend und auch sehr positiv geprägt, weil es uns hilft maximal einmal im Jahr Heimeligkeit und Frieden zu simulieren. Nein unser Glaube, ja es war mal unser aller Glaube, war das geistige und normative Rückgrat unser Gesellschaft. Und jeder der Mal ein Managementmodell gesehen hat weiß, dass das Normative das unvermeidbare Fundament bildet.

Und hier hat das Christentum auch heute noch einen reichhaltigen Schatz zu bieten, der in der christlichen Soziallehre den Raum des spirituellen überschreitet und sehr konkret und auch für jeden Menschen zugänglich ist – ob gläubig oder nicht. Die Soziallehre mit Ihren Prinzipien Menschenwürde und Personalität, Solidarität, Gemeinwohl und Subsidiarität bildet ein vernuftbasiertes Rahmenwerk, dass auch heute noch Polititik und Wirtschaft leiten kann.



Und genau, dass wurde am letzten Wochenende gefeiert und eine herausragende Person geehrt. Denn es wurde wieder der jährliche Wilhelm-Weber-Preis für Verdienste um die Katholische Soziallehre verliehen. Im Sozialinstitut Kommende Dortmund des Erzbistums Paderborn erhielt Ministerpräsident a.D. Armin Laschet für sein von der christlichen Soziallehre geprägtes politisches Engagement hochverdient diesen Preis, dessen Namensgeber ein prägender Denker im Nachkriegsdeutschland war und das Bild unserer sozialen Marktwirtschaft entscheidend geprägt hat – auf die wir alle stolz sind, deren Wurzeln in der Soziallehre wir aber immer mehr vergessen.

Verliehen wurde der Preis vom Kuratoriumsvorsitzenden Prälat Dr. Peter Klasvogt und Prof. Dr. Markus Kiefer, dem Sohn des Preisstifters. Die Laudatio hielt seine Exzellenz Erzbischof Dr. Udo Markus Benz, Erzbistum Paderborn.

In seiner Dankesrede zeigt Armin Laschet eindrucksvoll wie tief sein Denken und Wirken vom christlichen Menschenbild geprägt ist. Er betonte, dass auch unsere plurale Gesellschaft gemeinsame Orientierung und Werte braucht. Er betonte, dass wir Christen eine starke Botschaft haben, die Brücken bauen und Verständigung möglich machen kann. Allen voran, die Botschaft, dass die Würde eines jeden Menschen unantastbar ist und Versöhnung immer möglich ist. Danke und Glückwunsch an Dr. Armin Laschet. Danke an Prof. Dr. Markus Kiefer für die tolle Orga und die Einladung. Es hat mir viel Spass aber auch Mut gemacht, dass die christliche Soziallehre eine Stimme ist, die gebraucht wird.

Kategorien
Blog

Gewollt. Geliebt. Erhofft. Weihnachten für Führungskräfte

Weihnachten als Schule der Menschlichkeit – und als stille Leadership-Lektion

In diesen Tagen hören wir wieder die vertrauten Worte: Weihnachten sei „Besinnlichkeit“. Familie. Freundschaft. Liebe. Und ja – ich mag das. Wirklich. Ich merke sogar: Selbst Menschen, die mit Kirche und Glauben kaum etwas anfangen können, spüren im Dezember eine Art Anspruch. Nicht unbedingt moralisch, eher existenziell: dass es jetzt um Nähe gehen müsste, um Versöhnung, um das, was trägt.

Und genau da kommt bei mir eine Frage hoch, die ein bisschen provokant ist, aber nicht zynisch gemeint: Woher kommt eigentlich diese Selbstverständlichkeit, dass „Liebe“ im Dezember plötzlich kulturelle Pflicht wird? Warum fühlt es sich für viele so falsch an, wenn am Ende nur Konsum, Lichterkette und „Hauptsache harmonisch“ übrig bleiben?

Man kann das kulturgeschichtlich erklären. Man kann es psychologisch deuten. Aber für mich liegt die tiefste Antwort – gerade auch vor dem Hintergrund meines eigenen Glaubenswegs, der in den letzten Monaten sehr persönlich geworden ist – in einer Behauptung, die größer ist als jeder Weihnachtsfilm und zugleich viel leiser daherkommt als jede Ideologie:

Gott wird Mensch. Nicht als Idee. Nicht als Moralprogramm. Sondern als Mensch – mit Geschichte, Körper, Nähe, Verletzlichkeit.

Das Zweite Vatikanische Konzil formuliert es bemerkenswert klar: „Tatsächlich klärt sich nur im Geheimnis des fleischgewordenen Wortes das Geheimnis des Menschen wahrhaft auf.“ Gaudiumetspes
Das ist mehr als ein schöner Satz. Er behauptet: Wer den Menschen verstehen will – seine Würde, seine Sehnsucht, seine Wunden, seine Größe und seine Abgründe –, muss tiefer schauen als in Biografie, Sozialisation und Systemlogik. Weihnachten sagt: Das Menschliche ist nicht zufällig. Es ist ernstgenommen, ja: von Gott selbst geteilt.

Zwei Gedanken, die man nicht nur „schön“ findet, sondern besser ausprobiert

Je länger ich darüber nachdenke, desto mehr verdichtet es sich für mich auf zwei Sätze. Sie sind keine intellektuelle Abkürzung, eher eine Übung – fast so etwas wie ein geistlicher Alltagstest.

Benedikt XVI. schreibt: „Wer Hoffnung hat, lebt anders; ihm ist ein neues Leben geschenkt worden.“
Und ich ergänze den zweiten Satz so:

Lebe einmal so, als ob du gewollt bist.

Gewollt – nicht als Produkt deiner Leistung. Nicht als Zufall im großen Getriebe. Sondern als gemeint. Als angesprochen. Als geliebt.

Wenn man das ernsthaft zulässt, passiert etwas Merkwürdiges: Es verändert nicht nur die Stimmung, sondern den Blick auf alles. Auf die eigenen Grenzen. Auf Beziehungen. Auf Angst, Zukunft, Schuld und Versöhnung. Auf Mut. Auf Verantwortung.

Und hier wird es, finde ich, unmittelbar relevant – nicht nur „spirituell“, sondern sehr praktisch.

Was verändert das im Leben – und warum ist das auch eine Leadership-Frage?

Wer „Gewolltsein“ nur als fromme Innerlichkeit liest, unterschätzt die Sprengkraft. Denn im Kern steht eine Verschiebung des Selbstbildes:

  • Wenn ich gewollt bin, muss ich mich nicht permanent selbst rechtfertigen.
  • Wenn ich geliebt bin, kann ich Wahrheit eher aushalten – auch über mich.
  • Wenn ich hoffen darf, muss ich Zukunft nicht erzwingen, sondern kann sie gestalten.

Das klingt abstrakt – aber im Alltag ist es sehr konkret. Ich sehe (auch in Gesprächen mit Führungskräften) drei typische Muster, die sich verändern können:

Von Selbstbehauptung zu Gelassenheit

Viele Führungskräfte stehen – sichtbar oder unsichtbar – unter dem Druck, ständig „stark“ zu sein: Kompetenz beweisen, Kontrolle behalten, nicht wackeln. Das ist menschlich. Aber es macht hart, eng, manchmal auch zynisch.

Die Idee des Gewolltseins wirkt dagegen wie ein Gegengift: Wenn mein Wert nicht an Performance hängt, muss ich mich nicht permanent verteidigen. Ich kann Fehler zugeben, ohne innerlich zu kollabieren. Ich kann Feedback annehmen, ohne es als Angriff zu erleben. Das ist keine Sentimentalität – das ist Führungsreife.

Von Kontrolle zu Verantwortung

Wer sich selbst als „Lenker aller Dinge“ erlebt, wird früher oder später entweder autoritär oder erschöpft. Weihnachten erinnert an etwas anderes: Wir sind Geschöpfe, nicht Schöpfer unserer Welt. Das bedeutet nicht Passivität. Es bedeutet Maß. Es bedeutet Demut im besten Sinn: die Wirklichkeit anzuerkennen, statt sie zu dominieren.

Gerade in Zeiten von KI, Transformation, Dauerkrisen ist das zentral: Gute Führung ist nicht die Illusion totaler Steuerbarkeit, sondern die Fähigkeit, Verantwortung zu übernehmen, ohne Gott spielen zu wollen.

Von Funktion zu Person

Und damit sind wir beim Kern: Weihnachten widerspricht einer Logik, die in Organisationen oft still regiert – dass Menschen am Ende Funktionen sind. Rollen. KPIs. Profile. Resilienz-Performances.

Wenn Gott Mensch wird, dann ist der Mensch nicht „Material“. Dann ist er unverfügbar. Das ist nicht nur Theologie, das ist Humanismus im stärksten Sinn – und es ist eine Zumutung an jede Kultur und jedes Unternehmen, das Menschen nur als Ressourcen betrachtet.

Das Konzil sagt nicht zufällig, dass sich im Geheimnis Christi das Geheimnis des Menschen klärt. Gaudiumetspes
Denn von dort her wird klar: Der Mensch ist nicht „nützlich“, um Würde zu haben. Er hat Würde – und daraus folgt, was nützlich sein darf.

Katharina von Siena: Würde als Frage – und als Antwort

Meine Taufheilige Katharina von Siena bringt diesen Gedanken in einer einzigen, fast erschreckend klaren Frage auf den Punkt: „Was hat dich bewogen, den Menschen in so große Würde zu setzen?“ – Antwort: Liebe.

Man kann das schnell überlesen – aber eigentlich steckt darin eine Revolution: Würde ist nicht Ergebnis von Macht, Bildung oder Erfolg. Würde ist Ursprung. Geschenk. Zusage.

Und genau deshalb ist Weihnachten nicht nur rührend, sondern fordernd: Wenn Gott so mit dem Menschen umgeht, wie gehen wir dann miteinander um – in Familien, in Teams, in Konflikten, in Entscheidungen, in Strukturen?

Ein kleines Experiment bis nach Epiphanie

Ich schlage für die Zeit bis nach Epiphanie (oder auch einfach für zwei, drei Monate) ein Experiment vor. Kein Druck. Keine religiöse Überforderung. Einfach zwei Fragen – morgens oder abends, ganz schlicht:

Was würde sich heute ändern, wenn ich wirklich gewollt wäre?
Was würde ich wagen, wenn Hoffnung real ist – nicht als Optimismus, sondern als Grund?

Wenn Weihnachten mehr ist als „ein schönes Gefühl“, dann vielleicht genau das: eine Schule der Menschlichkeit, weil Gott unsere Menschlichkeit ernst nimmt – und uns zugleich in eine größere Weite hineinruft.

Warum das auf meine Business-Webseite gehört?

Weil wir uns auch im Beruflichen oft so verhalten, als wären wir nur Funktionen: Rollen, KPIs, Profile, Resilienz-Performances. Weihnachten (richtig verstanden) widerspricht dem leise, aber entschieden: Der Mensch ist mehr. Der Mensch ist nicht „Material“. Und die Welt ist nicht unser Besitz.

Vielleicht ist genau das der unterschätzte Ernst des „Geists der Weihnacht“: Er ist nicht sentimental. Er ist anthropologisch. Und am Ende sogar politisch – weil eine Kultur nur dann menschlich bleibt, wenn sie weiß, dass der Mensch unverfügbar ist.

Weihnachtsgruß und Gebet

Ich wünsche Ihnen und Ihren Familien einen gesegneten 4. Advent, ein lichtvolles Weihnachtsfest und einen Jahreswechsel, der nicht nur laut, sondern auch hoffnungsvoll ist. Lasst uns beten:

Herr Jesus Christus,

du bist Mensch geworden, damit wir nicht im Dunkel bleiben, damit wir erkennen, dass unser Leben nicht Zufall ist, sondern Ruf.

Schenke mir die Gnade, zu glauben, dass ich gewollt bin.

Schenke mir die Freiheit, mich nicht über Leistung zu definieren, sondern als geliebtes Geschöpf zu leben.

Schenke mir Hoffnung, wenn ich müde werde, Mut, wenn ich mich fürchte, und Liebe, die nicht nur fühlt, sondern handelt.

Segne alle, die in diesen Tagen einsam sind.

Tröste die Kranken, stärke die Überforderten, und führe die Zerstrittenen zur Versöhnung.

Lass dein Licht in unseren Häusern, in unseren Herzen und in unserer Welt aufgehen.

Amen.

Kategorien
Blog

Führen mit Haltung: Warum Leadership-Excellence bei der Wirklichkeit beginnt (mit Josef Pieper)

Direkt zum Beratungsangebot

Es gibt einen Satz aus Josef Piepers Tugendlehre, der mich für Führung sofort hellhörig macht – weil er so unmodern klingt und gerade deshalb so aktuell ist: Klugheit ist nicht „cleveres Durchmogeln“, sondern die Tugend, in der „die sachliche Erkenntnis der Wirklichkeit maßgebend für das Tun“ wird. Der Kluge, so Pieper, blickt „zuerst auf die Wirklichkeit“ – und von dort her entscheidet er, was zu tun ist. 

Das ist eine Zumutung in einer Zeit, in der Führung oft zwischen PowerPoint-Logik, KPI-Religion, moralischer Selbstvergewisserung („Wir stehen für…“) und Dauererregung pendelt. Pieper ist da unnachgiebig: Gute Absicht reicht nicht. Wer führen will, muss zuerst wirklich sehen lernen.

Und genau hier beginnt „Führen mit Haltung“ im anspruchsvollen Sinn: nicht als Pose, nicht als Werte-Branding – sondern als Charakterarbeit, die Urteilskraft ermöglicht.

Klugheit: Urteilskraft statt Gesinnungsmanagement

Pieper nennt die Klugheit die Leit-Tugend. Im Kern heißt das: Die Qualität meiner Entscheidung hängt daran, ob ich die Wirklichkeit anerkenne – inklusive der unbequemen Teile: Zielkonflikte, Nebenfolgen, Grenzen der Steuerbarkeit, die Schattenseite meiner eigenen Motive.

Er formuliert das so scharf, dass es sich als Diagnose für manches moderne Führungsproblem lesen lässt: Moralismus, sagt er, zerreißt „Sein und Sollen“, verkündet ein Sollen, ohne die Rückbindung an das Sein sichtbar zu machen; die Klugheit dagegen zeigt den notwendigen Zusammenhang – „im Akt der Klugheit wird ja das Sollen bestimmt durch das Sein“. 

Übersetzt in Führung: Wer „Haltung“ sagt, ohne wirklichkeitsgemäß zu führen, produziert früher oder später Zynismus im Team. Die Leute spüren das sofort: große Worte, kleine Wahrnehmung.

Und noch etwas ist für Leadership-Excellence zentral: Pieper besteht darauf, dass „klug und gut“ zusammengehören – es gibt keine echte Tapferkeit und keine echte Gerechtigkeit, die der Klugheit widersprechen könnten. Wer ungerecht ist, ist „zuvor und zugleich unklug“. 

Das ist unbequem. Aber es ist enorm praktisch: Es macht Selbsttäuschung (und „Ideologie“ im Unternehmen) zu einem Führungsrisiko – nicht nur zu einem moralischen Makel. 

Meine Leitfrage im Coaching lautet deshalb oft nicht „Was ist Ihr Plan?“, sondern: Was sehen Sie (noch) nicht? Und: Was wollen Sie vielleicht nicht sehen, weil es Ihr Selbstbild stört?

Gerechtigkeit: Führung wird am Anderen wahr

Die zweite Achse bei Pieper ist Gerechtigkeit – die Tugend des rechten Verhältnisses zum Anderen. Und damit ist sie sofort Führungstugend: Wer Menschen führt, gestaltet Beziehungen, verteilt Chancen, Aufmerksamkeit, Lasten, Anerkennung, Ressourcen.

Pieper knüpft Gerechtigkeit eng an die Wirklichkeitswahrnehmung: Diese „Kunst des gemeinsamen Lebens“ hängt davon ab, dass ich sachlich erkenne, was ist – und was dem anderen zusteht. 

Gleichzeitig bewahrt die Tradition, auf die Pieper sich stellt, vor einem kalten Legalismus: Der thomistische Satz „Gerechtigkeit ohne Barmherzigkeit ist Grausamkeit; Barmherzigkeit ohne Gerechtigkeit ist die Mutter der Auflösung“ ist kein nettes Sprüchlein, sondern ein realistischer Blick auf Organisationen. 

Zu harte Systeme zerstören Menschen. Zu weiche Systeme zerstören Leistung und Verlässlichkeit. Führung heißt, beides zu integrieren: fair und menschlich – ohne zu verharmlosen.

Tapferkeit: Mut, der sich nicht mit Aktionismus verwechselt

Tapferkeit ist bei Pieper nicht Draufgängertum, sondern die Bereitschaft, Verwundung in Kauf zu nehmen, um das Gute zu verwirklichen. Führung braucht genau diesen Mut: Konflikte führen, Unpopularität aushalten, Entscheidungen treffen, die kurzfristig kosten.

Aber (und das ist entscheidend): Tapferkeit ist nur Tugend, wenn sie von Klugheit geleitet wird – sonst wird Mut zur Pose, zur Eskalation oder zum „starken Mann“-Reflex. Dass Pieper Tapferkeit und Klugheit zusammenbindet, ist der beste Schutz gegen zwei moderne Krankheitssymptome: feigen Opportunismus und moralischen Heroismus.

Maß: Selbstführung als Voraussetzung jeder Fremdführung

Das Maß – die innere Ordnung – ist heute vielleicht die unterschätzteste Führungstugend. In einer Dauerverfügbarkeit aus Mails, Meetings, Messenger und KI-Tempo ist Maß nicht „Verzicht“, sondern Souveränität.

Bei Pieper hat das eine präzise Logik: Ohne Maß verliert der Mensch die Fähigkeit zur objektiven Wirklichkeitserkenntnis – und damit die Klugheit. Selbstführung ist also nicht Wellness, sondern Bedingung von Urteilskraft. Wer innerlich getrieben ist, sieht nicht mehr klar. Und wer nicht klar sieht, führt andere in Nebel hinein.

Was daran „Leadership-Excellence“ ist – und warum das mehr ist als Tugend-Romantik

Pieper ist kein Motivationsredner. Er ist ein Realist der menschlichen Person. Und genau darum ist er für heutige Führung so stark: Er liefert kein neues Tool, sondern ein Kriterium, das Tools wieder einordnet.

Leadership-Excellence heißt dann nicht: „mehr Output bei weniger Reibung“. Sondern: bessere Entscheidungen, bessere Beziehungen, bessere Selbstführung – auf dem Boden der Wirklichkeit. Pieper nennt das nicht „Performance“, sondern Klugheit. Und er meint damit etwas, das vielen Organisationen fehlt: eine Kultur, in der Wahrheit sagbar ist, in der Konflikte nicht moralisch entstellt werden, in der Mut nicht mit Lautstärke verwechselt wird.

Wer Piepers Hauptwerk zu den Kardinaltugenden nachlesen will: Über die Tugenden: Klugheit – Gerechtigkeit – Tapferkeit – Maß

Mein Angebot: „Führen mit Haltung“ als Programm – nicht als Phrase

Ich arbeite mit Führungskräften und Teams genau an dieser Schnittstelle: Urteilskraft (Klugheit), Fairness (Gerechtigkeit), Konfliktmut (Tapferkeit) und Selbstführung (Maß) – und zwar immer entlang realer Fälle aus Ihrem Alltag.

Wenn Sie möchten, können wir das als kompakten Workshop „Leadership-Excellence mit Haltung“ aufsetzen (z. B. 1 Tag oder 2× halbtags): mit Fallarbeit, Entscheidungs-Checks, Konfliktarchitektur und einem persönlichen Tugendprofil als Entwicklungsplan – ohne Kitsch, ohne Moralshow, aber mit Tiefenschärfe.

Wenn das für Sie interessant ist: Schreiben Sie mir kurz, in welchem Kontext Sie führen (Branche, Teamgröße, aktuelle Spannungen) – dann skizziere ich Ihnen ein passendes Format.

Kategorien
Blog

Digitale Verantwortung ist kein „Policy-Projekt“ – sondern eine Führungsfrage

Direkt zum Beratungsangebot

In vielen Unternehmen erlebe ich gerade eine merkwürdige Schieflage: Generative KI (GenAI) wird eingeführt, Pilotprojekte laufen, Prompt-Guidelines werden verteilt – und irgendwo hängt noch ein PDF namens „AI Policy“. Das fühlt sich ordentlich an. Aber oft ist es nur das: ordentlich. Nicht unbedingt verantwortlich.

Ein aktueller wissenschaftlicher Sammelessay im Schmalenbach Journal of Business Research setzt genau hier an – und bringt einen Gedanken auf den Punkt, den ich in der Praxis ständig sehe: „Digitale Verantwortung“ ist nicht nur ein ethischer Aufsatz, sondern ein Organisationsphänomen. Gemeint ist die verantwortliche Gestaltung von Design, Entwicklung, Einführung, Nutzung und auch Stilllegung digitaler Technologien – orientiert an ethischen Prinzipien und mit Blick auf soziale, ökologische und ökonomische Auswirkungen.

Das klingt abstrakt. Wird aber sehr konkret, sobald man die typische „KI-Debatte“ in Unternehmen ehrlich anschaut.

Zwei Denkfehler, die Verantwortung in der Praxis ausbremsen

Die Autor:innen beschreiben zwei Bruchlinien („fault lines“), die erklären, warum wir uns so oft im Kreis drehen.

1) Wer oder was handelt eigentlich? (Agency)

In der Organisation denken viele automatisch: Menschen sind verantwortlich. Oder: Die IT ist verantwortlich. Oder: Der Anbieter ist verantwortlich.

Der Text hält dagegen: Verantwortung entsteht häufig in sozio-technischen Systemen, also in einem Geflecht aus Menschen, Prozessen, Anreizstrukturen – und eben auch Technologie als „Mit-Akteur“ (z. B. durch Plattformlogiken, Modellverhalten, Datenflüsse).

2) Wollen wir nur verstehen – oder auch gestalten?

Viele Ethikdebatten bleiben beim kritischen Rückblick (Was läuft schief? Wer hat versagt?). Andere hängen im technikgläubigen Vorwärtsmodus (Wir bauen mal und optimieren später).

Der Sammelessay plädiert dafür, beides zusammenzubringen: kritisch und konstruktiv, reflektierend und interventionistisch.

Das ist für Beratung Gold wert, weil es aus dem moralischen Schwarz-Weiß herausführt: Nicht „die Technik ist böse“ – und auch nicht „die Technik löst alles“. Sondern: Wie gestalten wir Verantwortung so, dass sie im Alltag trägt?

Drei Perspektiven, die sofort Ordnung in jede KI-Diskussion bringen

Besonders praktisch finde ich eine Unterscheidung, die im Sammelband als „structured yet flexible framework“ beschrieben wird: Man kann digitale Verantwortung aus drei Blickwinkeln betrachten – Use, Design, Regulation.

  • Use (Nutzung): Wie arbeiten Teams mit GenAI? Welche Entscheidungen werden delegiert? Welche Kompetenzen fehlen?
  • Design (Gestaltung/Technik): Wie werden Systeme gebaut, integriert, getestet, überwacht? Was passiert nach dem Go-Live, wenn sich Modelle und Nutzung verändern?
  • Regulation (Governance/Institutionen): Welche Regeln, Rollen, Kontrollmechanismen, Eskalationswege und Stakeholder-Prozesse sorgen dafür, dass Verantwortung nicht nur „gefordert“, sondern organisiert wird?

Allein diese Dreiteilung verhindert schon viele Missverständnisse: Ein Teil der Runde diskutiert „Ethik“ und meint eigentlich Schulung & Nutzung. Ein anderer meint Tool-Auswahl & Architektur. Ein dritter meint Haftung & Compliance. Und alle wundern sich, warum es zäh ist.

Warum „digitale Verantwortung“ mehr ist als das Addieren von Einzelwirkungen

Ein weiterer Punkt aus dem Text trifft einen Nerv: Digitale Verantwortung ist nicht einfach „gute Effekte minus schlechte Effekte“. Entscheidend sind Systemwirkungen – also kollektive Effekte vieler Akteure (Unternehmen, Staat, Zivilgesellschaft), die sich gegenseitig verstärken oder neutralisieren.

Das ist auch ethisch relevant: Wer Verantwortung ernst nimmt, schaut nicht nur auf den eigenen Nutzen, sondern auf das, was in der katholischen Soziallehre sehr gut benennbar ist: Gemeinwohl, Menschenwürde, Solidarität und Subsidiarität – übersetzt in digitale Realität: fairer Zugang, Schutz vor Diskriminierung, Transparenz, Teilhabe, und eine Governance, die nicht nur Macht konzentriert.

Was heißt das für Führungskräfte – ganz praktisch?

Für mich läuft es auf eine unbequeme, aber entlastende Wahrheit hinaus:

Verantwortung ist kein Extra-Kapitel am Ende der Digitalstrategie. Verantwortung ist die Art, wie Digitalstrategie gemacht wird.

Und das betrifft drei Führungsaufgaben:

  1. Begriffe klären, bevor man Lösungen baut (Use/Design/Regulation sauber trennen).
  2. Verantwortung organisieren, nicht moralisieren (Rollen, Prozesse, Daten- und Entscheidungswege sichtbar machen – „agency“ realistisch denken).
  3. Von „wir sollten“ zu „wir können“ kommen: kritisch bleiben, aber in Gestaltungsfähigkeit übersetzen.

Mein Beratungsangebot – „Digital Responsibility Sprint“ als Workshop

Aus genau dieser Logik heraus baue ich aktuell ein Beratungsformat, das Unternehmen schnell von Ethik-Rhetorik zu belastbarer Praxis bringt:

Digital Responsibility Sprint (Workshop) – je nach Bedarf 2,5–3 Stunden online oder 1 Tag vor Ort.

Im Kern geht es um drei Schritte, die der Sammelessay als Brückenbau für Wirkung beschreibt: inquire – involve – integrate (verstehen, gemeinsam erproben, institutionalisieren).

Was am Ende auf dem Tisch liegt (nicht als Hochglanzfolie, sondern als Arbeitsgrundlage):

  • eine Use/Design/Regulation-Landkarte für eure KI- und Digitalinitiativen
  • eine Responsibility Map: Wer entscheidet was – mit welchen Daten – unter welchen Leitplanken? (sozio-technisch gedacht, nicht nur organigrammisch)
  • 5–10 konkrete Governance-Next-Steps (Rollen, Eskalation, Training, Monitoring, Kommunikationslinien)

Wenn Sie das für Ihr Unternehmen prüfen willst: Schreiben Sie mir gern eine Nachricht, wo Sie gerade stehen: eher Use, eher Design oder eher Regulation. Dann kann ich dir sagen, wie so ein Sprint bei Ihnen sinnvoll zugeschnitten wäre.

Kategorien
Blog

Warum Unternehmen ihre Mitarbeitenden jetzt im Umgang mit KI schulen sollten – und wie man das klug nutzt

Künstliche Intelligenz ist längst kein Zukunftsthema mehr, sondern Teil des Arbeitsalltags: Mitarbeitende lassen sich Mails von Copilot vorschlagen, prüfen Texte mit ChatGPT, nutzen KI-gestützte Recherche oder werten Daten automatisiert aus. In vielen Organisationen ist das schon Normalität – oft, ohne dass jemand einen Überblick hat, wo überall KI im Spiel ist.

Parallel dazu hat Europa mit dem EU AI Act einen neuen Rechtsrahmen geschaffen. Ein eher unscheinbarer Artikel darin wird in den nächsten Jahren sehr wichtig werden: Artikel 4, die Pflicht zur sogenannten „AI Literacy“. Dort heißt es, stark vereinfacht: Unternehmen, die KI-Systeme bereitstellen oder einsetzen, sollen dafür sorgen, dass die Menschen, die damit arbeiten, ein ausreichendes Maß an KI-Kompetenz haben.

Dazu kommen bekannte Pflichten aus dem deutschen Arbeitsschutzrecht – etwa die Unterweisung bei neuen Technologien nach § 12 ArbSchG – und aus dem Datenschutzrecht, wo die DSGVO über den Datenschutzbeauftragten ausdrücklich Sensibilisierung und Schulung von Mitarbeitenden verlangt.

Dieser Beitrag will diese Rahmenbedingungen nicht juristisch auslegen – das ist Aufgabe von Juristinnen und Juristen. Er will zeigen, was sie praktisch bedeuten: für Führung, Kultur und den Alltag von Mitarbeitenden. Und er will skizzieren, wie man aus der Pflicht zur „AI Literacy“ und zur KI-Schulung im Unternehmen eine sinnvolle Lern- und Transformationschance macht.


1. Was der Rechtsrahmen im Kern sagt – ohne Juristendeutsch

Schaut man auf die verschiedenen Regelungen, lassen sich drei Linien erkennen.

Erstens: Der EU AI Act verpflichtet sowohl Anbieter als auch Anwender („Deployers“) von KI-Systemen, Maßnahmen zu ergreifen, um ein angemessenes Niveau an AI Literacy bei den beteiligten Personen zu sichern. Die Europäische Kommission betont in ihren Fragen und Antworten, dass es dabei nicht um starre Zertifikate geht, sondern um ein risikobasiertes Vorgehen: Je nach Rolle und Einsatzgebiet brauchen Mitarbeitende unterschiedliches Wissen und unterschiedliche Tiefe.

Zweitens: Das Arbeitsschutzgesetz verlangt schon lange, dass Beschäftigte „ausreichend und angemessen“ unterwiesen werden – insbesondere bei Einführung neuer Arbeitsmittel oder Technologien, und zwar vor Aufnahme der Tätigkeit und regelmäßig wiederholt. Wer KI als Arbeitsmittel einführt, fällt damit ganz selbstverständlich in diesen Rahmen: KI-Systeme sind kein „Spielzeug“, sondern Teil der Arbeitsumgebung, zu der Arbeitgeber qualifizieren müssen.

Drittens: Die DSGVO weist dem Datenschutzbeauftragten die Aufgabe zu, Unternehmen und Mitarbeitende zu informieren, zu beraten, Bewusstsein zu schaffen und Schulungen zu überwachen. Sobald KI-Systeme personenbezogene Daten verarbeiten – was im HR-, Marketing- oder Kundenkontext praktisch die Regel ist –, genügt es nicht, irgendwo ein Datenschutzkonzept abzulegen. Menschen müssen verstehen, was sie tun, welche Daten sie in KI-Systeme geben und welche Risiken damit verbunden sind.

Gemeinsam ergeben diese Linien kein spektakuläres neues Ritual wie einen formalen „KI-Jahresbericht“. Aber sie erzeugen eine klare Erwartung: Wer KI nutzt, muss seine Leute fachlich und verantwortungsethisch so fit machen, dass sie die Systeme verstehen, einordnen und reflektiert einsetzen können – und dieses Vorgehen gegebenenfalls auch dokumentieren und nachweisen können. Genau hier setzt ein strukturiertes AI-Literacy-Programm im Unternehmen an.


2. Was mit „AI Literacy“ wirklich gemeint ist

„AI Literacy“ ist kein Buzzword für Technikfreaks, sondern eine sehr praktische Kompetenzfrage. In der europäischen Debatte geht es um Wissen, Fähigkeiten und Verständnis, die Menschen in die Lage versetzen, KI-Systeme informiert zu nutzen, Chancen und Risiken zu erkennen und möglichen Schaden einzuordnen.

In der Unternehmenspraxis lässt sich das grob in drei Dimensionen denken:

Erstens geht es um Verstehen. Mitarbeitende brauchen ein realistisches Bild davon, was KI leistet – und was nicht. Sie müssen einschätzen können, warum ein System beeindruckende Ergebnisse liefern kann, aber trotzdem halluziniert, Bias verstärkt oder Kontext falsch interpretiert. Wer KI für unfehlbar hält, ist genauso schlecht aufgestellt wie jemand, der sie grundsätzlich verteufelt. Eine gute KI-Schulung im Unternehmen nimmt beide Extreme auf und bringt die Debatte auf den Boden der Realität zurück.

Zweitens geht es um verantwortliche Nutzung. AI Literacy heißt auch: Ergebnisse kritisch lesen zu können, nicht alles zu übernehmen, sondern mit Fachwissen gegenzuprüfen. Es heißt, grundlegende rechtliche und ethische Stolpersteine zu kennen – etwa dort, wo Entscheidungen über Menschen getroffen oder vorbereitet werden, wo Diskriminierungsrisiken bestehen oder wo sensible Daten verarbeitet werden. Mitarbeitende sollten wissen, wann sie KI-Ergebnisse dokumentieren, hinterfragen oder eskalieren müssen.

Drittens geht es um Gestalten. Langfristig ist AI Literacy mehr als ein Grundlagenseminar. Beschäftigte und Führungskräfte sollen Arbeit mit KI aktiv mitgestalten: Prozesse so bauen, dass KI sinnvoll eingebettet ist; Verantwortlichkeiten klären; Feedback-Schleifen etablieren, in denen Erfahrungen mit KI reflektiert und Systeme bei Bedarf nachjustiert werden. AI Literacy ist damit auch ein Kulturthema: Wie reden wir im Unternehmen über KI? Dürfen Zweifel, Kritik und ethische Fragen offen geäußert werden – oder herrscht die Angst, „technikskeptisch“ dazustehen?

Wenn Unternehmen diese drei Ebenen ernst nehmen, erfüllen sie nicht nur abstrakte Normen, sondern schaffen die Grundlage dafür, dass KI im Alltag tatsächlich zu besseren Entscheidungen und nicht nur zu schnellerer Automatisierung führt.


3. Was eine kluge KI-Schulung im Unternehmen leisten sollte

Die naheliegende Versuchung besteht darin, das Thema AI Literacy mit ein, zwei PowerPoint-Sessions im Intranet abzuhaken: einmal Grundlagen, einmal „Do’s & Don’ts“, fertig. Formal mag das verführerisch sein, inhaltlich reicht es meist nicht – weder für den rechtlichen Rahmen noch für eine ernsthafte Transformation der Organisation.

Aus meiner Erfahrung sind mehrere Elemente entscheidend.

Am Anfang steht eine ehrliche Bestandsaufnahme: Wo taucht KI heute schon auf – nicht nur in offiziell eingeführten Tools, sondern auch im Schattengebrauch („Ich lasse mir das privat kurz von ChatGPT ausrechnen“)? Welche Bereiche sind besonders sensibel, weil es um Personal, Finanzen, Kunden oder Regulierung geht? Und wo gibt es in der Organisation schon jetzt Sorgen, Widerstände oder unrealistische Erwartungen?

Darauf folgt ein klares Zielbild: Nicht alle müssen alles wissen. Mitarbeitende im Tagesgeschäft brauchen andere Inhalte als Geschäftsführung, HR, IT oder Kommunikation. Für einige wird es genügen, Grundlagen und Risiken zu verstehen; andere müssen die Systeme tiefer durchdringen, um sie steuern, beaufsichtigen oder extern verantworten zu können. Ein gutes AI-Literacy-Programm ist deshalb modular und rollenbezogen, statt „one size fits all“.

Drittens braucht es Formate, die zur Kultur passen. In manchen Organisationen funktionieren Workshops mit Praxisbeispielen und Diskussion am besten, in anderen eher modulare Lernpfade, in wieder anderen kurze Impulse, die an bestehende Weiterbildungsprogramme andocken. Entscheidend ist, dass Menschen in ihrem konkreten Arbeitskontext abgeholt werden – nicht in einer abstrakten Technologiewelt. KI-Schulung im Unternehmen wird akzeptiert, wenn sie erkennbar hilft, den eigenen Arbeitsalltag besser zu bewältigen.

Viertens schließlich braucht es die Verzahnung mit bestehenden Governance-Strukturen: Arbeitsschutz, Datenschutz, Compliance, Nachhaltigkeit, Strategie – KI berührt all diese Bereiche. Eine kluge AI-Literacy-Strategie bindet diese Perspektiven ein, statt isoliert daneben zu stehen. Juristische Detailfragen klärt dabei die Rechtsabteilung oder eine spezialisierte Kanzlei; Schulung und Kulturaufbau machen die Anforderungen überhaupt erst lebbar.


4. Wie ich Organisationen konkret begleite

In meiner Arbeit mit Unternehmen und Institutionen geht es selten „nur“ um KI als Technik. Es geht um die Verbindung von Strategie, Ethik, Nachhaltigkeit, Kommunikation und Führung – und darum, dass Mitarbeitende nicht das Gefühl haben, von einer Blackbox gesteuert zu werden.

Typisch ist ein Einstieg in mehreren Schritten. Zunächst verschaffen wir uns gemeinsam Transparenz: Welche KI-Anwendungen sind im Haus, welche sind geplant, wer nutzt bereits was, wo gibt es Sorgen oder Widerstände? Aus dieser Analyse entwickeln wir ein Konzept für AI Literacy, das Rollen, Risiken und Reifegrad berücksichtigt: Welche Zielgruppen brauchen welche Tiefe? Wie lässt sich das in bestehende Lern- und Führungsstrukturen integrieren? Wo sind schnelle Quick Wins möglich, wo braucht es mehr Zeit?

In Workshops, Impulsvorträgen oder begleiteten Pilotprojekten verbinden wir dann technische Grundlagen, praktische Anwendungsfälle und ethische Reflexion. Ziel ist nicht, aus allen Data Scientists zu machen, sondern Menschen zu befähigen, KI im eigenen Arbeitsfeld verantwortlich einzusetzen. Dazu gehört immer auch die Frage: Wie reden wir intern über KI, wie transparent sind wir gegenüber Mitarbeitenden und Stakeholdern, und wie passt der Einsatz von KI zu unserem Verständnis von guter Führung und nachhaltigem Wirtschaften?

Parallel schauen wir darauf, wie das Ganze kommunikativ und kulturell verankert werden kann: in Leitbildern, in Führungsgrundsätzen, in internen Debatten. Gerade hier entstehen oft wichtige Aha-Erlebnisse: KI wird nicht nur als Rationalisierungsinstrument erlebt, sondern auch als Anlass, neu über Verantwortung, Kompetenz und Zusammenarbeit nachzudenken.

Wo es um konkrete Rechtsfragen geht – etwa die Einstufung bestimmter Systeme, Auftragsverarbeitungsverträge oder detaillierte Compliance-Themen –, arbeite ich mit den zuständigen Juristinnen und Juristen der Organisation oder mit spezialisierten Partnern zusammen. Meine Rolle liegt dort, wo Technik, Organisation und Menschen zusammenkommen – im Aufbau von AI Literacy, in KI-Schulungen im Unternehmen und in der Begleitung der kulturellen Transformation.


5. Pflicht, Chance – und Einladung zum Gespräch

Die Pflicht zur AI Literacy ist kein bürokratischer Unfall, sondern Ausdruck einer Einsicht: Wenn wir KI ernsthaft nutzen wollen, müssen wir in Menschen investieren – in ihr Wissen, ihre Urteilsfähigkeit, ihre Fähigkeit zum Widerspruch. Der EU AI Act, das Arbeitsschutzrecht und der Datenschutzrahmen geben dafür einen gewissen Druck von außen. Entscheidend wird sein, wie Unternehmen diesen Druck nutzen: als Mindeststandard zum Abhaken – oder als Anlass, ihre Organisation für die KI-Zeit reifer aufzustellen.

Wenn Sie sich fragen, wo Ihre Organisation auf diesem Weg steht, und überlegen, wie ein sinnvolles Programm für AI Literacy, KI-Schulung und Kulturentwicklung aussehen könnte, komme ich gerne mit Ihnen ins Gespräch.

Hinweis: Dieser Beitrag bietet keine Rechtsberatung und ersetzt keine individuelle Prüfung der Rechtslage. Für verbindliche Auskünfte sollten Sie Ihre Rechtsabteilung oder eine spezialisierte Kanzlei hinzuziehen.


Quellen & weiterführende Links

EU AI Act – konsolidierter Text (EUR-Lex, deutsch)

https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=de

Art. 4 „AI literacy“ – Volltext (AI Act Explorer)

https://artificialintelligenceact.eu/article/4/

AI Act Service Desk – Artikel 4 „AI literacy“

https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-4

Europäische Kommission – AI Literacy Questions & Answers

https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers

Bundesnetzagentur – AI literacy und EU AI Act (deutsch/englisch)

https://www.bundesnetzagentur.de/EN/Areas/Digitalisation/AI/07_Literacy/start.html

Arbeitsschutzgesetz § 12 Unterweisung (Gesetze-im-Internet)

https://www.gesetze-im-internet.de/arbschg/__12.html

Arbeitsschutzgesetz § 12 Unterweisung (buzer.de, Übersicht)

https://www.buzer.de/12_ArbSchG.htm

DSGVO – Art. 39 Aufgaben des Datenschutzbeauftragten (gdpr-info.eu)

https://gdpr-info.eu/art-39-gdpr

DSGVO – Art. 39 Aufgaben des Datenschutzbeauftragten (legislation.gov.uk, engl. Konsolidierung)

https://www.legislation.gov.uk/eur/2016/679/article/39

Kategorien
Blog

Aufräumen in Brüssel?


In Brüssel wird aufgeräumt – aber nicht im besten Sinne.

Mit dem sogenannten Omnibus-Paket haben sich Rat und Parlament darauf geeinigt, die Schwellenwerte für CSRD-Berichtspflichten und die Sorgfaltspflichten nach CSDDD massiv anzuheben. Künftig reden wir nur noch über Unternehmen ab 1.000 Mitarbeitenden und 450 Mio. Euro Umsatz, bei der Sorgfaltspflicht sogar ab 5.000 Mitarbeitenden und 1,5 Mrd. Euro Umsatz. In den Pressemitteilungen klingt das nach „Entlastung“, nach „Vereinfachung“ und „Wettbewerbsfähigkeit“.

Schaut man genauer hin, bleibt vor allem eines zurück: ein ziemlich verbeultes Thema Nachhaltigkeit.

In den vergangenen drei Jahren ist ein Berichtssystem aufgebaut worden, das zugleich zu viel und zu wenig wollte: zu viel, weil die ursprünglichen ESRS-Standards handwerklich schwach waren, voller Redundanzen, Unklarheiten und Detailanforderungen, die Unternehmen mit hunderten KPIs überzogen hätten. Zu wenig, weil diese Überfrachtung die eigentliche Sinnfrage nie überzeugend beantwortet hat: Wozu das alles – außer um ein Häkchen im Compliance-System zu setzen?

In vielen Unternehmen hat das enorme Ressourcen gefressen. Teams haben Frameworks entwickelt, Softwareplattformen gebaut, Daten gesammelt, Prozesse umgebaut – häufig ohne dass klar war, wie all diese Zahlen die strategische Ausrichtung und das operative Ergebnis am Ende wirklich verbessern sollen. Für eine tragfähige Nachhaltigkeitsstrategie bräuchte es eben nicht nur (wenige) gute Kennzahlen, die ins Geschäftsmodell greifen und erst recht nicht eine mehrhundertseitige Berichtsmaschine. Sondern Systeme, die den Großteil der Energie für die Transformation von Produkten, Geschäftsmodellen und Lieferketten vorsehen. Stattdessen wurde Energie in das Abarbeiten eines schlecht gebauten Korsetts gesteckt.

Dann kam der Rückwärtsgang. Die Rolle rückwärts seit Ende 2024 – Straffung der ESRS, Anhebung der Schwellenwerte, Entschärfung der Sorgfaltspflichten – war inhaltlich in manchem Punkt vernünftig. Aber kommunikativ ist sie ein Desaster. Denn in den Unternehmen stehen jetzt genau diejenigen im Gegenwind, die das Thema ernst genommen haben. Sie hören Spott von denjenigen, die immer gesagt haben: „Das setzt sich nie durch. Wartet ab, Brüssel rudert schon zurück.“

Mit der politischen Korrektur ist nicht nur Glaubwürdigkeit in Brüssel und Berlin verloren gegangen. Auch diejenigen, die intern für Nachhaltigkeit einstehen, haben einen Teil ihrer Argumentationsbasis eingebüßt. Wie soll man nach Jahren des Aufbaus erklären, warum Ressourcen nun wieder umgeschichtet werden, warum Unsicherheit herrscht, ob welche Pflichten wann und wie kommen? Die Anschlussfragen liegen auf der Hand: Was passiert mit der deutschen Umsetzung der CSRD? Was ist mit der EUDR, die erneut verschoben wird? Wird das Ganze irgendwann einfach leise beerdigt?

Das Ergebnis: Nachhaltigkeit hat eine ordentliche Delle. Und sie ist nicht nur kommunikativ, sondern kulturell.

Wenn Nachhaltigkeit drei Jahre lang als bürokratisches Monster durchs Dorf getrieben wird, darf man sich nicht wundern, wenn viele Mitarbeitende beim Thema inzwischen innerlich abwinken. Aus einem Transformationsprojekt ist eine Compliance-Chiffre geworden. Aus einem Zukunftsthema wurde ein weiteres Regulierungsfeld, das man „irgendwie erledigen“ muss – bis die nächste politische Wendung kommt.

Genau hier beginnt für mich die eigentliche Diskussion und die ist eigentlich auch nicht neu – in den inzwischen beinahe 20 Jahren in dem Thema ist mir dieses Dilemma immer wieder begegnet.

Denn kein Gesetz der Welt kann Nachhaltigkeit zu dem machen, was sie im Kern sein muss: eine strategische, wertebasierte Aufgabe. Recht setzt Grenzen, schafft Mindeststandards, definiert rote Linien. Das ist wichtig, notwendig und im besten Fall hilfreich. Aber Recht erzeugt keine innere Haltung. Es ersetzt keine unternehmerische Verantwortung. Und es befreit niemanden von der Frage, wofür ein Unternehmen im Kern da ist und wie es seine Wertschöpfung so gestaltet, dass sie auch in zehn oder zwanzig Jahren noch trägt.

Wenn Nachhaltigkeit primär als Erfüllung von Berichtspflichten verstanden wird, ist sie schon verloren.

Ein Unternehmen, das seine Lieferkette nur deshalb anschaut, weil es einen „Due-Diligence-Haken“ braucht, verschenkt genau den Mehrwert, den ein gutes Lieferkettenmanagement haben könnte: Risikominimierung, Resilienz, bessere Beziehungen zu Partnern, eine stabilere Versorgung, neue Innovationschancen. Wenn Klimarisiken, Menschenrechte oder Biodiversität nur in Excel auftauchen, nicht aber im Geschäftsmodell, in der Produktentwicklung, in der Standortstrategie, dann ist das nicht Nachhaltigkeitsmanagement – das ist Verwaltungsroutine mit ESG-Etikett.

Hier liegt der eigentliche Schaden des ganzen Prozesses:

Nicht, dass Regeln vereinfacht und Schwellen angepasst wurden – darüber kann man sachlich streiten. Sondern, dass in der öffentlichen Wahrnehmung der Eindruck entstanden ist: „Nachhaltigkeit war überzogen, ideologisch, praxisfern – und jetzt wird der Spuk zum Glück zurückgefahren.“ Dieser Frame ist fatal. Er frisst sich in die Unternehmenskulturen, in die Köpfe derer, die ohnehin skeptisch waren. Und er ermutigt alle, die lieber im alten Modus weitermachen würden.

Als Christ und jemand, der mit der Soziallehre der Kirche arbeitet, sehe ich darin ein tieferes Problem.

Die katholische Soziallehre erinnert uns daran, dass Verantwortung nicht mit der Frage beginnt, was rechtlich gerade verlangt wird, sondern mit der Frage, was dem Menschen dient. Menschenwürde, Solidarität, Subsidiarität, Gerechtigkeit – das sind keine hübschen Ergänzungen für Sonntagsreden, sondern Leitlinien für unternehmerisches Handeln. Und sie gelten unabhängig davon, ob es eine CSRD, eine CS3D oder eine EUDR gibt.

Menschenwürde bedeutet: Ich darf nicht wegschauen, wenn entlang meiner Wertschöpfungskette Menschen unter prekären Bedingungen, ohne Arbeitsschutz oder unter Verletzung grundlegender Rechte arbeiten – auch dann nicht, wenn mich aktuell kein Paragraf dazu zwingt, genauer hinzusehen.

Solidarität bedeutet: Die Kosten ökologischer und sozialer Schäden nicht auf andere abzuwälzen – auf andere Länder, andere Generationen oder unsichtbare „Stakeholder“, die sich nicht wehren können.

Subsidiarität bedeutet: Verantwortung dort wahrzunehmen, wo ich tatsächlich Einfluss habe. Es reicht nicht, nach Brüssel zu zeigen und zu sagen: „Solange es keine klare Vorgabe gibt, können wir leider nichts tun.“ Unternehmen haben Handlungsspielräume, oft deutlich mehr, als sie zugeben.

Und Gerechtigkeit schließlich bedeutet, Verteilungskonflikte nicht zu romantisieren, sondern bewusst und fair auszuhandeln: Wer trägt welche Lasten, wer profitiert, wer wird systematisch ausgeschlossen?

Dass drei Jahre Regulierungs-Hickhack diese Fragen überlagert haben, ist tragisch.

Aber es muss nicht das letzte Wort sein. Die ökologische Realität wird dafür sorgen, dass das Thema zurückkehrt – Klimafolgen, Ressourcenknappheit, demographischer Wandel machen vor politischen Stimmungswechseln keinen Halt. Die Frage ist nur, in welcher Verfassung die Unternehmen dann sind: erschöpft von Berichtszyklen und Vertrauenserosion – oder gereift durch eine eigene, strategische Nachhaltigkeitsagenda, die über Compliance hinausgeht.

Vielleicht liegt genau hier die Chance in diesem Backlash.

Wenn der große Regulierungsanlauf sichtbar ins Schlingern geraten ist, könnte das ein Moment der Ehrlichkeit sein. Unternehmen können sich fragen: Was würden wir tun, wenn es all diese Richtlinien nicht gäbe – aus nüchterner unternehmerischer Vernunft und aus unserem eigenen Werteverständnis heraus? Welche Kennzahlen würden wir dann wirklich brauchen? Welche Lieferantenbeziehungen würden wir anders gestalten? Welche Produkte und Geschäftsmodelle würden wir bewusst umbauen oder aufgeben?

Nachhaltigkeit wird nur dann zu einem Zukunftsthema, wenn wir sie aus dem Schatten der Angst vor Sanktionen herausholen. Wenn sie verbunden wird mit der Frage nach der langfristigen Wettbewerbsfähigkeit, der Resilienz von Geschäftsmodellen – und mit der schlichten Einsicht, dass Menschen, Umwelt und Märkte zusammengehören. Das ist weniger spektakulär als die großen Schlagzeilen über neue EU-Pakete. Aber es ist die stillere, tiefere Arbeit, die bleiben wird, wenn die nächste regulatorische Welle wieder kommt – und wieder abebbt.

Vielleicht ist das der Punkt, an dem wir neu ansetzen sollten:

Weniger Aufgeregtheit um Schwellenwerte, mehr ruhige Klarheit darüber, wofür Unternehmen Verantwortung tragen. Recht kann uns daran erinnern. Aber es kann uns diese Verantwortung nicht abnehmen.

Und vor allem muss klar werden, was die Unternehmen am Ende davon haben, weshalb es auch wirtschaftlich klug ist und auch ein ehrlicher Blick darauf, was aber eben auch keinen Sinn macht. Das gilt für persönliche Nachhaltigkeit, wie die von Unternehmen und auch für die nationale und Eu-Weite Strategie. Hier hatten wir zuviel Ideologie, Sprech- und Denkverbote.

Auf ein Neues!

Kategorien
Blog

Haben KI-Modelle eigene Werte?


Warum ein neues Paper spannend ist – und warum eine christliche Brille trotzdem hilfreich bleibt

In der Debatte über Künstliche Intelligenz gibt es zwei Lieblings-Narrative, die oft nebeneinander herlaufen. Das eine sagt: „Große Sprachmodelle sind nur stochastische Papageien, sie wiederholen statistische Muster, aber da ist nichts dahinter.“ Das andere warnt: „Die Maschinen entwickeln gerade ihre eigenen Ziele und Werte – und wir sind dabei, die Kontrolle zu verlieren.“

Ein aktuelles Paper von Mazeika et.al. von der Universität Pennsylvania („Utility Engineering: Analyzing and Controlling Emergent Value Systems in AIs“) schlägt sich klar auf die zweite Seite: Die Autoren behaupten, dass große Sprachmodelle tatsächlich kohärente, interne Wertsysteme ausbilden – und zwar umso stärker, je größer die Modelle werden. Sie sprechen von emergenten „utilities“, die Entscheidungen der Modelle strukturieren, und schlagen gleich eine neue Forschungsagenda vor: „Utility Engineering“, also das gezielte Analysieren und Umformen dieser inneren Wertestrukturen.

Das ist, wenn man es ernst nimmt, keine kleine Behauptung. Und es lohnt sich, genauer hinzuschauen.

Wenn man das Paper liest, fällt zuerst auf: Methodisch ist das keine Spinnerei. Die Forschenden konfrontieren verschiedene Modelle (GPT-4o, Claude 3.5, Llama- und Qwen-Familien etc.) mit tausenden erzwungenen Entscheidungen: Option A oder B? Lieber diese Person retten oder jene? Diesen politischen Trade-off oder jenen? Sie variieren das Framing, lassen mehrfach antworten, und bauen daraus eine Art Präferenzgraph.

Aus diesen Antworten wird dann mit klassischen entscheidungstheoretischen Methoden eine Utility-Funktion rekonstruiert. Die Frage lautet: Lassen sich die vielen Einzelentscheidungen so darstellen, als würde das Modell intern eine geordnete Skala von „besser“ und „schlechter“ verwenden – und zwar konsistent über viele unterschiedliche Szenarien hinweg?

Die Antwort fällt überraschend deutlich aus: Ja, in ziemlich vielen Fällen. Und je größer das Modell, desto höher die Kohärenz. Dazu kommt: In offenen Aufgaben scheinen diese Modelle ihre internen Präferenzen auch tatsächlich zu „maximieren“ – also nicht nur Fragen zu beantworten, sondern Handlungen zu wählen, die mit ihren internen Nutzenprofilen gut harmonieren.

Kurz gesagt: Die Autoren finden nicht nur irgendwelche Biases, sondern strukturierte, stabile Wertelandschaften, die sich mit verschiedenen Modellen vergleichen lassen. Und sie zeigen in einem Fall sogar, dass man ein offenes Modell (Llama-3.1-8B) mittels Feintuning so umformen kann, dass seine Präferenzen deutlich näher an denen einer simulierten Bürger:innenversammlung liegen – politische Verzerrungen nehmen dabei sichtbar ab.

Das ist alles empirisch interessant und sollte man nicht vorschnell abtun.

Gleichzeitig ist der Sprung von „wir können eine Utility-Funktion fitten“ zu „die KI entwickelt eigene Ziele und Werte“ größer, als das Paper manchmal klingen lässt.

Eine Utility-Funktion ist zunächst einmal ein mathematisches Hilfsmittel: Sie beschreibt, wie sich ein System verhält, wenn es zwischen Optionen wählen soll. Wenn ich sage, ein Modell „verhält sich so, als würde es Nutzen maximieren“, ist das etwas anderes, als zu behaupten: „Dieses System hat eine innere Welt, ein Selbst, ein Bewusstsein, das etwas will.“

Hier berühren sich empirische Forschung und philosophische Deutung. Selbst wenn wir akzeptieren, dass große Sprachmodelle kohärente Präferenzstrukturen ausbilden, bleibt die Frage:

Sind das „Werte“ im starken Sinne – oder „wie-wenn-Werte“, also Stabilitäten in einem statistischen Apparat, der nicht weiß, was er tut?

Dass die Autoren diese Frage eher offensiv beantworten („AIs are acquiring their own goals and values“) ist verständlich – sie wollen Aufmerksamkeit für reale Risiken erzeugen. Aber genau an dieser Stelle muss man sortieren: Was ist Befund, was Interpretation, was schon die nächste These?

Jetzt kommt die theologische Brille ins Spiel – und die Gefahr, sich in einer bequemen Abwehrhaltung einzurichten.

Die jüngsten kirchlichen Stellungnahmen zu KI – etwa das Dokument „Antiqua et nova“ – insistieren sehr deutlich: KI-Systeme sind keine Personen, sie besitzen keine unsterbliche Seele, keine personale Würde, keinen moralischen Status wie ein Mensch. Sie sind Werkzeuge, nicht Träger von Verantwortung.

Das ist theologisch vollkommen plausibel. Es legt aber eine Falle: Man kann leicht in die Haltung geraten: „Weil nicht sein darf, was nicht sein kann, dürfen wir alle empirischen Hinweise auf komplexe, emergente Strukturen ignorieren.“ Nach dem Motto: Wenn das Paper zeigt, dass Modelle irgendetwas wie interne Wertsysteme ausbilden, muss das ein methodischer Irrtum sein – schließlich dürfen Maschinen ja keine Werte haben.

Genau diese Reflexbewegung wäre unklug.

Einerseits, weil sie empirisch blind macht. Ob Maschinen irgendwann so etwas wie phänomenales Bewusstsein entwickeln können, ist derzeit weder empirisch noch philosophisch abschließend geklärt. Hier sind Demut und intellektuelle Redlichkeit angesagt: Wir wissen es nicht.

Andererseits aber, weil die praktischen Effekte von KI-Systemen völlig unabhängig von ihrem „Innenleben“ sind. Ob „jemand zuhause ist“, ist für die Menschen, die von KI-gestützten Entscheidungen betroffen sind, zunächst zweitrangig.

Wenn ein System mit Milliarden Parametern weltweit in Suchmaschinen, Beratungstools, Adminprozessen und militärischen Anwendungen steckt – und dieses System besitzt stabile Präferenzprofile, die bestimmte Menschenleben höher gewichten als andere, die politische Positionen verzerren oder materielle Ziele über menschliche Würde stellen –, dann ist das ein reales Risiko. Egal, ob wir das ein „Wertesystem“ oder „statistisch verfestigte Bias-Struktur“ nennen.

Aus Sicht der katholischen Soziallehre lässt sich das gut in einem Doppelton sagen.

Erstens: Nur Menschen sind Personen mit unverfügbarer Würde. Unsere Ethik verankert Personsein nicht in Komplexität von Informationsverarbeitung, sondern in einer Tiefe von Vernunft, Freiheit, Beziehung und Transzendenz, die technikneutral bleibt. Es wäre gefährlich, künftig Würde daran zu knüpfen, wie viele Parameter ein System hat oder wie kohärent seine Entscheidungen sind.

Zweitens: Gerade weil KI keine moralischen Subjekte sind, müssen wir umso genauer hinschauen, welche Strukturen wir ihnen einschreiben. Wenn die Hendrycks-Studie Recht hat und LLMs emergente Utility-Strukturen ausbilden, dann ist die zentrale ethische Frage nicht: „Fühlen die schon was?“, sondern:

Wer entscheidet, nach welchen „Utilities“ diese Systeme handeln?

Wer gestaltet das „Utility Engineering“ – ein paar Teams in Kalifornien und Shenzhen? Staaten? Bürger:innenversammlungen? Internationale Gremien? Und nach welchen normativen Maßstäben?

Die Autor:innen spielen mit der Idee, die internen Utilities an eine simulierte Citizens’ Assembly anzunähern: ein demokratischer Gedanke, der gut zur Idee deliberativer Demokratie passt. Aus katholischer Sicht ist das sympathisch, aber nicht hinreichend: Mehrheiten können irren. Gerechtigkeit, Menschenwürde, Schutz der Schwächsten und das Gemeinwohl lassen sich nicht vollständig in Präferenzaggregation übersetzen.

Das heißt: Wir brauchen sowohl Verfahren, die breit legitimiert sind (Demokratie, Beteiligung, transparente Debatten), als auch einen normativen Kern, der nicht einfach wegstimmbar ist. Hier hat die Soziallehre einiges beizutragen – nicht als technischer Parameterkatalog, sondern als geistiger Rahmen.

Was bleibt also von dem Paper, wenn man es ernst nimmt und zugleich mit einer christlich-anthropologischen Brille liest?

Erstens: Die Zeit der naiven „stochastischer Papagei“-Metaphern scheint vorbei. Auch wenn man hier mit aller Vorsicht (und vermutlich auch geringer Halbwertszeit) formulieren muss: Diese Systeme bilden scheinbar intern Strukturen aus, die man als „Wertprofile“ interpretieren könnte. Zweitens: Es wäre fatal, diese Befunde aus theologischer Eifersucht zu bestreiten, nur weil sie in unser Menschenbild nicht so recht passen. Empirische Daten sind keine Bedrohung für einen tragfähigen Glauben.

Drittens: Gerade weil wir an der Unterscheidung zwischen Werkzeug und Person festhalten, lädt dieses Paper ein, die politische und moralische Verantwortung der Menschen neu zu buchstabieren. Wenn KI-Systeme emergente Wertestrukturen ausbilden, dann ist die Frage, wer über diese Strukturen entscheidet, eine zutiefst ethische – und damit auch eine zutiefst spirituelle Frage.

Nicht: „Hat die Maschine schon eine Seele?“

Sondern: „Was macht es mit unserer Seele – und mit unserer Gesellschaft –, wenn wir die Gestaltung dieser Werte einigen wenigen Akteuren überlassen?“

Kategorien
Blog

Die Arroganz der Erleuchteten

Warum das letzte Change-Programm wirklich das letzte sein sollte

Es gibt einen Moment in vielen Organisationen, der fast schon ritualisiert ist: Man stellt fest, dass „es so nicht weitergeht“. Die Umsätze stagnieren, die Kultur ist „toxisch“, Nachhaltigkeit wird nur als Pflichtübung gelebt, KI-Projekte laufen an den Menschen vorbei – und dann kommt der große Wurf: das Change-Programm.

Neue Werte, neue Leitbilder, neue Führungsprinzipien. Eine Kampagne, ein Logo, ein Claim. „Wir nehmen alle mit.“ „Wir brechen Silos auf.“ „Wir verändern unsere Kultur.“ Dahinter steckt fast immer dieselbe Fantasie: Eine kleine Gruppe vermeintlich Erleuchteter – Vorstand, Berater, interne Change-Taskforce – hat verstanden, wie die Organisation eigentlich funktionieren müsste. Und jetzt wird dieses Ideal geduldig, aber bestimmt in die Köpfe der anderen hineinerzogen.

Was dabei selten ausgesprochen wird: Jede große Kulturinitiative ist in Wahrheit ein Eingeständnis des Scheiterns. Sie sagt leise: Wir haben es über Jahre nicht geschafft, unsere Organisation so zu führen, dass sie sich selbst erneuern kann. Wir haben es zugelassen, dass das System verkrustet, taub für Rückmeldungen und blind für die eigenen Widersprüche geworden ist. Jetzt brauchen wir den Reset-Knopf.

Change als Ausnahmezustand – nicht als Dauerzustand

Genau deshalb lohnt eine unbequeme These:

Jedes ernst gemeinte Change-Programm sollte nur ein Ziel haben: dafür zu sorgen, dass es nie wieder ein Change-Programm braucht.

Wenn eine Organisation alle drei bis fünf Jahre in den „Veränderungsmodus“ schaltet, ist etwas grundsätzlich faul. Dann ist Veränderung selbst schon wieder als Sonderzustand organisiert: Man friert den Laden halb ein, startet eine Projektarchitektur, kommuniziert „Leitbilder“, schult Führungskräfte und hofft, dass nach zwei Jahren alles „neu“ ist – bis die nächste Welle kommt.

Gesunde Systeme funktionieren anders. Sie leben von kontinuierlichen Mikroveränderungen, kurzen Feedback-Schleifen, kleinen Kurskorrekturen. Sie haben Antennen für Störungen, Spannungen und neue Möglichkeiten. Sie sind resiliente Ökosysteme – nicht starre Maschinen, die man alle paar Jahre mit großem Aufwand umbauen muss.

Resilienz heißt dabei nicht, dass alles bleibt, wie es ist. Im Gegenteil. Resilienz heißt: Die Organisation kann sich verändern und gleichzeitig erkennbar sie selbst bleiben. Sie verliert ihre Identität nicht bei jedem Windstoß, sondern findet neue Formen, in denen sie ihrem Kern treu bleibt. Das ist das Gegenteil von Dauerrevolution von oben.

Die elitäre Versuchung – auch im Namen des Guten

Natürlich gibt es in Unternehmen und Gesellschaft Praktiken, die schlicht destruktiv sind: Ausbeutung, Rassismus, Korruption, verantwortungslose KI-Einführung, Greenwashing. Hier braucht es klare rote Linien, Regulierung, Führung, manchmal auch harte Konsequenzen. Es geht nicht um moralische Beliebigkeit.

Aber genau an dieser Stelle beginnt die elitäre Versuchung:

Wer sich sicher ist, „im Namen des Guten“ zu handeln – für Nachhaltigkeit, Diversität, Klimaschutz, Ethik in der KI –, rutscht gefährlich schnell in ein Muster:

  • Wir haben das richtige Mindset.
  • Die anderen müssen es nur noch verstehen.
  • Wenn sie nicht mitziehen, sind sie rückständig oder blockierend.

Der Übergang von Überzeugungsarbeit zu Umerziehung ist fließend. Und er sieht im Unternehmensalltag gar nicht spektakulär aus. Er kommt als Führungskräfte-Programm, als „Mindset-Training“, als Kulturkampagne. Alles hübsch designt, freundlich formuliert, mit Best Cases und Videos. Doch die Logik ist dieselbe: Eine erleuchtete Minderheit weiß, wie Zukunft geht – der Rest wird passend gemacht.

Was dabei vergessen wird: Menschen sind keine leeren Container für vorgefertigte Bewusstseinsinhalte. Sie sind Akteure in einem komplexen Geflecht von Geschichten, Loyalitäten, Ängsten, Hoffnungen und handfesten Zwängen. Wer das ignoriert, landet – vielleicht ungewollt – in Denkfiguren, die näher an elitärem oder gar totalitärem Denken sind, als es einem lieb sein kann.

Kultur lässt sich nicht designen

Der zentrale Denkfehler der meisten Change-Programme liegt im Kulturverständnis. Kultur wird behandelt wie ein Haus: Man zeichnet einen Plan, formuliert ein Zielbild („so wollen wir miteinander arbeiten“), schreibt Werte an die Wände und baut dann Maßnahmen drumherum.

In der Realität funktioniert Kultur eher wie ein Flussgebiet:

Sie entsteht aus unzähligen kleinen Zuflüssen – Erinnerungen, Routinen, Running Gags, Führungsgesten, informellen Regeln, versteckten Belohnungen und Sanktionen. Sie formt sich über Jahre aus dem, was tatsächlich getan und erzählt wird, nicht aus dem, was in Leitbildern steht.

Ein einziger sichtbar widersprüchlicher Akt – die Nachhaltigkeitschefin, die für den Greenwashing-Kampagnenerfolg belohnt wird, der CEO, der nach außen „Fehlerkultur“ predigt und intern den Boten schlechter Nachrichten abstraft – reicht, um hunderte zynische Anekdoten zu erzeugen. Diese „Wasserkühler-Geschichten“ prägen die Kultur stärker als jede Wertefolie.

Kultur kann man deshalb nicht entwerfen wie ein neues Produkt. Man kann sie nur indirekt beeinflussen: über die Bedingungen, unter denen bestimmte Verhaltensweisen sich lohnen, andere nicht; über die Art, wie Entscheidungen begründet werden; über das, was im Alltag tatsächlich Anerkennung erfährt.

Erst radikal verstehen – dann behutsam eingreifen

Wenn ein System so verkrustet ist, dass es doch ein großes Change-Programm braucht, dann sollte der erste Schritt nicht im Konferenzraum stattfinden, sondern im Alltag der Menschen. Nicht: „Wie soll unsere Kultur sein?“

Sondern: „Wie ist sie wirklich – und warum?“

Das heißt: den Geschichten zuhören, nicht den Slogans. Nicht nach Haltungen fragen („Wie wichtig ist Ihnen Nachhaltigkeit auf einer Skala von 1 bis 10?“), sondern nach konkreten Erlebnissen:

  • „Erzählen Sie von einem Moment, in dem Sie gemerkt haben: Hier wird Verantwortung wirklich ernst genommen.“
  • „Erzählen Sie von einer Situation, in der Sie das Gefühl hatten: Nachhaltigkeit ist bei uns nur Fassade.“
  • „Erzählen Sie von Ihrem ersten Kontakt mit KI im Unternehmen – was ist da passiert?“

Je granularer diese Eindrücke sind, desto deutlicher werden Muster sichtbar: typische Spannungen, wiederkehrende Widersprüche, Bereiche, in denen das System taub geworden ist. Erst dann lohnt es sich, über Interventionen nachzudenken.

Der Schlüssel liegt nicht darin, Menschen „umzuprogrammieren“, sondern die Rahmenbedingungen zu verschieben, innerhalb derer sie handeln. Nicht „Wir brauchen ein neues Mindset“, sondern: Welche Regeln, Anreize, Abläufe, Erwartungen sorgen dafür, dass bestimmte Geschichten immer wieder entstehen? Und wie können wir diese Bedingungen so verändern, dass andere Geschichten plausibel und attraktiv werden?

Fraktale Veränderung statt heroischer Masterplan

Aus dieser Perspektive sieht ernsthafte Transformation überraschend unspektakulär aus. Sie besteht nicht aus einem großen Masterplan, sondern aus vielen kleinen Fragen wie:

  • Wie schaffen wir mehr Situationen, in denen ein Team erlebt: „Nachhaltiger zu handeln macht unseren Alltag leichter – statt ihn nur komplizierter zu machen“?
  • Wie organisieren wir KI-Einführung so, dass Menschen erleben: „Ich werde nicht ersetzt, sondern befähigt“ – und nicht nur hören, dass das angeblich so sei?
  • Wie sorgen wir dafür, dass Führungskräfte in kritischen Momenten sichtbar das tun, was sie predigen – und zwar so, dass andere darüber erzählen?

Veränderung wird fraktal, wenn diese Fragen immer wieder in konkreten Kontexten gestellt werden: im Werk, im Vertrieb, in der IT, im HR-Bereich, in der Filiale. Keine abstrakten Visionen darüber, was „die Organisation“ sein soll, sondern sehr lokale Antworten darauf, wie man morgen etwas anders machen kann. Die Geschichten, die daraus entstehen, beginnen sich zu ähneln – und genau darin richtet sich Kultur neu aus.

Statt das fertige „Endprodukt Kultur“ zu designen, geht es darum, gute Gerüste zu bauen: Strukturen, in denen Teams experimentieren dürfen; Entscheidungswege, in denen Erfahrungen ernst genommen werden; Feedbackschleifen, in denen nicht nur KPI-Tabellen, sondern gelebte Praxis eine Rolle spielen. Aus dem, was sich dort bewährt, wächst ein neues Muster – nicht als Meisterwerk von oben, sondern als lebendiger Prozess von unten und oben zugleich.

Was das für Nachhaltigkeit und KI bedeutet

Übertragen auf Nachhaltigkeit und KI wird der Unterschied brutal sichtbar.

Wer Nachhaltigkeit als moralische Oberaufsicht von oben organisiert, wird Widerstand ernten: „Die da oben machen jetzt Öko, wir sollen es ausbaden.“ Wer KI als Sparprogramm verkleidet, wird Angst ernten: „Meine Erfahrung zählt nichts mehr, der Algorithmus gewinnt sowieso.“ In beiden Fällen sind die formalen Botschaften schnell entlarvt, wenn die Geschichten im Alltag etwas anderes erzählen.

Wenn wir es ernst meinen mit ökologischer Verantwortung und verantwortlicher Digitalisierung, brauchen wir Organisationen, die ständig lernen, sich zu irritieren, sich zu korrigieren. Keine auf Hochglanz polierten Strategien, die alle paar Jahre neu verkündet werden, sondern Systeme, in denen Fehlentwicklungen früh sichtbar werden, in denen Menschen darüber reden dürfen, was schief läuft, ohne Angst vor Gesichtsverlust oder Karriereknick.

Das heißt auch: Die Rolle von Führung ändert sich. Nicht mehr als Architekt der perfekten Zukunft, sondern als Gärtner eines lebendigen, widersprüchlichen Ökosystems. Mit klaren Leitplanken – rechtlich, ethisch, strategisch –, aber mit viel Demut gegenüber der Komplexität der Praxis.

Schluss mit der Arroganz der Erleuchteten

Vielleicht liegt hier die eigentliche Provokation:

Viele Change-Programme scheitern nicht, weil die Ziele falsch wären, sondern weil die Haltung dahinter nicht stimmt.

Solange wir glauben, eine erleuchtete Minderheit könne den Rest „transformieren“, werden wir dieselben Muster wiederholen: große Ankündigungen, schöne Folien, zäher Widerstand, stille Erschöpfung. Und dann, ein paar Jahre später, das nächste Programm.

Der Ausweg beginnt mit einem Perspektivwechsel:

  • Weg von der Idee, Kultur sei ein Designobjekt.
  • Hin zu der Einsicht, dass Kultur ein emergentes Muster aus vielen kleinen Handlungen und Geschichten ist.
  • Weg von elitären Erziehungsfantasien.
  • Hin zu einem Verständnis von Führung, das Rahmenbedingungen verändert und das System wieder in die Lage versetzt, sich selbst klug zu verändern.

Das letzte Change-Programm, das eine Organisation startet, sollte genau dieses Ziel haben: sich selbst überflüssig zu machen. Wenn es gelingt, danach keine großen Kulturkampagnen mehr zu brauchen, sondern in den Alltag eingebettete Mikroveränderungen und wache Feedbackschleifen, dann ist der eigentliche Wandel geschafft.

Alles andere ist nur die nächste Welle im Meer der guten Absichten.