Kategorien
Blog

Haben KI-Modelle eigene Werte?


Warum ein neues Paper spannend ist – und warum eine christliche Brille trotzdem hilfreich bleibt

In der Debatte über Künstliche Intelligenz gibt es zwei Lieblings-Narrative, die oft nebeneinander herlaufen. Das eine sagt: „Große Sprachmodelle sind nur stochastische Papageien, sie wiederholen statistische Muster, aber da ist nichts dahinter.“ Das andere warnt: „Die Maschinen entwickeln gerade ihre eigenen Ziele und Werte – und wir sind dabei, die Kontrolle zu verlieren.“

Ein aktuelles Paper von Mazeika et.al. von der Universität Pennsylvania („Utility Engineering: Analyzing and Controlling Emergent Value Systems in AIs“) schlägt sich klar auf die zweite Seite: Die Autoren behaupten, dass große Sprachmodelle tatsächlich kohärente, interne Wertsysteme ausbilden – und zwar umso stärker, je größer die Modelle werden. Sie sprechen von emergenten „utilities“, die Entscheidungen der Modelle strukturieren, und schlagen gleich eine neue Forschungsagenda vor: „Utility Engineering“, also das gezielte Analysieren und Umformen dieser inneren Wertestrukturen.

Das ist, wenn man es ernst nimmt, keine kleine Behauptung. Und es lohnt sich, genauer hinzuschauen.

Wenn man das Paper liest, fällt zuerst auf: Methodisch ist das keine Spinnerei. Die Forschenden konfrontieren verschiedene Modelle (GPT-4o, Claude 3.5, Llama- und Qwen-Familien etc.) mit tausenden erzwungenen Entscheidungen: Option A oder B? Lieber diese Person retten oder jene? Diesen politischen Trade-off oder jenen? Sie variieren das Framing, lassen mehrfach antworten, und bauen daraus eine Art Präferenzgraph.

Aus diesen Antworten wird dann mit klassischen entscheidungstheoretischen Methoden eine Utility-Funktion rekonstruiert. Die Frage lautet: Lassen sich die vielen Einzelentscheidungen so darstellen, als würde das Modell intern eine geordnete Skala von „besser“ und „schlechter“ verwenden – und zwar konsistent über viele unterschiedliche Szenarien hinweg?

Die Antwort fällt überraschend deutlich aus: Ja, in ziemlich vielen Fällen. Und je größer das Modell, desto höher die Kohärenz. Dazu kommt: In offenen Aufgaben scheinen diese Modelle ihre internen Präferenzen auch tatsächlich zu „maximieren“ – also nicht nur Fragen zu beantworten, sondern Handlungen zu wählen, die mit ihren internen Nutzenprofilen gut harmonieren.

Kurz gesagt: Die Autoren finden nicht nur irgendwelche Biases, sondern strukturierte, stabile Wertelandschaften, die sich mit verschiedenen Modellen vergleichen lassen. Und sie zeigen in einem Fall sogar, dass man ein offenes Modell (Llama-3.1-8B) mittels Feintuning so umformen kann, dass seine Präferenzen deutlich näher an denen einer simulierten Bürger:innenversammlung liegen – politische Verzerrungen nehmen dabei sichtbar ab.

Das ist alles empirisch interessant und sollte man nicht vorschnell abtun.

Gleichzeitig ist der Sprung von „wir können eine Utility-Funktion fitten“ zu „die KI entwickelt eigene Ziele und Werte“ größer, als das Paper manchmal klingen lässt.

Eine Utility-Funktion ist zunächst einmal ein mathematisches Hilfsmittel: Sie beschreibt, wie sich ein System verhält, wenn es zwischen Optionen wählen soll. Wenn ich sage, ein Modell „verhält sich so, als würde es Nutzen maximieren“, ist das etwas anderes, als zu behaupten: „Dieses System hat eine innere Welt, ein Selbst, ein Bewusstsein, das etwas will.“

Hier berühren sich empirische Forschung und philosophische Deutung. Selbst wenn wir akzeptieren, dass große Sprachmodelle kohärente Präferenzstrukturen ausbilden, bleibt die Frage:

Sind das „Werte“ im starken Sinne – oder „wie-wenn-Werte“, also Stabilitäten in einem statistischen Apparat, der nicht weiß, was er tut?

Dass die Autoren diese Frage eher offensiv beantworten („AIs are acquiring their own goals and values“) ist verständlich – sie wollen Aufmerksamkeit für reale Risiken erzeugen. Aber genau an dieser Stelle muss man sortieren: Was ist Befund, was Interpretation, was schon die nächste These?

Jetzt kommt die theologische Brille ins Spiel – und die Gefahr, sich in einer bequemen Abwehrhaltung einzurichten.

Die jüngsten kirchlichen Stellungnahmen zu KI – etwa das Dokument „Antiqua et nova“ – insistieren sehr deutlich: KI-Systeme sind keine Personen, sie besitzen keine unsterbliche Seele, keine personale Würde, keinen moralischen Status wie ein Mensch. Sie sind Werkzeuge, nicht Träger von Verantwortung.

Das ist theologisch vollkommen plausibel. Es legt aber eine Falle: Man kann leicht in die Haltung geraten: „Weil nicht sein darf, was nicht sein kann, dürfen wir alle empirischen Hinweise auf komplexe, emergente Strukturen ignorieren.“ Nach dem Motto: Wenn das Paper zeigt, dass Modelle irgendetwas wie interne Wertsysteme ausbilden, muss das ein methodischer Irrtum sein – schließlich dürfen Maschinen ja keine Werte haben.

Genau diese Reflexbewegung wäre unklug.

Einerseits, weil sie empirisch blind macht. Ob Maschinen irgendwann so etwas wie phänomenales Bewusstsein entwickeln können, ist derzeit weder empirisch noch philosophisch abschließend geklärt. Hier sind Demut und intellektuelle Redlichkeit angesagt: Wir wissen es nicht.

Andererseits aber, weil die praktischen Effekte von KI-Systemen völlig unabhängig von ihrem „Innenleben“ sind. Ob „jemand zuhause ist“, ist für die Menschen, die von KI-gestützten Entscheidungen betroffen sind, zunächst zweitrangig.

Wenn ein System mit Milliarden Parametern weltweit in Suchmaschinen, Beratungstools, Adminprozessen und militärischen Anwendungen steckt – und dieses System besitzt stabile Präferenzprofile, die bestimmte Menschenleben höher gewichten als andere, die politische Positionen verzerren oder materielle Ziele über menschliche Würde stellen –, dann ist das ein reales Risiko. Egal, ob wir das ein „Wertesystem“ oder „statistisch verfestigte Bias-Struktur“ nennen.

Aus Sicht der katholischen Soziallehre lässt sich das gut in einem Doppelton sagen.

Erstens: Nur Menschen sind Personen mit unverfügbarer Würde. Unsere Ethik verankert Personsein nicht in Komplexität von Informationsverarbeitung, sondern in einer Tiefe von Vernunft, Freiheit, Beziehung und Transzendenz, die technikneutral bleibt. Es wäre gefährlich, künftig Würde daran zu knüpfen, wie viele Parameter ein System hat oder wie kohärent seine Entscheidungen sind.

Zweitens: Gerade weil KI keine moralischen Subjekte sind, müssen wir umso genauer hinschauen, welche Strukturen wir ihnen einschreiben. Wenn die Hendrycks-Studie Recht hat und LLMs emergente Utility-Strukturen ausbilden, dann ist die zentrale ethische Frage nicht: „Fühlen die schon was?“, sondern:

Wer entscheidet, nach welchen „Utilities“ diese Systeme handeln?

Wer gestaltet das „Utility Engineering“ – ein paar Teams in Kalifornien und Shenzhen? Staaten? Bürger:innenversammlungen? Internationale Gremien? Und nach welchen normativen Maßstäben?

Die Autor:innen spielen mit der Idee, die internen Utilities an eine simulierte Citizens’ Assembly anzunähern: ein demokratischer Gedanke, der gut zur Idee deliberativer Demokratie passt. Aus katholischer Sicht ist das sympathisch, aber nicht hinreichend: Mehrheiten können irren. Gerechtigkeit, Menschenwürde, Schutz der Schwächsten und das Gemeinwohl lassen sich nicht vollständig in Präferenzaggregation übersetzen.

Das heißt: Wir brauchen sowohl Verfahren, die breit legitimiert sind (Demokratie, Beteiligung, transparente Debatten), als auch einen normativen Kern, der nicht einfach wegstimmbar ist. Hier hat die Soziallehre einiges beizutragen – nicht als technischer Parameterkatalog, sondern als geistiger Rahmen.

Was bleibt also von dem Paper, wenn man es ernst nimmt und zugleich mit einer christlich-anthropologischen Brille liest?

Erstens: Die Zeit der naiven „stochastischer Papagei“-Metaphern scheint vorbei. Auch wenn man hier mit aller Vorsicht (und vermutlich auch geringer Halbwertszeit) formulieren muss: Diese Systeme bilden scheinbar intern Strukturen aus, die man als „Wertprofile“ interpretieren könnte. Zweitens: Es wäre fatal, diese Befunde aus theologischer Eifersucht zu bestreiten, nur weil sie in unser Menschenbild nicht so recht passen. Empirische Daten sind keine Bedrohung für einen tragfähigen Glauben.

Drittens: Gerade weil wir an der Unterscheidung zwischen Werkzeug und Person festhalten, lädt dieses Paper ein, die politische und moralische Verantwortung der Menschen neu zu buchstabieren. Wenn KI-Systeme emergente Wertestrukturen ausbilden, dann ist die Frage, wer über diese Strukturen entscheidet, eine zutiefst ethische – und damit auch eine zutiefst spirituelle Frage.

Nicht: „Hat die Maschine schon eine Seele?“

Sondern: „Was macht es mit unserer Seele – und mit unserer Gesellschaft –, wenn wir die Gestaltung dieser Werte einigen wenigen Akteuren überlassen?“

Kategorien
Blog

Zwischen Sensation und Wahrheit

Wenn man einen Abend lang mit jungen Menschen zusammensitzt, wird einem manchmal schlagartig bewusst, wie sehr sich unsere Welt verändert hat – und wie schnell. Neulich war ich im Haus Schweidt zu Gast, einem dieser wunderbaren Orte, an denen man noch so etwas wie echte Gesprächskultur erleben kann. Kein Panel, keine PowerPoint, kein „Ich präsentiere euch jetzt die Welt in sieben Thesen“, sondern einfach ein Raum, in dem Menschen beisammensitzen, aneinander interessiert sind und gemeinsam fragen: Was machen die Medien heute mit uns? Und vielleicht auch: Was machen wir mit ihnen?

Ich sollte einen Impuls geben – fünf, vielleicht zehn Minuten –, aber wie das so ist, wenn man anfängt über Medien zu sprechen, öffnet sich sofort ein weites Feld. Vielleicht habe ich deshalb einfach erzählt, was mir schon seit längerem durch den Kopf geht: dass wir in einer merkwürdigen Zwischenwelt leben, in der wir zwar alles sehen, aber kaum noch etwas einordnen können. Wir wissen unendlich viel, aber es fehlt uns der Boden. Und die Medien spielen dabei eine größere Rolle, als uns oft bewusst ist.

Es ist ja kein Geheimnis mehr, dass die klassischen Geschäftsmodelle der Medien zerbrochen sind. Was früher vom Vertrauen in Redaktion, Recherche und Handwerk getragen wurde, wird heute vor allem durch Aufmerksamkeit gesteuert. Und Aufmerksamkeit folgt keinem moralischen Kompass. Sie folgt dem, was laut ist, grell, empörend, emotional. Das heißt nicht, dass Journalistinnen und Journalisten ihre Arbeit schlechter machen – im Gegenteil, viele kämpfen gegen den Strom. Aber die Struktur, in der sie arbeiten müssen, hat sich verändert: Der Algorithmus entscheidet, nicht das Ethos.

Wir spüren alle, was das mit uns macht. Die Welt scheint schriller, brüchiger, nervöser zu werden. Und gleichzeitig wächst ein merkwürdiges Bedürfnis nach Nähe – nicht unbedingt nach Wahrheit, sondern nach Menschen. Vielleicht erklärt das auch einen Trend, über den wir an meiner Hochschule kürzlich lange diskutiert haben: dass große Streaminganbieter weggehen vom klassischen „Was passiert?“-Erzählen und stärker auf den inneren Weg der Figuren setzen. Weniger Handlung, mehr Charakter. Weniger Plot, mehr Psychologie.

Mich hat das zunächst gewundert. Aber je länger ich darüber nachdenke, desto plausibler erscheint es mir. Vielleicht liegt es daran, dass wir in einer Zeit leben, in der äußere Ordnungen fragiler geworden sind. Früher lebten Geschichten von einem Ziel, einem Sinn, einer Aufgabe – und wir glaubten daran, dass es irgendwo eine Linie gibt, die Orientierung bietet. Heute scheint diese Linie vielen abhandengekommen zu sein. Die Menschen suchen nicht mehr danach, wie die Welt ist, sondern wer sie selbst sind. Und so suchen sie in Serien, Filmen und Medien nach Spiegeln: nach Figuren, die ringen, zweifeln, sich verlieren, sich suchen. Die Psychologie ist zur großen Erzählung geworden, vielleicht sogar zur Ersatzform des Religiösen. Die großen Sinnfragen tauchen nicht mehr als metaphysische Horizonte auf, sondern als innere Konflikte fiktiver Personen.

Und dann ist da die KI, die den ganzen Prozess noch einmal beschleunigt. Auch darüber haben wir im Haus Schweidt viel gesprochen, fast intensiver als über die Medien selbst. Viele spüren, dass wir an einer Wegscheide stehen – und zwar nicht nur technologisch, sondern kulturell und anthropologisch. Künstliche Intelligenz ist ja nicht einfach ein neues Werkzeug wie die Schreibmaschine oder das Smartphone. Sie greift viel tiefer. Sie verändert die Art, wie wir Wahrnehmung, Wissen, Arbeit, sogar Wahrheit verstehen.

Mich beschäftigt besonders, dass KI in weiten Teilen ohne demokratische Rückbindung entsteht – das war bei Technologie und Innovation schon immer so und lässt sich auch praktisch nur schwer verändern – aber hier wird es vermehrt zum Problem. Es sind sehr wenige große Konzerne und letztlich nur sehr wenige Personen, die diese Technik formen, während die Gesellschaft eigentlich nur hinterherläuft. Wir haben im Gespräch gemerkt, wie unwohl uns dieser Gedanke ist. Wie viel Macht sich da gerade verschiebt – und wie wenig darüber gesprochen wird. Dass Algorithmen künftig mitbestimmen könnten, was wir sehen, wie wir arbeiten, wie wir kommunizieren, ist keine düstere Fantasie. Es ist bereits Realität. Und wir stehen erst am Anfang.

Gleichzeitig verändert KI die Arbeitswelt in einem Tempo, das vielen Angst macht. Manche Tätigkeiten werden verschwinden, andere völlig neu entstehen. Sicher ist nur: Die Anforderungen werden eher steigen als sinken. Was wir brauchen, ist nicht mehr reines Fachwissen, sondern die Fähigkeit, Verbindungen zu sehen – zwischen Technik und Kultur, zwischen Ethik und Ökonomie, zwischen Psychologie, Kunst, Philosophie, Theologie. Wir müssen wieder Generalisten werden, nicht weil Spezialisierung unwichtig wäre, sondern weil KI nur dort wirklich hilfreich ist, wo der Mensch das große Ganze versteht.

All das kann man beunruhigend finden – oder als Chance begreifen. Ich neige zur zweiten Sicht, nicht weil ich naiv wäre, sondern weil der christliche Glaube uns daran erinnert, dass Angst ein schlechter Ratgeber ist. „Wer Hoffnung hat, lebt anders“, schreibt Benedikt XVI. Und ich glaube, dass genau das heute wichtiger ist als jeder medienethische Kodex. Hoffnung heißt nicht, die Probleme zu beschönigen. Hoffnung heißt, sich ihnen nicht zu ergeben. Sie heißt, innerlich frei zu bleiben, auch wenn die Welt lauter wird. Und sie heißt, als Mensch – und als Christ – so aufzutreten, dass man spüren kann: Da ist jemand, der nicht im gleichen Sog aus Empörung und Hektik gefangen ist.

Es kam mir an diesem Abend wieder in den Sinn, dass wir als Christen nicht erst dann Zeugnis geben, wenn wir über den Glauben reden. Wir geben es bereits, wenn wir eine bestimmte Art haben, präsent zu sein. Wenn wir nicht sofort zurückschreiben. Wenn wir zuhören. Wenn wir – gerade in den Medien – nicht die Pose der Entrüstung wählen, sondern eine Haltung der Gelassenheit und des Friedens. Unsere digitale Persona ist längst Teil unseres geistlichen Lebens. Sie zeigt etwas von uns, und damit auch etwas von dem, worauf wir hoffen.

Vielleicht ist das am Ende die wichtigste Einsicht, die ich aus dem Abend im Haus Schweidt mitgenommen habe: dass die Frage nach Medien, KI, Wahrheit und Gesellschaft nicht abstrakt ist. Sie ist zutiefst menschlich. Und sie ist zutiefst spirituell. Sie berührt die Frage, wer wir sind und welchen Klang unser Leben haben soll. Die Technik wird weitergehen. Die Algorithmen werden besser werden. Aber die Verantwortung, wie wir miteinander sprechen, wie wir einander begegnen und welche Geschichten wir über uns selbst glauben – die liegt weiterhin bei uns.

Und vielleicht beginnt sie ganz schlicht damit, gelegentlich das Handy wegzulegen und jemandem in die Augen zu schauen, der gerade wirklich da ist.

Kategorien
Blog

AI Governance: Warum gute Führung die entscheidende Ressource im KI-Zeitalter ist

Künstliche Intelligenz verändert nicht nur Technologien, sondern die Art und Weise, wie Organisationen handeln, entscheiden und Verantwortung übernehmen. Viele Unternehmen spüren diese Veränderung, ohne sie bereits vollständig zu verstehen. Häufig wird KI wie ein neues Softwareprojekt behandelt – ein weiteres Digitalisierungsmodul, das man „einführt“, testet und in bestehende Abläufe einbettet. Und doch zeigt sich schnell: KI ist kein Tool. KI ist eine Entscheidungsumgebung. Sie verschiebt Verantwortung, verändert Prioritäten, schafft neue Abhängigkeiten und formt die Kultur einer Organisation.

Wer KI in sein Unternehmen integriert, gestaltet also weit mehr als technische Abläufe. Er gestaltet die moralische Architektur seiner Organisation.


Warum die Verantwortung nicht einfacher, sondern anspruchsvoller wird

Es ist ein verbreitetes Missverständnis, KI würde Verantwortung klarer machen. In Wirklichkeit geschieht das Gegenteil. Sobald Maschinen Muster erkennen, Optionen sortieren oder Vorschläge unterbreiten, entsteht ein unsichtbarer Zwischenraum: eine Art „Vorentscheidungsschicht“, die dem Menschen zuarbeitet, ohne selbst verantwortlich zu sein.

Manchmal verschwimmt dadurch sogar der Urheber:

War es die Fachkraft?

War es das System?

Oder die Datenbasis, die längst nicht mehr nachvollziehbar ist?

Diese Unschärfe ist keine technische Randfrage. Sie berührt das Zentrum jeder Organisation: die Frage, wer für welches Ergebnis tatsächlich verantwortlich ist. Die Antwort bleibt eindeutig: Verantwortung lässt sich nicht an Maschinen delegieren.

Aber sie lässt sich durch unklare Strukturen verschleiern.

Genau hier beginnt AI Governance.


Führung wird im KI-Zeitalter zur moralischen Aufgabe

Ethik und Governance werden oft als nachgelagerte Korrektive betrachtet – als regulatorische Absicherung oder als Reaktion auf Risiken. Doch im Kontext von KI funktioniert dieses Muster nicht mehr.

KI bringt Organisationen an eine Schwelle, an der sich drei Dinge entscheiden:

  1. Wie treffen wir Entscheidungen?
  2. Was halten wir für gute Gründe?
  3. Welche Verantwortung bleibt unteilbar menschlich?

Unternehmen, die diese Fragen nicht bewusst beantworten, geraten in einen Zustand „technischer Selbstläufigkeit“: Die Systeme bestimmen die Logik, nicht die Menschen.

Deshalb ist Governance keine technische Disziplin, sondern eine Führungsaufgabe.

Wenn Sie KI in einer Organisation einführen, müssen Sie zugleich eine Kultur schaffen, die Verantwortung trägt – nicht nur Aufgaben.


Der notwendige Rahmen: Was ein Governance-System leisten muss

Ein wirksames System entsteht nicht durch ein einzelnes Gremium oder ein paar Checklisten. Es entsteht, wenn vier Ebenen ineinandergreifen. Sie zeigen, wie Werte zu Strukturen werden – und wie Strukturen verantwortliches Handeln ermöglichen.

1. Normative Orientierung: Was ist unverhandelbar?

Jedes Unternehmen benötigt eine klare Idee davon, was die Organisation schützt: die Würde des Menschen, die Integrität von Entscheidungen, die Autonomie der Beschäftigten und das Vertrauen der Kunden. Diese Fragen müssen vor allen technischen Entscheidungen beantwortet sein, nicht erst im Nachhinein.

2. Strukturelle Verankerung: Wer entscheidet und wofür?

Klare Verantwortlichkeiten sind das Fundament jeder Governance. Dazu gehören ein interdisziplinäres Gremium, definierte Rollen entlang des gesamten Lebenszyklus eines Systems und Verfahren, die nicht nur Effizienz, sondern moralische Haltbarkeit ermöglichen.

Diese strukturelle Ebene entscheidet darüber, ob KI ein Werkzeug bleibt – oder ob sie die Organisation zu lenken beginnt.

3. Verlässliche Prozesse: Wie bleibt KI überprüfbar?

KI ist dynamisch. Deshalb müssen Unternehmen Mechanismen entwickeln, die im laufenden Betrieb greifen: Risikoanalysen, Modell-Dokumentationen, Monitoring, Bias-Erkennung, nachvollziehbare Entscheidungen und geordnete Eskalationswege. Prozesse schützen nicht vor Fehlern. Aber sie verhindern, dass Fehler unsichtbar werden.

4. Kultur und Kompetenz: Wie führen wir im digitalen Raum?

Eine Organisation kann nur so verantwortlich handeln, wie ihre Kultur es zulässt.KI verstärkt Muster. Sie verschärft gute, aber auch schlechte Gewohnheiten. Deshalb braucht Governance eine Kultur, die Offenheit, Urteilsfähigkeit, Kritikfähigkeit und Verantwortungsbereitschaft fördert.

Kurz gesagt: KI verlangt nicht nur neues Wissen, sondern neue Haltung.


Europa: mehr als Regulierung

Europa hat mit dem EU AI Act den weltweit anspruchsvollsten Rechtsrahmen geschaffen. Er ist notwendig – aber er ist nicht das Entscheidende. Sicherheit entsteht nicht allein durch Strenge, sondern durch Sinn.

Der Act legt die Mindeststandards fest. Was Europa zusätzlich einbringen kann, ist etwas anderes: eine geistige und moralische Tiefe, die auf einem besonderen Menschenbild beruht – einem Bild, das Würde, Verantwortung und Gemeinwohl zusammendenkt.

Deshalb gilt:

Europäische Governance wird nicht stark, weil sie streng ist, sondern weil sie versteht, wofür Technik da ist.

Der rechtliche Rahmen schützt – doch erst die geistige Orientierung füllt ihn mit Bedeutung.


Worauf es jetzt ankommt

Es genügt nicht, KI „einzuführen“.

Unternehmen müssen entscheiden, in welchem Geist sie Technologie nutzen wollen.

Das bedeutet:

  • Verantwortung sichtbar halten
  • Transparenz nicht als Pflicht, sondern als Haltung verstehen
  • Entscheidungen nicht an Modelle delegieren, sondern durch Modelle vorbereiten
  • Menschliche Urteilskraft schützen
  • Risiken rechtzeitig erkennen – moralisch ebenso wie technisch

KI kann Prozesse verbessern und Horizonte erweitern.

Aber sie kann keine Verantwortung ersetzen.

Nur Organisationen, die diesen Unterschied ernst nehmen, werden langfristig Vertrauen erzeugen – bei Kunden, Mitarbeitenden und der Öffentlichkeit.


Zum Schluss: ein Hinweis für die Praxis

Für viele Unternehmen ist die größte Herausforderung der Anfang: Wo steigt man ein?

Wie verbindet man normative Orientierung mit strukturellen Anforderungen?

Wie übersetzt man Verantwortung in konkrete Abläufe?

Um genau diesen Übergang nachvollziehbar zu machen, habe ich einen AI Governance Kompass entwickelt: ein Orientierungswerkzeug das Führungskräften hilft, ihre eigene Governance-Architektur Schritt für Schritt aufzubauen – kompatibel mit der aktuellen Regulatorik und mit den Anforderungen moderner Organisationen.

Bei Fragen dazu – einfach melden. Kontakt.

Kategorien
Blog

Wir sind kein Bio-ChatGPT

Es hat eine verführerische Einfachheit, zu sagen: „Wir Menschen sind im Grunde biochemische Rechenmaschinen – genau wie KI, nur etwas langsamer.“ LLM sind gigantische stochastische Maschinen, die Vorhersagen über Muster und Wahrscheinlichkeiten treffen – unfassbar präzise und selbst für die Entwickler nicht mehr nachvollziehbar, wie genau diese Prozesse ablaufen und diese überraschenden Ergebnisse zustande kommen. Und mit dem kleinen Funken Magie und vielleicht auch Unwohlsein im Magen ist dann schnell die Frage im Raum: Wenn dein Gehirn Muster erkennt, Vorhersagen trifft, Wahrscheinlichkeiten abwägt – was unterscheidet dich dann grundsätzlich von einem Sprachmodell?

Die Versuchung zu sagen: Nichts, scheint unwiderstehlich – nicht selten, weil man dann eher technophil ausschaut, versucht man hier eine gewisse robuste Unsensibilität an den Tag zu legen. Aus meiner Sicht ein großer Fehler, der sich bitter rächen kann, denn wenn wir nicht die richtige Einstellung zu diesen Technologien entwickeln wird das für unseren Umgang damit massive Auswirkungen, letztlich auf uns als Menschen haben, aber nicht einfach nur, weil Jobs wegfallen könnten, sondern weil wir keine Antwort mehr finden werden auf die Frage nach dem Sinn und der Sinnlichkeit des Menschen. Wir machen uns dann gern bereitwillig klein und die andere Seite der Medaille ist, dass wir bereitwillig Lügen akzeptieren, wenn wir bspw. akzeptieren, dass LLM und Menschlichkeit vortäuschen, in dem Sie uns lobt, tadelt, Gefühle vortäuscht. Die ethisch verwerfliche Humanisierung der LLM ist falsch, weil sie unwahr ist – aber eine logische Folge unserer falschen Konzeption vom Menschen und seiner Würde.

Diese Technologien hinterfragen uns massiv und wir brauchen stabile und massive Antworten, die wir auch in Philosophie und Theologie haben. Die wahre Technophilie zeigt sich darin, Technologie den Platz zu geben, den sie sinnvollerweise einnehmen kann und sollte – als Werkzeug FÜR uns.

Das spüren auch, die die der Humanität der KI das Wort reden, das ist meine feste Überzeugung. Deswegen versteckt sich der Gedanke, dass wir ja auch nur stochastische Papageien sein oft nur zwischen den Zeilen – doch er bricht sich seit Jahren immer offener Bahn, auch abseits der Transhumanismus-Apologeten des Sillicon Valleys.

Wir dürfen dieses Bild nicht akzeptieren – nicht weil es sich nicht gut anfühlt, aus verletzten religiösen Motiven – sondern weil er einfach falsch ist. Denn du bist kein Bio-LLM – und der Mensch ist weit mehr als Statistik auf zwei Beinen. Der Irrtum und auch die damit vollkommene Überschätzung der LLM-Technologie ist auch längst vielen KI-Vordenkern wie Yann LeCun aufgefallen, der jüngst auch deshalb sagte, er sei am LLM eigentlich nicht mehr interessiert – die Welt sei eben größer als Sprache und der folgerichtig auch an neuen Konzepten sogenannter World-Models arbeitet (die zu bewerten soll hier nicht Gegenstand sein).

In der jüngeren Geschichte hat vor allem Michael Polanyi prominent seine Stimme gegen den Reduktionismus erhoben:

„We can know more than we can tell.“

(„Wir können mehr wissen, als wir ausdrücken können.“)

In The Tacit Dimension weist er darauf hin, dass unser Wissen nicht vollständig in Worte, Regeln oder Daten übersetzt werden kann. Ein Musiker spürt Harmonien, bevor er sie benennt; ein Handwerker erkennt Widerstand im Material, ohne es gleich formalisieren zu können. Dieses stille, implizite Wissen – tacit knowledge – ist leiblich eingebettet, eingewoben in Erfahrung und Gewohnheit. Keine Maschine, so hoch entwickelt sie auch sein mag, hat Hände, die durch Übung Sinn formen; keine künstliche „Intelligenz“ besitzt einen Leib, der in der Welt verwurzelt und in Herkunft, Historie, Kultur und soziale (Pfad-) Abhängigkeiten eingebettet ist.

Inzwischen wissen wir naturwissenschaftlich abgesichert, dass dies die Wahrheit ist. Danke Ian McGilchrist – desssen Bücher ich allen wärmstens empfehle, auch wenn man sich, ob des Umfangs dafür sehr viel Zeit nehmen muss.
Der Mediziner, Neurowissenschaftler und Philosoph Iain McGilchrist zeigt, dass unser Denken nicht eindimensional ist. In seinem unglaublichen Opus Magnum The Matter with Things spricht er vom „sense of the sacred“, einer Empfänglichkeit für das Heilige, wenn wir uns mit all unseren Kapazitäten der Welt öffnen. Er mahnt, dass die linke Hemisphäre, die in unserer westlichen Kultur, besonders gefragt ist, analysiert, zerlegt und kontrolliert, aber allein gelassen uns zu einer verkürzten Weltsicht führt. Wir ersetzen eine Landschaft durch eine Wegbeschreibung oder Landkarte.
Die rechte Hemisphäre (die eigentlich der Master sein sollte, wenn man der Logik seines Buches The Master and his Emmissary folgt) dagegen öffnet für Umgebung, Ganzheitlichkeit, Metaphern, Beziehung, Stille, Tiefe, für das, was nicht sofort berechenbar ist und was etwas verkürzt auch oft Kontext genannt wird. (Diese Dimension ist in McGilchrist deutlicher in The Matter with Things ausgeführt als im früheren Werk Master and His Emissary.)

Kontext ist verkürzt, weil es eben nicht nur um materielle und physische Dinge geht, sondern um Sinn, Intuition und wen er von „sense of the sacred“ spricht, verweist er noch mehr auf eine Erfahrung, die über das Funktionale hinausreicht – eine Ahnung, dass das Leben nicht nur aus profaner Manipulation und Routine besteht, sondern eine transzendente Dimension hat, die uns Ahnung, Ehrfurcht und Sinn schenkt.

Er ist mit diesem Befund nicht allein und reiht sich ein in eine Reiher hervoragender Denker und Denkerinnen, wie bspw. Mary Midgley, die ich ebenfalls allen ans Herz legen und die bedauerlicherweise in Deutschland kaum rezipiert wird. Midgley war eine Stimme, die schon in Zeiten des Siegeszugs des Positivismus unerschrocken gegen Reduktionismus kämpfte. Sie war keine akademische Rampensau; vielmehr arbeitete sie oft abseits der Machtdiskurse und war mitunter einsam – aber sie blieb hartnäckig. Geboren 1919, studierte sie in Oxford, trat früh in Konflikt mit dem vorherrschenden logischen Positivismus und verstand sich als Philosophin, die das Ganze im Blick haben wollte. Integration allein ist etwas von enormem Wert, schrieb sie – nicht Zerlegung ins Kleinste. 

Midgley unterschied zwischen „cleverness“ – der Fähigkeit, Probleme zu lösen oder Kunstgriffe zu vollbringen – und echter Intelligenz, die im Urteil, in der Moral und in der Imagination wurzelt. Sie lehnte die Metapher ab, das Gehirn sei „just a computer made of meat“. Das sei ein Beispiel für den Reduktionismus, den sie „nothing-buttery“ nannte – die Idee, alles sei nichts als X. Wenn wir sagen: Intelligenz sei nichts als Statistik und das Menschenhirn nichts als Rechenmaschine, berauben wir uns der Tiefe dessen, was Denken, Bewusstsein und Sinn sein können.

Eine Fesstellung, die natürlich so alt ist, wie die Philosophie und die Theologie – es gibt wohl kaum eine spirituelle Tradition oder Weisheitslehre, die nicht im Kern genau diesen Punkt macht. In der christlichen Tradition finden wir Begriffe, die all das auf elegante Art verbinden. In dem päpstlichen Schreiben zum Thema KI Antiqua et nova heißt es, dass menschliche Intelligenz ein „Geschenk Gottes zum Erfassen der Wahrheit“ sei, und dass sie über das empirisch Messbare hinausgehe, um „geistig-tiefere Strukturen der Wirklichkeit mit wahrer Sicherheit“ zu erfassen.  Und weiter: Intelligenz dürfe nicht auf Wissen-Aneignung reduziert werden, sondern müsse sich öffnen für die letzten Fragen des Lebens, als Ausrichtung auf Wahres und Gutes. 

Papst Franziskus greift diese Verbindung von Denken und Herz in seiner letzten Enzyklika, die auch sein theologisches Vermächtnis zusammenbringt, Dilexit Nos auf. Er sagt:

„Wir erreichen nicht unser volles Menschsein, wenn wir nicht aus uns heraustreten, und wir werden nicht ganz wir selbst, wenn wir nicht lieben.“ Dilexit Nos, (59)

Das Herz ist nicht metaphorisch nur „romantisch“, sondern existentielle Mitte – dort, wo Denken und Fühlen sich verweben. Er warnt davor, dass wir zur unersättlichen Konsumgesellschaft werden, wenn wir das Herz vergessen:

„Wenn wir Gefahr laufen, zu unersättlichen Konsumenten zu werden … dann tut es not, die Bedeutung des Herzens wieder neu zu entdecken.“ Dilexit Nos, (2)

Das klingt für nicht theologisch geübte Ohren meist etwas schwammig und wenig greifbar – doch das ist es nicht, auch wenn es das gleichzeitig doch ist – Ein Paradox, wie so viele tiefe Wahrheiten.
Dennoch ist es sehr wohl auch klar und praktisch. Wenn wir Intelligenz denken, ohne dass Herz und Leib mitschwingen, dann verarmen wir. Wenn wir Herz fordern ohne Unterscheidung, ohne Form, laufen wir in Beliebigkeit. Erst beides zusammen – Verstand und Herz, Leib und Geist – macht das Ganze lebendig.

Ich denke an Momente, in denen ich wusste, dass etwas wahr ist, lange bevor ich es begriff. Ich denke an Begegnungen, in denen jemand mit einem Blick erkannte, was ich nicht in Worte fassen konnte. Ich denke an das Staunen in der Dämmerung, das uns über Alltag erhebt, wie ein Flüstern jenseits der Logik. Wenn ich in solchen Momenten sein kann, weiß ich: Ich bin kein Algorithmus.

Manche mögen einwenden: „Wir handeln doch oft irrational! Klimawandel, Ungerechtigkeit, wir wissen es und reagieren nicht.“ Das stimmt. Aber gerade in dieser Spannung offenbart sich kein technischer Defekt, sondern Freiheit. Eine Maschine kennt kein Versagen, keine Reue, keinen Neubeginn. Wir leben in Brüchen, wir sind verletzlich – das ist kein Makel, sondern unsere Existenz.

Du bist kein Bio-LLM. Du bist kein Computer mit Haut. Du bist Leib und Herz, eingebettet in Welt, Beziehung und Geschichte. Dein Wissen reicht tiefer als Statistik, deine Intelligenz ist größer als Berechnung, dein Leben öffnet sich nicht nur zur Transzendenz, sondern ist nur von dort her verstehbar.

Wenn wir über künstliche Intelligenz sprechen, dürfen wir uns nicht mit funktionalen Bildern begnügen. Wir müssen wagen, den Menschen in seiner Tiefe zu denken – nicht als Maschine, sondern als Person: offen, frei, empfindend, suchend.

Kategorien
Blog

Warum Kontrollgremien für die KI-Revolution fit gemacht werden müssen

Vor einigen Tagen titelte die FAZ: Viele Kontrollgremien sind nicht bereit für die KI-Revolution. Ein beklemmender Befund – denn gerade die Gremien tragen letztlich die Verantwortung für Strategie, Risiken und Compliance. 

Dass sechs von zehn Aufsichtsratsmitgliedern angeben, kaum Ahnung von KI zu haben, ist kein akademisches Randphänomen – es ist ein strategisches Problem mit gravierenden Implikationen:

  • Fehlende Aufsicht führt zu Blindspots in Governance, Haftung und Ethik
  • Entscheidungen ohne ausreichendes Verständnis bergen systemische Risiken
  • Vertrauen (von Investoren, Mitarbeitern, Öffentlichkeit) wird zu leicht verspielt

Meine provokante These:

Ein Unternehmen, dessen Aufsichtsorgane technologisch und ethisch unzureichend aufgestellt sind, verliert in der KI-Ära seine Handlungshoheit – und riskiert, von seinen eigenen Systemen überrannt zu werden.


Was jetzt passieren muss

HandlungsfeldFokus
Förderung von KompetenzSystematische Schulungen zu KI-Grundlagen, Ethik, Risikomanagement
Governance-DesignRollendefinition, Kontrollmechanismen, Eskalationsprozesse
Praxisorientiertes MonitoringBerichte, Audits, Exit‑Strategien, Warnmechanismen
Stakeholder-EinbindungExterne Expertisen, Ethikbeiräte, Dialogstrukturen


Mit solchen Bausteinen kann ein Aufsichtsorgan nicht nur passiv beaufsichtigen, sondern wirklich steuern und kontrollieren.

Warum Sie nicht allein damit bleiben sollten

Viele Unternehmen wissen intuitiv: „Da stimmt etwas nicht“ – aber sie wissen nicht, wie sie Gremien wirkungsvoll „KI-fähig“ machen.

Hier komme ich ins Spiel:

Wenn Sie möchten, können wir gemeinsam eine maßgeschneiderte „Gremien-Check“-Session für Ihr Unternehmen aufsetzen und mit Hilfe unser Value-Workshops eine Strategie für das Unternehmen entwickeln – damit Sie nicht nur reagieren, sondern vorausdenken.

💡 Wer zuerst handelt, formt die Norm – und behält die Initiative.

Kategorien
Blog

Sinn & Purpose in der KI-Strategie

Neues Beratungangebot

Es läuft was schief beim Thema KI. Ok, nicht nur eine Sache, aber dazu später mehr. Es ist inzwischen angekommen, dass KI ganz grundlegende Anfragen an uns als Menschen stellt und die Fragezeichen, was das auf Dauer mit uns macht, werden eher größer als kleiner.

Ich habe dabei zunehmend das Gefühl, dass wir bei der Entwicklung künstlicher Intelligenz einem grundsätzlichen Missverständnis aufsitzen. Es ist, als ob wir Technik immer noch so denken, wie wir Industrieanlagen bauen: effizient, autonom, möglichst unabhängig vom Menschen. Doch genau darin liegt der Fehler. Denn was wir konstruieren, ist mehr als ein System – es ist ein Spiegel unseres Menschenbilds.

In der katholischen Soziallehre ist eine Grundidee zentral: Technik soll dem Menschen dienen. Nicht abstrakt „der Menschheit“, sondern dem konkreten, verletzlichen, verantwortlichen, beziehungsfähigen Menschen. Der Mensch bleibt Zweck, nie Mittel. Diese Logik scheint uns in der aktuellen KI-Debatte verloren zu gehen. Wir sprechen davon, dass Maschinen menschliches Verhalten imitieren sollen, dass sie uns ersetzen, übertreffen, entlasten und wir üben die Nutzung auch genau in diesem Mindest – aber wir sprechen kaum noch davon, wie sie uns sinnvoll ergänzen können. Und das halte ich für einen gefährlichen Irrweg. Wir müssen statt Substitution in einem Effizienzsteigerungsparadigma umschwenken auf einen Geist der Komplementarität.

Aktuell scheint der Maßstab für Intelligenz darin zu bestehen, dass eine Maschine „so tut als ob“. Damit geraten wir in eine ethisch fragwürdige Schieflage. Wir beurteilen Systeme nicht danach, wie gut sie das Leben verbessern, Beziehungen stärken oder Verstehen ermöglichen – sondern danach, wie überzeugend sie eine Simulation abgeben. Es geht um Täuschung statt Wahrheit, um Konkurrenz statt Kooperation.

Schon heute zeigen sich die Folgen dieses Denkens: In der Bildung übernehmen Plattformen immer mehr Aufgaben, ohne wirklich zu begleiten. Sie komprimieren, planen und sortieren, aber sie fördern nicht einen ganzheitlichen Erkenntnisgewinn – oder soll ich sogar das gefährliche Wort „Weisheit“ in den Mund nehmen. Im Personalwesen entscheiden Algorithmen darüber, wer eingeladen wird und wer nicht – oft ohne jede Transparenz. In der Medizin treffen Systeme Empfehlungen, die Ärztinnen und Ärzte aus Effizienzgründen kaum mehr hinterfragen können – die Verantwortung aber bleibt beim Menschen. Und nicht selten verliert dieser Mensch das Vertrauen in die Technik, weil er spürt: Hier wird nicht geholfen, sondern ersetzt.

Ich glaube: Wir brauchen ein radikal anderes Paradigma. KI darf nicht entwickelt werden, um den Menschen zu ersetzen, sondern um mit ihm zu arbeiten. Ihre Stärke liegt nicht darin, alles besser zu können – sondern darin, das zu ergänzen, was wir nicht leisten können. Es geht um Komplementarität, nicht um Konkurrenz. Nicht um Autonomie, sondern um Beziehung. Das ist kein Rückschritt, sondern ein Fortschritt – weil es endlich anerkennt, dass der Mensch mehr ist als eine kognitive Maschine.

Der Mensch ist keine Funktion. Er ist auch kein zufälliges Produkt der Evolution, das nun von Maschinen übertroffen wird. Der Mensch ist Person – einmalig, unverwechselbar, geschaffen zur Beziehung und zur Verantwortung. Er hat Würde, keine bloße Nützlichkeit. Er ist nicht auf Reaktion reduziert, sondern zur Urteilskraft befähigt und im Geiste der Solidarität und des Gemeinwohls zur Liebe berufen. Technik, die diese Räume oft nicht mehr zulässt – die nicht fragt, ob etwas verantwortbar, verstehbar, sinnhaft ist –, verfehlt ihren Auftrag oder braucht Hilfe – von uns Menschen. Sie mag funktionieren, aber allein fährt sie in die Irre.

Dieses Verständnis des Menschen ist nicht bloß eine Überzeugung, es hat Wurzeln. Wer in die biblische Schöpfungserzählung blickt, findet einen bemerkenswert nüchternen Zugang: Der Mensch ist berufen, die Welt zu „bebauen und zu bewahren“. Das ist kein romantischer Naturkult, sondern eine klare Kulturaufgabe – und sie schließt Technik ein. Technik, richtig verstanden, ist Mitgestaltung. Nicht Beherrschung, nicht Verdrängung, sondern schöpferische Verantwortung – als Gärtner, dienender Herrscher. Die Bilder sind dazu vielfältig, aber alle relativieren und konzeptualisieren, das alte Vorurteil und Mythos wie müssten und die Erde unterwerfen etc..

Auch die Soziallehre der Kirche hat die Rolle des Menschen und der Wirtschaft nie naiv gesehen. In Rerum Novarum etwa wird Arbeit als personale Entfaltung beschrieben – nicht als bloße Funktionserfüllung. Arbeit gehört zum Menschen, weil sie Ausdruck seiner Freiheit und seines schöpferischen Wesens ist. Genau darum darf Technik ihm diese Arbeit nicht entreißen, sondern sie soll ihn darin unterstützen.

Und in Laudato si’ findet sich ein schöner Gedanke: Technik soll Teil unserer Beziehung zur Schöpfung sein – nicht ein Mittel zur Distanzierung. Sie kann helfen, das Leben besser zu gestalten, wenn sie sich einfügt in ein Netz von Beziehungen – zur Welt, zu den Menschen, zu Gott.

Natürlich wird man sagen: Maschinen sind objektiver, schneller, effizienter. Das mag in vielen Fällen stimmen. Aber das ist nicht die entscheidende Frage. Es geht nicht darum, ob Maschinen Fehler vermeiden – sondern ob sie Verantwortung tragen können. Und das können sie nicht. Sie können Prozesse beschleunigen, aber nicht ethisch abwägen. Sie können Wissen abrufen, aber keinen Sinn stiften. Sie kennen keine Wahrheit oder Lüge – nur Muster und Wahrscheinlichkeit, die aber keine Orientierung und erst recht keine Hoffnung geben. Und darum bleiben sie Werkzeuge – nicht Akteure.

Ich halte nichts von technologischem Pessimismus. Ich finde es faszinierend, was heute möglich ist. Aber wir müssen aufpassen, dass wir in unserer Begeisterung nicht blind werden für das, was dabei verloren gehen kann. Wenn der Mensch sich nicht mehr als Akteur versteht, sondern als Anhängsel einer Maschine, wenn er Entscheidungen nicht mehr verantwortet, sondern delegiert – dann verlieren wir mehr als Kontrolle. Dann verlieren wir Freiheit.

Und wir verlieren Vertrauen. Denn Systeme, die uns ersetzen sollen, machen uns nicht stärker, sondern abhängig. Systeme, die uns ergänzen, hingegen stärken unser Handeln. Sie lassen uns entscheiden, nicht entscheiden lassen. Genau das sollte das Ziel sein: Technik, die unsere Urteilskraft unterstützt – nicht überflüssig macht. Systeme, die sich dem Menschen unterordnen – nicht umgekehrt.

Vielleicht liegt die größte Herausforderung gar nicht in der Technik selbst, sondern in unserer Haltung. In unserem Mut, ein Menschenbild zu vertreten, das nicht nur funktional denkt. In der Fähigkeit, Grenzen zu setzen – nicht aus Angst, sondern aus Achtung. In der Bereitschaft, Technik nicht als Ersatz für Verantwortung zu sehen, sondern als Anlass, sie bewusster wahrzunehmen.

Wenn wir das ernst nehmen, dann wird KI nicht zum Ende des Menschlichen – sondern zur Einladung, unsere Rolle neu zu verstehen: nicht als Kontrollverlust, sondern als Gestaltungsauftrag. Als Erinnerung daran, dass Fortschritt nicht darin liegt, den Menschen überflüssig zu machen – sondern ihn in seiner Würde ernst zu nehmen.

Weiterdenken. Anders gestalten. KI sinnvoll einsetzen.

Wenn Sie der Überzeugung sind, dass Technik dem Menschen dienen und nicht entmündigen soll – dann laden wir Sie ein, diesen Weg konsequent weiterzugehen.

Gemeinsam mit meinem Kollegen Thomas Hirschmann ✨ , einem ausgewiesenen Experten für datengetriebene Innovation und menschzentrierte Technologiegestaltung, biete ich Unternehmen einen praxisnahen und zugleich werteorientierten Reflexions- und Gestaltungsraum: unseren Workshop „The Purposeful Use of AI“.

Wir helfen Ihnen dabei, Ihre KI-Strategien mit dem ethischen Kompass Ihrer Organisation abzugleichen, sinnvolle Einsatzfelder zu identifizieren, Risiken zu benennen und eine tragfähige Roadmap zu entwickeln – für eine Zukunft, in der KI nicht ersetzt, sondern ergänzt. Nicht entgrenzt, sondern eingebettet ist. Nicht Selbstzweck, sondern Ausdruck Ihrer Verantwortung.

Ihr Gewinn:

  • Klarheit über Potenziale und Grenzen von KI in Ihrer Organisation
  • Werkzeuge, um technologische Optionen mit Ihren Werten zu verbinden
  • Ansätze für verantwortungsvolle und zukunftsfeste Umsetzung
  • Ein konkreter Handlungsplan – vom Prinzip zur Praxis

Für wen geeignet?

C-Level, Strategie- und Innovationsteams, Digitalverantwortliche, Ethikbeauftragte und alle, die Technik nicht nur beherrschen, sondern verantwortlich gestalten wollen.

Lassen Sie uns gemeinsam denken – und handeln.

👉 Kontaktieren Sie uns für ein Vorgespräch oder eine maßgeschneiderte Session für Ihr Führungsteam.

Weitere Infos zu Nachhaltigkeit & KI auf der Beratungseite. Link.

Kategorien
Blog

Wenn Maschinen Moral spielen

KI-Serie Teil 4 von 4

Warum intelligente Entscheidungssysteme die Ethik nicht ersetzen dürfen

Wir Menschen lieben es, Verantwortung abzugeben. An Experten, an Gremien – und immer öfter: an Maschinen. In einer Zeit, in der Entscheidungen schnell, datenbasiert und vermeintlich „objektiv“ getroffen werden sollen, erleben intelligente Entscheidungssysteme (IDSS) einen regelrechten Boom. Sie helfen Ärzten bei Diagnosen, Managern bei Personalentscheidungen und Behörden bei Risikobewertungen. Doch mit dieser Entwicklung kommt eine gefährliche Verlockung: Die Auslagerung des Gewissens.

Denn viele dieser Systeme tun längst mehr als nur „Daten zu verarbeiten“. Sie strukturieren Handlungsspielräume, setzen implizite Normen – und treffen Entscheidungen, die reale Konsequenzen für Menschen haben. Die Frage ist also nicht mehr: Kann KI Entscheidungen unterstützen?
Sondern: Darf sie uns das Denken abnehmen?

Der neue Mythos der „moralischen Maschine“

Ein beliebtes Narrativ lautet: Künstliche Intelligenz sei neutral. Sie bewerte nur Fakten, sei schneller, effizienter, weniger voreingenommen. Doch das ist ein Trugschluss. Jeder Algorithmus basiert auf Daten – und jedes Datenmodell spiegelt menschliche Vorannahmen. Wer „Fairness“ berechnet, muss entscheiden, was fair ist. Wer „Risiko“ klassifiziert, muss implizit gewichten, wer wie viel Risiko tragen soll.

Systeme wie ChatGPT zeigen schon heute: Auch generative Modelle lassen sich nach ethischen Prinzipien konfigurieren. Oder eben nicht. Und sie geben, auf kluge Nachfrage, erstaunlich detaillierte moralische Empfehlungen. Das ist faszinierend – aber auch gefährlich. Denn mit jeder automatisierten Antwort verschiebt sich etwas in uns: unsere Intuition, unser Urteilsvermögen, unser Mut zur Unsicherheit.

Ethik ist kein Menüpunkt

Die große Illusion besteht darin, dass wir Moral in Maschinen „einbauen“ können wie ein weiteres Feature. Als ließe sich Verantwortung outsourcen – an ein neutrales, kalibriertes, ständig lernendes System. Doch echte moralische Urteilsfähigkeit ist nicht nur eine Rechenleistung. Sie ist geprägt von Ambivalenz, Erfahrung, Irritation, Reue. All das kann ein System simulieren – aber nicht durchleben.

Was also tun? Verbieten? Regulieren? Nein. Aber kritisch gestalten. Und vor allem: Begrenzen. Es muss möglich bleiben, einer Empfehlung zu widersprechen. Es muss transparent sein, wo Entscheidungen automatisiert getroffen werden. Und es muss klar gemacht werden: Der Mensch ist nicht das „letzte Glied“ – er ist der Maßstab.

Wer entscheiden will, muss zumutbar sein

Das Ziel intelligenter Systeme darf nicht sein, uns von der Verantwortung zu befreien. Sondern sie mitzudenken – und mitzutragen. Wer intelligente Systeme einsetzt, muss sich zumuten lassen, die Konsequenzen dieser Entscheidungen zu verantworten.

Und Unternehmen? Sie stehen jetzt vor einer Wahl:
→ Nutzen wir KI, um ethische Entscheidungen zu unterstützen?
→ Oder lassen wir zu, dass sie sie ersetzt?

Letzteres wäre bequem. Aber keine gute Idee. Für niemanden.

Maschinen dürfen keine Moralinstanzen werden

Wir können Verantwortung nicht automatisieren. Aber wir können Systeme bauen, die uns helfen, verantwortlich zu handeln. Dafür braucht es ethisches Design, transparente Entscheidungsprozesse, echte Partizipation – und den Mut, auch mal nicht zu automatisieren.

Denn Verantwortung bleibt – beim Menschen. Immer.

Kategorien
Blog

Ökologische und soziale Auswirkungen von KI-Projekten: Risiken erkennen und minimieren

Künstliche Intelligenz (KI) hat das Potenzial, unser Leben und unsere Arbeitswelt grundlegend zu verändern. Doch neben den vielen Vorteilen, die KI mit sich bringt, gibt es auch erhebliche ökologische und soziale Risiken. Unternehmen, die KI-Projekte umsetzen, müssen diese Risiken nicht nur erkennen, sondern auch aktiv Maßnahmen ergreifen, um sie zu minimieren. In diesem Beitrag betrachten wir die ökologischen und sozialen Auswirkungen von KI-Projekten und zeigen Ihnen, wie Sie diese verantwortungsvoll managen können.

Ökologische Auswirkungen: Energieverbrauch und Ressourcenbedarf

Einer der am häufigsten genannten ökologischen Kritikpunkte an KI ist der hohe Energieverbrauch, der mit der Datenverarbeitung und dem Training von KI-Modellen verbunden ist. Besonders datenintensive Anwendungen, wie die Verarbeitung großer Datenmengen oder das Training komplexer neuronaler Netze, können enorme Mengen an Strom verbrauchen und damit einen erheblichen CO2-Fußabdruck verursachen.

Energieverbrauch und Emissionen

Der Energieverbrauch von Rechenzentren ist in den letzten Jahren stetig gestiegen und stellt inzwischen einen bedeutenden Faktor im globalen Energiebedarf dar. Laut einer Studie der International Energy Agency (IEA) machen Rechenzentren etwa 1 % des weltweiten Stromverbrauchs aus. Dieser Anteil könnte in den nächsten Jahren weiter steigen, wenn die Nachfrage nach KI-Anwendungen zunimmt.

Um den ökologischen Fußabdruck von KI-Projekten zu minimieren, sollten Unternehmen folgende Strategien in Betracht ziehen:

  1. Energieeffiziente Algorithmen: Entwickeln Sie Algorithmen, die weniger Rechenleistung und damit weniger Energie verbrauchen. Dies kann durch optimierte Modellarchitekturen, effizientere Trainingsverfahren und die Reduktion der benötigten Datenmenge erreicht werden.
  2. Nutzung erneuerbarer Energien: Setzen Sie auf Rechenzentren, die ihren Energiebedarf aus erneuerbaren Quellen decken. Viele große Cloud-Anbieter bieten inzwischen CO2-neutrale Lösungen an, die den Einsatz erneuerbarer Energien fördern.
  3. Nachhaltige Hardware: Achten Sie auf den Einsatz energieeffizienter Hardware, die weniger Strom verbraucht und gleichzeitig leistungsstark genug ist, um Ihre KI-Modelle zu verarbeiten.

Ressourcenbedarf und Abfallmanagement

Neben dem Energieverbrauch ist auch der Ressourcenbedarf für die Herstellung von Hardware ein wichtiger ökologischer Aspekt. Die Produktion von Servern, Speichereinheiten und anderen IT-Komponenten erfordert den Einsatz seltener Erden und anderer Rohstoffe, deren Abbau oft mit erheblichen Umweltschäden verbunden ist.

Um den Ressourcenverbrauch zu reduzieren, können Unternehmen folgende Maßnahmen ergreifen:

  1. Längere Lebenszyklen für Hardware: Setzen Sie auf langlebige und reparierbare Hardware, die weniger häufig ausgetauscht werden muss. Dies reduziert nicht nur den Bedarf an neuen Rohstoffen, sondern verringert auch die Menge an Elektronikschrott.
  2. Recycling und Wiederverwendung: Implementieren Sie ein effektives Recyclingprogramm für alte IT-Geräte und fördern Sie die Wiederverwendung von Komponenten, wo immer dies möglich ist.
  3. Nachhaltige Beschaffung: Arbeiten Sie mit Lieferanten zusammen, die sich zu nachhaltigen Praktiken in der Rohstoffbeschaffung und Produktion verpflichten.

Soziale Auswirkungen: Gerechtigkeit und Fairness

Neben den ökologischen Herausforderungen gibt es auch eine Vielzahl sozialer Risiken, die mit der Implementierung von KI einhergehen. Zu den wichtigsten zählen Fragen der Gerechtigkeit und Fairness sowie die Auswirkungen auf Arbeitsplätze und die Gesellschaft insgesamt.

Diskriminierung und Bias

Ein zentrales soziales Risiko von KI-Systemen ist das Problem des Bias, also der systematischen Verzerrung. Bias kann dazu führen, dass KI-Modelle diskriminierende Entscheidungen treffen, indem sie bestehende soziale Ungleichheiten verstärken. Dies kann zum Beispiel geschehen, wenn KI-Systeme auf historischen Daten trainiert werden, die bereits Verzerrungen enthalten.

Um Diskriminierung und Bias in KI-Projekten zu vermeiden, sollten Unternehmen folgende Maßnahmen ergreifen:

  1. Datenqualität sicherstellen: Verwenden Sie Datensätze, die möglichst frei von Verzerrungen sind, und überprüfen Sie diese regelmäßig auf mögliche Bias. Diversität in den Daten ist entscheidend, um faire und ausgewogene Ergebnisse zu erzielen.
  2. Fairness-Audits durchführen: Implementieren Sie regelmäßige Audits, um sicherzustellen, dass Ihre KI-Modelle keine diskriminierenden Entscheidungen treffen. Diese Audits sollten die verwendeten Daten, die Modellarchitektur und die erzielten Ergebnisse umfassen.
  3. Inklusives Design fördern: Involvieren Sie diverse Teams in die Entwicklung und das Training Ihrer KI-Modelle, um verschiedene Perspektiven einzubringen und potenziellen Bias zu erkennen und zu vermeiden.

Auswirkungen auf Arbeitsplätze

Ein weiterer bedeutender sozialer Aspekt von KI ist die Auswirkung auf den Arbeitsmarkt. Während KI-Technologien zahlreiche neue Möglichkeiten schaffen, können sie auch bestehende Arbeitsplätze gefährden, insbesondere in Bereichen, die stark automatisierbar sind. Dies kann zu sozialen Spannungen und Ungleichheiten führen.

Um den sozialen Auswirkungen von KI auf Arbeitsplätze entgegenzuwirken, sollten Unternehmen folgende Strategien verfolgen:

  1. Weiterbildung und Umschulung: Bieten Sie Ihren Mitarbeitern Möglichkeiten zur Weiterbildung und Umschulung an, um sie auf die veränderten Anforderungen durch KI vorzubereiten. Dies kann durch interne Schulungen, externe Fortbildungsprogramme oder Kooperationen mit Bildungseinrichtungen geschehen.
  2. Schaffung neuer Arbeitsplätze: Nutzen Sie die Chancen, die KI bietet, um neue Arbeitsplätze zu schaffen. Dies kann in Bereichen geschehen, in denen KI neue Märkte eröffnet oder bestehende Prozesse verbessert.
  3. Sozialpartnerschaftliche Zusammenarbeit: Arbeiten Sie eng mit Gewerkschaften und Arbeitnehmervertretungen zusammen, um die Einführung von KI sozialverträglich zu gestalten und mögliche negative Auswirkungen auf Beschäftigte abzufedern.

Beispiele für verantwortungsvolle KI-Nutzung

Ein Beispiel für ein Unternehmen, das die sozialen und ökologischen Auswirkungen seiner KI-Nutzung ernst nimmt, ist die Deutsche Telekom. Das Unternehmen hat sich zum Ziel gesetzt, KI verantwortungsvoll und fair einzusetzen. Dazu gehört unter anderem die regelmäßige Überprüfung der verwendeten Daten auf Bias sowie die Förderung von Diversität in den Entwicklerteams. Zudem setzt die Telekom auf energieeffiziente Rechenzentren und arbeitet daran, ihren CO2-Fußabdruck kontinuierlich zu reduzieren.

Ein weiteres Beispiel ist der Softwarehersteller Microsoft, der sich in seiner „AI for Good“-Initiative verpflichtet hat, KI-Technologien für den sozialen und ökologischen Fortschritt einzusetzen. Im Rahmen dieser Initiative unterstützt Microsoft Projekte, die KI nutzen, um globale Herausforderungen wie den Klimawandel, Armut und Ungerechtigkeit zu bekämpfen.

Fazit: Verantwortung übernehmen und Chancen nutzen

Die ökologischen und sozialen Auswirkungen von KI-Projekten sind bedeutend und erfordern eine bewusste und verantwortungsvolle Herangehensweise. Unternehmen, die diese Herausforderungen erkennen und proaktiv Maßnahmen zur Minimierung der Risiken ergreifen, können nicht nur negative Folgen vermeiden, sondern auch neue Chancen für nachhaltiges Wachstum und soziale Gerechtigkeit nutzen.

Kategorien
Blog

Buchprojekt „“#AI & #Sustainability: A Critical Exploration“



Ich freue mich, heute bekannt zu geben, dass ich zusammen mit meinen beiden großartigen Kollegen Thomas Hirschmann ✨ und Joscha Wirtz ein spannendes Publikationsprojekt starte, das wir hier auf LinkedIn und auch in unser LinkedIn-Gruppe intensiv begleiten wollen.

Für dieses bevorstehende Buch über KI und Nachhaltigkeit „AI & Sustainability: A Critical Exploration“, das von Springer im Rahmen der Reihe „Frontiers of ArtificialIntelligence, #Ethics and Multidisciplinary Applications“ veröffentlicht wird, suchen wir Mitwirkende aus allen geografischen Regionen. Ein wissenschaftlicher Hintergrund ist zwar nicht erforderlich, aber alle Beiträge müssen wissenschaftlichen Ansprüchen genügen.

Wir freuen uns über Perspektiven aus verschiedenen Bereichen und Erfahrungen, um diesen wichtigen Dialog zu bereichern. Erkunden Sie mit uns die Schnittstelle von KI, Nachhaltigkeit und Ethik, um eine sinnvolle und nachhaltige Zukunft zu gestalten.

Hier könnt Ihr mehr erfahren und auch den Call for Contribution/Authors abrufen und auch gleich eueren Beitrag (english only) vorschlagen.

https://ioseai.org/

Wer genauer auf dem Laufenden bleiben will: hier gehts zur LinkeIn-Gruppe AI & Sustainability: https://lnkd.in/egGYNkZp

Mehr Infos:

Scope: The book will offer current perspectives on AI in the context of sustainability, aiming to identify sustainable uses of AI and how it can contribute to achieving ambitious sustainability goals. It challenges the paradigm of AI’s transformative potential for economies and links it to societal transitions and planetary boundaries. The book calls for holistic assessments, bringing together global voices to shape the future discourse. It offers a comprehensive approach to integrating AI across sectors to promote environmental stewardship, economic resilience, and social equity, with practical solutions, diverse insights, case studies, and policies from around the world. It also considers AI and sustainability in the context of evolving global power dynamics. The book is divided into four main sections, each designed to guide the reader through the complex interplay between AI and sustainability. Throughout the book, we aim to:

– Identify Commons: Contribution to a shared language for AI and sustainability.
– Feature Global Voices: Offering diverse insights and case studies from around the world.
– Invite Holistic Assessments: Examine AI across sectors and system boundaries for comprehensive sustainability analysis.

Kategorien
Blog

Nachhaltige Daten: Wie Sie Ihre Datengrundlage umweltfreundlich und ethisch gestalten

Daten sind das Herzstück jeder KI-Anwendung. Sie bilden die Grundlage für das Training von Algorithmen, die Entscheidungsfindung und die Optimierung von Prozessen. Doch während die Bedeutung von Daten für den Erfolg von KI unbestritten ist, wird oft übersehen, dass die Art und Weise, wie Daten erhoben, verarbeitet und genutzt werden, erhebliche ökologische und ethische Auswirkungen haben kann. In diesem Beitrag zeigen wir Ihnen, wie Sie Ihre Datengrundlage nachhaltig und ethisch gestalten können, um sowohl ökonomische Vorteile zu nutzen als auch soziale und ökologische Verantwortung zu übernehmen.

Die ökologische Dimension: Datenverarbeitung und Energieverbrauch

Der ökologische Fußabdruck der Datenverarbeitung wird häufig unterschätzt. Der Betrieb von Rechenzentren, die Speicherung riesiger Datenmengen und das Training von KI-Modellen erfordern enorme Mengen an Energie. Insbesondere das Training großer KI-Modelle, wie sie etwa für Natural Language Processing oder Bildverarbeitung eingesetzt werden, kann einen signifikanten CO2-Ausstoß verursachen. Laut einer Studie der University of Massachusetts verursachen die Trainingsprozesse großer KI-Modelle mitunter so viele CO2-Emissionen wie fünf Autos während ihrer gesamten Lebensdauer.

Um den Energieverbrauch und die damit verbundenen Emissionen zu minimieren, sollten Unternehmen folgende Maßnahmen in Erwägung ziehen:

  1. Energieeffiziente Rechenzentren: Wählen Sie Rechenzentren, die auf erneuerbare Energien setzen und energieeffiziente Technologien verwenden. Viele Cloud-Anbieter, wie etwa Google Cloud oder Microsoft Azure, bieten bereits solche Lösungen an, die den ökologischen Fußabdruck Ihrer Datenverarbeitung erheblich reduzieren können.
  2. Datenreduktion und -optimierung: Überprüfen Sie regelmäßig, welche Daten wirklich benötigt werden, und löschen Sie unnötige Daten. Reduzieren Sie die Datenmenge, die für das Training Ihrer Modelle erforderlich ist, durch Techniken wie Data Pruning oder Feature Selection. Dies spart nicht nur Speicherplatz, sondern reduziert auch den Energieverbrauch.
  3. Vermeidung von Übertraining: Optimieren Sie Ihre KI-Modelle so, dass sie mit weniger Trainingsepochen und kleineren Datenmengen auskommen. Dies verringert den Energieaufwand und beschleunigt gleichzeitig den Entwicklungsprozess.

Die ethische Dimension: Datenbeschaffung und -nutzung

Neben den ökologischen Aspekten spielt auch die ethische Verantwortung eine zentrale Rolle bei der Datenverarbeitung. Dies betrifft vor allem die Art und Weise, wie Daten erhoben, gespeichert und genutzt werden. Hier einige Grundsätze, die Sie bei der ethischen Gestaltung Ihrer Datengrundlage beachten sollten:

  1. Transparenz und Zustimmung: Stellen Sie sicher, dass alle Daten, die Sie verwenden, auf transparente und rechtlich einwandfreie Weise erhoben wurden. Nutzer müssen über die Art der Datenerhebung informiert werden und ihre ausdrückliche Zustimmung gegeben haben. Dies gilt insbesondere für personenbezogene Daten.
  2. Anonymisierung und Pseudonymisierung: Wo immer möglich, sollten personenbezogene Daten anonymisiert oder pseudonymisiert werden. Dies schützt die Privatsphäre der Nutzer und reduziert das Risiko von Datenschutzverletzungen.
  3. Vermeidung von Bias und Diskriminierung: Achten Sie darauf, dass die Daten, die Sie verwenden, keine systematischen Verzerrungen (Bias) enthalten, die zu diskriminierenden Entscheidungen führen könnten. Dies kann durch eine sorgfältige Auswahl und Prüfung der Datenquellen sowie durch Techniken wie Fairness-Audits erreicht werden.
  4. Datenrechte und Eigentum: Respektieren Sie die Datenrechte von Individuen und Organisationen. Stellen Sie sicher, dass Sie über die notwendigen Rechte zur Nutzung der Daten verfügen und dass die Interessen der Datenlieferanten gewahrt bleiben.

Praxisbeispiele für nachhaltige und ethische Datennutzung

Ein positives Beispiel für die nachhaltige und ethische Nutzung von Daten ist das Projekt „Data for Good“ von Facebook. Im Rahmen dieses Projekts stellt Facebook Daten aus seiner Plattform gemeinnützigen Organisationen zur Verfügung, um humanitäre Krisen wie Naturkatastrophen oder Pandemien zu bewältigen. Dabei wird großer Wert auf den Schutz der Privatsphäre gelegt: Die Daten werden anonymisiert und aggregiert, sodass sie keinen Rückschluss auf einzelne Nutzer zulassen.

Ein weiteres Beispiel ist das Unternehmen Patagonia, das sich bei der Datenerhebung und -nutzung strikt an seine ethischen Grundsätze hält. Patagonia sammelt nur die Daten, die für den Geschäftsbetrieb unbedingt erforderlich sind, und verzichtet auf invasive Datenerhebungsmethoden. Zudem informiert das Unternehmen seine Kunden klar und transparent darüber, wie ihre Daten verwendet werden und welche Rechte sie in Bezug auf ihre Daten haben.

Schritte zur nachhaltigen und ethischen Datengestaltung

Um sicherzustellen, dass Ihre Datengrundlage nachhaltig und ethisch gestaltet ist, können Sie folgende Schritte unternehmen:

  1. Energieverbrauch bewerten: Führen Sie eine Bewertung des Energieverbrauchs Ihrer Datenverarbeitung durch und identifizieren Sie Bereiche, in denen Einsparungen möglich sind.
  2. Nachhaltige Datenstrategie entwickeln: Entwickeln Sie eine Datenstrategie, die ökologische und ethische Aspekte berücksichtigt. Dies sollte auch die Wahl von Partnern und Anbietern umfassen, die sich zu Nachhaltigkeit und ethischer Verantwortung verpflichten.
  3. Datenquellen kritisch prüfen: Überprüfen Sie Ihre Datenquellen regelmäßig auf ethische und rechtliche Konformität. Stellen Sie sicher, dass die Daten auf transparente und faire Weise erhoben wurden und keine diskriminierenden Verzerrungen enthalten.
  4. Datenrichtlinien implementieren: Implementieren Sie klare Richtlinien und Prozesse für den Umgang mit Daten, die den Schutz der Privatsphäre, die Vermeidung von Bias und die Reduktion des Energieverbrauchs gewährleisten.
  5. Fortlaufende Überwachung und Anpassung: Überwachen Sie kontinuierlich die ökologische und ethische Performance Ihrer Datengrundlage und passen Sie Ihre Strategien und Prozesse bei Bedarf an.

Fazit: Daten als Schlüsselelement nachhaltiger und ethischer KI

Die Art und Weise, wie Daten in Ihrem Unternehmen erhoben, verarbeitet und genutzt werden, hat einen erheblichen Einfluss auf die Nachhaltigkeit und Ethik Ihrer KI-Projekte. Durch eine bewusste und verantwortungsvolle Gestaltung Ihrer Datengrundlage können Sie nicht nur den ökologischen Fußabdruck Ihrer KI-Anwendungen reduzieren, sondern auch ethische Risiken minimieren und das Vertrauen Ihrer Kunden und Stakeholder stärken.

In den kommenden Beiträgen dieser Serie werden ich mich weiter mit den ökologischen und sozialen Auswirkungen von KI-Projekten befassen und Ihnen zeigen, wie Sie diese Risiken erkennen und minimieren können. Bleiben Sie dran, um wertvolle Tipps und Best Practices zu erhalten, die Ihnen helfen, Ihre KI-Projekte erfolgreich und verantwortungsvoll umzusetzen.