Kategorien
Blog

Sinn & Purpose in der KI-Strategie

Neues Beratungangebot

Es läuft was schief beim Thema KI. Ok, nicht nur eine Sache, aber dazu später mehr. Es ist inzwischen angekommen, dass KI ganz grundlegende Anfragen an uns als Menschen stellt und die Fragezeichen, was das auf Dauer mit uns macht, werden eher größer als kleiner.

Ich habe dabei zunehmend das Gefühl, dass wir bei der Entwicklung künstlicher Intelligenz einem grundsätzlichen Missverständnis aufsitzen. Es ist, als ob wir Technik immer noch so denken, wie wir Industrieanlagen bauen: effizient, autonom, möglichst unabhängig vom Menschen. Doch genau darin liegt der Fehler. Denn was wir konstruieren, ist mehr als ein System – es ist ein Spiegel unseres Menschenbilds.

In der katholischen Soziallehre ist eine Grundidee zentral: Technik soll dem Menschen dienen. Nicht abstrakt „der Menschheit“, sondern dem konkreten, verletzlichen, verantwortlichen, beziehungsfähigen Menschen. Der Mensch bleibt Zweck, nie Mittel. Diese Logik scheint uns in der aktuellen KI-Debatte verloren zu gehen. Wir sprechen davon, dass Maschinen menschliches Verhalten imitieren sollen, dass sie uns ersetzen, übertreffen, entlasten und wir üben die Nutzung auch genau in diesem Mindest – aber wir sprechen kaum noch davon, wie sie uns sinnvoll ergänzen können. Und das halte ich für einen gefährlichen Irrweg. Wir müssen statt Substitution in einem Effizienzsteigerungsparadigma umschwenken auf einen Geist der Komplementarität.

Aktuell scheint der Maßstab für Intelligenz darin zu bestehen, dass eine Maschine „so tut als ob“. Damit geraten wir in eine ethisch fragwürdige Schieflage. Wir beurteilen Systeme nicht danach, wie gut sie das Leben verbessern, Beziehungen stärken oder Verstehen ermöglichen – sondern danach, wie überzeugend sie eine Simulation abgeben. Es geht um Täuschung statt Wahrheit, um Konkurrenz statt Kooperation.

Schon heute zeigen sich die Folgen dieses Denkens: In der Bildung übernehmen Plattformen immer mehr Aufgaben, ohne wirklich zu begleiten. Sie komprimieren, planen und sortieren, aber sie fördern nicht einen ganzheitlichen Erkenntnisgewinn – oder soll ich sogar das gefährliche Wort „Weisheit“ in den Mund nehmen. Im Personalwesen entscheiden Algorithmen darüber, wer eingeladen wird und wer nicht – oft ohne jede Transparenz. In der Medizin treffen Systeme Empfehlungen, die Ärztinnen und Ärzte aus Effizienzgründen kaum mehr hinterfragen können – die Verantwortung aber bleibt beim Menschen. Und nicht selten verliert dieser Mensch das Vertrauen in die Technik, weil er spürt: Hier wird nicht geholfen, sondern ersetzt.

Ich glaube: Wir brauchen ein radikal anderes Paradigma. KI darf nicht entwickelt werden, um den Menschen zu ersetzen, sondern um mit ihm zu arbeiten. Ihre Stärke liegt nicht darin, alles besser zu können – sondern darin, das zu ergänzen, was wir nicht leisten können. Es geht um Komplementarität, nicht um Konkurrenz. Nicht um Autonomie, sondern um Beziehung. Das ist kein Rückschritt, sondern ein Fortschritt – weil es endlich anerkennt, dass der Mensch mehr ist als eine kognitive Maschine.

Der Mensch ist keine Funktion. Er ist auch kein zufälliges Produkt der Evolution, das nun von Maschinen übertroffen wird. Der Mensch ist Person – einmalig, unverwechselbar, geschaffen zur Beziehung und zur Verantwortung. Er hat Würde, keine bloße Nützlichkeit. Er ist nicht auf Reaktion reduziert, sondern zur Urteilskraft befähigt und im Geiste der Solidarität und des Gemeinwohls zur Liebe berufen. Technik, die diese Räume oft nicht mehr zulässt – die nicht fragt, ob etwas verantwortbar, verstehbar, sinnhaft ist –, verfehlt ihren Auftrag oder braucht Hilfe – von uns Menschen. Sie mag funktionieren, aber allein fährt sie in die Irre.

Dieses Verständnis des Menschen ist nicht bloß eine Überzeugung, es hat Wurzeln. Wer in die biblische Schöpfungserzählung blickt, findet einen bemerkenswert nüchternen Zugang: Der Mensch ist berufen, die Welt zu „bebauen und zu bewahren“. Das ist kein romantischer Naturkult, sondern eine klare Kulturaufgabe – und sie schließt Technik ein. Technik, richtig verstanden, ist Mitgestaltung. Nicht Beherrschung, nicht Verdrängung, sondern schöpferische Verantwortung – als Gärtner, dienender Herrscher. Die Bilder sind dazu vielfältig, aber alle relativieren und konzeptualisieren, das alte Vorurteil und Mythos wie müssten und die Erde unterwerfen etc..

Auch die Soziallehre der Kirche hat die Rolle des Menschen und der Wirtschaft nie naiv gesehen. In Rerum Novarum etwa wird Arbeit als personale Entfaltung beschrieben – nicht als bloße Funktionserfüllung. Arbeit gehört zum Menschen, weil sie Ausdruck seiner Freiheit und seines schöpferischen Wesens ist. Genau darum darf Technik ihm diese Arbeit nicht entreißen, sondern sie soll ihn darin unterstützen.

Und in Laudato si’ findet sich ein schöner Gedanke: Technik soll Teil unserer Beziehung zur Schöpfung sein – nicht ein Mittel zur Distanzierung. Sie kann helfen, das Leben besser zu gestalten, wenn sie sich einfügt in ein Netz von Beziehungen – zur Welt, zu den Menschen, zu Gott.

Natürlich wird man sagen: Maschinen sind objektiver, schneller, effizienter. Das mag in vielen Fällen stimmen. Aber das ist nicht die entscheidende Frage. Es geht nicht darum, ob Maschinen Fehler vermeiden – sondern ob sie Verantwortung tragen können. Und das können sie nicht. Sie können Prozesse beschleunigen, aber nicht ethisch abwägen. Sie können Wissen abrufen, aber keinen Sinn stiften. Sie kennen keine Wahrheit oder Lüge – nur Muster und Wahrscheinlichkeit, die aber keine Orientierung und erst recht keine Hoffnung geben. Und darum bleiben sie Werkzeuge – nicht Akteure.

Ich halte nichts von technologischem Pessimismus. Ich finde es faszinierend, was heute möglich ist. Aber wir müssen aufpassen, dass wir in unserer Begeisterung nicht blind werden für das, was dabei verloren gehen kann. Wenn der Mensch sich nicht mehr als Akteur versteht, sondern als Anhängsel einer Maschine, wenn er Entscheidungen nicht mehr verantwortet, sondern delegiert – dann verlieren wir mehr als Kontrolle. Dann verlieren wir Freiheit.

Und wir verlieren Vertrauen. Denn Systeme, die uns ersetzen sollen, machen uns nicht stärker, sondern abhängig. Systeme, die uns ergänzen, hingegen stärken unser Handeln. Sie lassen uns entscheiden, nicht entscheiden lassen. Genau das sollte das Ziel sein: Technik, die unsere Urteilskraft unterstützt – nicht überflüssig macht. Systeme, die sich dem Menschen unterordnen – nicht umgekehrt.

Vielleicht liegt die größte Herausforderung gar nicht in der Technik selbst, sondern in unserer Haltung. In unserem Mut, ein Menschenbild zu vertreten, das nicht nur funktional denkt. In der Fähigkeit, Grenzen zu setzen – nicht aus Angst, sondern aus Achtung. In der Bereitschaft, Technik nicht als Ersatz für Verantwortung zu sehen, sondern als Anlass, sie bewusster wahrzunehmen.

Wenn wir das ernst nehmen, dann wird KI nicht zum Ende des Menschlichen – sondern zur Einladung, unsere Rolle neu zu verstehen: nicht als Kontrollverlust, sondern als Gestaltungsauftrag. Als Erinnerung daran, dass Fortschritt nicht darin liegt, den Menschen überflüssig zu machen – sondern ihn in seiner Würde ernst zu nehmen.

Weiterdenken. Anders gestalten. KI sinnvoll einsetzen.

Wenn Sie der Überzeugung sind, dass Technik dem Menschen dienen und nicht entmündigen soll – dann laden wir Sie ein, diesen Weg konsequent weiterzugehen.

Gemeinsam mit meinem Kollegen Thomas Hirschmann ✨ , einem ausgewiesenen Experten für datengetriebene Innovation und menschzentrierte Technologiegestaltung, biete ich Unternehmen einen praxisnahen und zugleich werteorientierten Reflexions- und Gestaltungsraum: unseren Workshop „The Purposeful Use of AI“.

Wir helfen Ihnen dabei, Ihre KI-Strategien mit dem ethischen Kompass Ihrer Organisation abzugleichen, sinnvolle Einsatzfelder zu identifizieren, Risiken zu benennen und eine tragfähige Roadmap zu entwickeln – für eine Zukunft, in der KI nicht ersetzt, sondern ergänzt. Nicht entgrenzt, sondern eingebettet ist. Nicht Selbstzweck, sondern Ausdruck Ihrer Verantwortung.

Ihr Gewinn:

  • Klarheit über Potenziale und Grenzen von KI in Ihrer Organisation
  • Werkzeuge, um technologische Optionen mit Ihren Werten zu verbinden
  • Ansätze für verantwortungsvolle und zukunftsfeste Umsetzung
  • Ein konkreter Handlungsplan – vom Prinzip zur Praxis

Für wen geeignet?

C-Level, Strategie- und Innovationsteams, Digitalverantwortliche, Ethikbeauftragte und alle, die Technik nicht nur beherrschen, sondern verantwortlich gestalten wollen.

Lassen Sie uns gemeinsam denken – und handeln.

👉 Kontaktieren Sie uns für ein Vorgespräch oder eine maßgeschneiderte Session für Ihr Führungsteam.

Weitere Infos zu Nachhaltigkeit & KI auf der Beratungseite. Link.

Kategorien
Blog

Vortrag beim 2. Lieferanten-Forum der Genossenschaft Deutscher Brunnen in Frankfurt am Main – Twin Transformation: Klimaschutz und Digitalisierung in den Lieferketten

Am 5. Juni 2025 war ich zu Gast beim 2. Lieferanten-Forum der Genossenschaft Deutscher Brunnen (GDB) in Frankfurt. Dort durfte ich vor zahlreichen Vertretern der Getränkebranche einen Vortrag über die aktuellen Entwicklungen im Bereich Nachhaltigkeit, Klimaschutz und Digitalisierung halten. Die Veranstaltung stand unter dem Leitgedanken „Twin Transformation: Klimaschutz und Digitalisierung in den Lieferketten“ und bot eine hervorragende Gelegenheit, über die Zukunft der Branche im Spannungsfeld zwischen regulatorischen Anforderungen, gesellschaftlichen Erwartungen und unternehmerischer Verantwortung zu diskutieren.

Im Mittelpunkt meines Vortrags stand die Frage, wie Unternehmen der Getränkewirtschaft Nachhaltigkeit glaubwürdig in ihre Markenführung und Unternehmensstrategie integrieren können. Ich erläuterte die neuesten regulatorischen Entwicklungen auf europäischer Ebene, darunter die Corporate Sustainability Reporting Directive (CSRD), die Corporate Sustainability Due Diligence Directive (CSDDD) sowie die Green Claims Directive. Dabei zeigte ich auf, welche Herausforderungen und Chancen sich aus der „Stop-the-Clock“-Richtlinie und dem Omnibus-Paket ergeben. Gerade für mittelständische Unternehmen in der Getränkebranche bedeutet die Umsetzung dieser Regulierungen eine anspruchsvolle Aufgabe, die jedoch zugleich eine große Chance bietet, sich durch nachhaltiges Handeln und transparente Kommunikation im Markt zu positionieren.

Ein weiterer Schwerpunkt meines Vortrags war das veränderte Konsumverhalten im Hinblick auf Nachhaltigkeit. Eine Vielzahl von Studien belegen, dass Nachhaltigkeit für Verbraucher ein wichtiges Thema bleibt. Dennoch besteht eine deutliche Kluft zwischen dem Wunsch nach nachhaltigen Produkten und dem tatsächlichen Kaufverhalten – eine sogenannte Value-Action-Gap. Für Unternehmen bedeutet dies, dass nachhaltige Lösungen nicht nur vorhanden sein müssen, sondern auch so kommuniziert werden müssen, dass sie glaubwürdig und relevant für die Konsument:innen sind. Ich betonte, dass die Marke dabei als Vertrauensanker dient und eine zentrale Rolle spielt, wenn es darum geht, Orientierung in einem komplexen Informationsumfeld zu bieten.

Besonders wichtig ist es, Nachhaltigkeit nicht isoliert als Marketingbotschaft zu verstehen, sondern sie eng mit Qualität, Preis-Leistungs-Verhältnis und echter Wirkung zu verknüpfen. In diesem Zusammenhang stellte ich das Scope-Modell zur nachhaltigen Markenführung vor. Dieses Modell zeigt auf, wie Unternehmen Nachhaltigkeit auf vier Ebenen wirksam umsetzen können: in ihrer Performance, in der Zusammenarbeit mit Partnern, in der Beziehung zu ihren Kund:innen und im gesellschaftlichen Kontext. Nur wenn alle diese Ebenen ineinandergreifen, kann eine nachhaltige Markenführung gelingen, die Vertrauen schafft und echten Impact erzielt.

Ich danke der GDB, insbesondere Tobias Bielenstein für die Einladung und allen Teilnehmenden für den intensiven und wertvollen Austausch. Wer mehr über meine Arbeit rund um nachhaltige Markenführung, regulatorische Anforderungen und den Wandel im Konsumverhalten erfahren möchte, findet weitere Informationen hier meiner Webseite

Kategorien
Blog

Wenn Maschinen Moral spielen

KI-Serie Teil 4 von 4

Warum intelligente Entscheidungssysteme die Ethik nicht ersetzen dürfen

Wir Menschen lieben es, Verantwortung abzugeben. An Experten, an Gremien – und immer öfter: an Maschinen. In einer Zeit, in der Entscheidungen schnell, datenbasiert und vermeintlich „objektiv“ getroffen werden sollen, erleben intelligente Entscheidungssysteme (IDSS) einen regelrechten Boom. Sie helfen Ärzten bei Diagnosen, Managern bei Personalentscheidungen und Behörden bei Risikobewertungen. Doch mit dieser Entwicklung kommt eine gefährliche Verlockung: Die Auslagerung des Gewissens.

Denn viele dieser Systeme tun längst mehr als nur „Daten zu verarbeiten“. Sie strukturieren Handlungsspielräume, setzen implizite Normen – und treffen Entscheidungen, die reale Konsequenzen für Menschen haben. Die Frage ist also nicht mehr: Kann KI Entscheidungen unterstützen?
Sondern: Darf sie uns das Denken abnehmen?

Der neue Mythos der „moralischen Maschine“

Ein beliebtes Narrativ lautet: Künstliche Intelligenz sei neutral. Sie bewerte nur Fakten, sei schneller, effizienter, weniger voreingenommen. Doch das ist ein Trugschluss. Jeder Algorithmus basiert auf Daten – und jedes Datenmodell spiegelt menschliche Vorannahmen. Wer „Fairness“ berechnet, muss entscheiden, was fair ist. Wer „Risiko“ klassifiziert, muss implizit gewichten, wer wie viel Risiko tragen soll.

Systeme wie ChatGPT zeigen schon heute: Auch generative Modelle lassen sich nach ethischen Prinzipien konfigurieren. Oder eben nicht. Und sie geben, auf kluge Nachfrage, erstaunlich detaillierte moralische Empfehlungen. Das ist faszinierend – aber auch gefährlich. Denn mit jeder automatisierten Antwort verschiebt sich etwas in uns: unsere Intuition, unser Urteilsvermögen, unser Mut zur Unsicherheit.

Ethik ist kein Menüpunkt

Die große Illusion besteht darin, dass wir Moral in Maschinen „einbauen“ können wie ein weiteres Feature. Als ließe sich Verantwortung outsourcen – an ein neutrales, kalibriertes, ständig lernendes System. Doch echte moralische Urteilsfähigkeit ist nicht nur eine Rechenleistung. Sie ist geprägt von Ambivalenz, Erfahrung, Irritation, Reue. All das kann ein System simulieren – aber nicht durchleben.

Was also tun? Verbieten? Regulieren? Nein. Aber kritisch gestalten. Und vor allem: Begrenzen. Es muss möglich bleiben, einer Empfehlung zu widersprechen. Es muss transparent sein, wo Entscheidungen automatisiert getroffen werden. Und es muss klar gemacht werden: Der Mensch ist nicht das „letzte Glied“ – er ist der Maßstab.

Wer entscheiden will, muss zumutbar sein

Das Ziel intelligenter Systeme darf nicht sein, uns von der Verantwortung zu befreien. Sondern sie mitzudenken – und mitzutragen. Wer intelligente Systeme einsetzt, muss sich zumuten lassen, die Konsequenzen dieser Entscheidungen zu verantworten.

Und Unternehmen? Sie stehen jetzt vor einer Wahl:
→ Nutzen wir KI, um ethische Entscheidungen zu unterstützen?
→ Oder lassen wir zu, dass sie sie ersetzt?

Letzteres wäre bequem. Aber keine gute Idee. Für niemanden.

Maschinen dürfen keine Moralinstanzen werden

Wir können Verantwortung nicht automatisieren. Aber wir können Systeme bauen, die uns helfen, verantwortlich zu handeln. Dafür braucht es ethisches Design, transparente Entscheidungsprozesse, echte Partizipation – und den Mut, auch mal nicht zu automatisieren.

Denn Verantwortung bleibt – beim Menschen. Immer.

Kategorien
Blog

Ökologische und soziale Auswirkungen von KI-Projekten: Risiken erkennen und minimieren

Künstliche Intelligenz (KI) hat das Potenzial, unser Leben und unsere Arbeitswelt grundlegend zu verändern. Doch neben den vielen Vorteilen, die KI mit sich bringt, gibt es auch erhebliche ökologische und soziale Risiken. Unternehmen, die KI-Projekte umsetzen, müssen diese Risiken nicht nur erkennen, sondern auch aktiv Maßnahmen ergreifen, um sie zu minimieren. In diesem Beitrag betrachten wir die ökologischen und sozialen Auswirkungen von KI-Projekten und zeigen Ihnen, wie Sie diese verantwortungsvoll managen können.

Ökologische Auswirkungen: Energieverbrauch und Ressourcenbedarf

Einer der am häufigsten genannten ökologischen Kritikpunkte an KI ist der hohe Energieverbrauch, der mit der Datenverarbeitung und dem Training von KI-Modellen verbunden ist. Besonders datenintensive Anwendungen, wie die Verarbeitung großer Datenmengen oder das Training komplexer neuronaler Netze, können enorme Mengen an Strom verbrauchen und damit einen erheblichen CO2-Fußabdruck verursachen.

Energieverbrauch und Emissionen

Der Energieverbrauch von Rechenzentren ist in den letzten Jahren stetig gestiegen und stellt inzwischen einen bedeutenden Faktor im globalen Energiebedarf dar. Laut einer Studie der International Energy Agency (IEA) machen Rechenzentren etwa 1 % des weltweiten Stromverbrauchs aus. Dieser Anteil könnte in den nächsten Jahren weiter steigen, wenn die Nachfrage nach KI-Anwendungen zunimmt.

Um den ökologischen Fußabdruck von KI-Projekten zu minimieren, sollten Unternehmen folgende Strategien in Betracht ziehen:

  1. Energieeffiziente Algorithmen: Entwickeln Sie Algorithmen, die weniger Rechenleistung und damit weniger Energie verbrauchen. Dies kann durch optimierte Modellarchitekturen, effizientere Trainingsverfahren und die Reduktion der benötigten Datenmenge erreicht werden.
  2. Nutzung erneuerbarer Energien: Setzen Sie auf Rechenzentren, die ihren Energiebedarf aus erneuerbaren Quellen decken. Viele große Cloud-Anbieter bieten inzwischen CO2-neutrale Lösungen an, die den Einsatz erneuerbarer Energien fördern.
  3. Nachhaltige Hardware: Achten Sie auf den Einsatz energieeffizienter Hardware, die weniger Strom verbraucht und gleichzeitig leistungsstark genug ist, um Ihre KI-Modelle zu verarbeiten.

Ressourcenbedarf und Abfallmanagement

Neben dem Energieverbrauch ist auch der Ressourcenbedarf für die Herstellung von Hardware ein wichtiger ökologischer Aspekt. Die Produktion von Servern, Speichereinheiten und anderen IT-Komponenten erfordert den Einsatz seltener Erden und anderer Rohstoffe, deren Abbau oft mit erheblichen Umweltschäden verbunden ist.

Um den Ressourcenverbrauch zu reduzieren, können Unternehmen folgende Maßnahmen ergreifen:

  1. Längere Lebenszyklen für Hardware: Setzen Sie auf langlebige und reparierbare Hardware, die weniger häufig ausgetauscht werden muss. Dies reduziert nicht nur den Bedarf an neuen Rohstoffen, sondern verringert auch die Menge an Elektronikschrott.
  2. Recycling und Wiederverwendung: Implementieren Sie ein effektives Recyclingprogramm für alte IT-Geräte und fördern Sie die Wiederverwendung von Komponenten, wo immer dies möglich ist.
  3. Nachhaltige Beschaffung: Arbeiten Sie mit Lieferanten zusammen, die sich zu nachhaltigen Praktiken in der Rohstoffbeschaffung und Produktion verpflichten.

Soziale Auswirkungen: Gerechtigkeit und Fairness

Neben den ökologischen Herausforderungen gibt es auch eine Vielzahl sozialer Risiken, die mit der Implementierung von KI einhergehen. Zu den wichtigsten zählen Fragen der Gerechtigkeit und Fairness sowie die Auswirkungen auf Arbeitsplätze und die Gesellschaft insgesamt.

Diskriminierung und Bias

Ein zentrales soziales Risiko von KI-Systemen ist das Problem des Bias, also der systematischen Verzerrung. Bias kann dazu führen, dass KI-Modelle diskriminierende Entscheidungen treffen, indem sie bestehende soziale Ungleichheiten verstärken. Dies kann zum Beispiel geschehen, wenn KI-Systeme auf historischen Daten trainiert werden, die bereits Verzerrungen enthalten.

Um Diskriminierung und Bias in KI-Projekten zu vermeiden, sollten Unternehmen folgende Maßnahmen ergreifen:

  1. Datenqualität sicherstellen: Verwenden Sie Datensätze, die möglichst frei von Verzerrungen sind, und überprüfen Sie diese regelmäßig auf mögliche Bias. Diversität in den Daten ist entscheidend, um faire und ausgewogene Ergebnisse zu erzielen.
  2. Fairness-Audits durchführen: Implementieren Sie regelmäßige Audits, um sicherzustellen, dass Ihre KI-Modelle keine diskriminierenden Entscheidungen treffen. Diese Audits sollten die verwendeten Daten, die Modellarchitektur und die erzielten Ergebnisse umfassen.
  3. Inklusives Design fördern: Involvieren Sie diverse Teams in die Entwicklung und das Training Ihrer KI-Modelle, um verschiedene Perspektiven einzubringen und potenziellen Bias zu erkennen und zu vermeiden.

Auswirkungen auf Arbeitsplätze

Ein weiterer bedeutender sozialer Aspekt von KI ist die Auswirkung auf den Arbeitsmarkt. Während KI-Technologien zahlreiche neue Möglichkeiten schaffen, können sie auch bestehende Arbeitsplätze gefährden, insbesondere in Bereichen, die stark automatisierbar sind. Dies kann zu sozialen Spannungen und Ungleichheiten führen.

Um den sozialen Auswirkungen von KI auf Arbeitsplätze entgegenzuwirken, sollten Unternehmen folgende Strategien verfolgen:

  1. Weiterbildung und Umschulung: Bieten Sie Ihren Mitarbeitern Möglichkeiten zur Weiterbildung und Umschulung an, um sie auf die veränderten Anforderungen durch KI vorzubereiten. Dies kann durch interne Schulungen, externe Fortbildungsprogramme oder Kooperationen mit Bildungseinrichtungen geschehen.
  2. Schaffung neuer Arbeitsplätze: Nutzen Sie die Chancen, die KI bietet, um neue Arbeitsplätze zu schaffen. Dies kann in Bereichen geschehen, in denen KI neue Märkte eröffnet oder bestehende Prozesse verbessert.
  3. Sozialpartnerschaftliche Zusammenarbeit: Arbeiten Sie eng mit Gewerkschaften und Arbeitnehmervertretungen zusammen, um die Einführung von KI sozialverträglich zu gestalten und mögliche negative Auswirkungen auf Beschäftigte abzufedern.

Beispiele für verantwortungsvolle KI-Nutzung

Ein Beispiel für ein Unternehmen, das die sozialen und ökologischen Auswirkungen seiner KI-Nutzung ernst nimmt, ist die Deutsche Telekom. Das Unternehmen hat sich zum Ziel gesetzt, KI verantwortungsvoll und fair einzusetzen. Dazu gehört unter anderem die regelmäßige Überprüfung der verwendeten Daten auf Bias sowie die Förderung von Diversität in den Entwicklerteams. Zudem setzt die Telekom auf energieeffiziente Rechenzentren und arbeitet daran, ihren CO2-Fußabdruck kontinuierlich zu reduzieren.

Ein weiteres Beispiel ist der Softwarehersteller Microsoft, der sich in seiner „AI for Good“-Initiative verpflichtet hat, KI-Technologien für den sozialen und ökologischen Fortschritt einzusetzen. Im Rahmen dieser Initiative unterstützt Microsoft Projekte, die KI nutzen, um globale Herausforderungen wie den Klimawandel, Armut und Ungerechtigkeit zu bekämpfen.

Fazit: Verantwortung übernehmen und Chancen nutzen

Die ökologischen und sozialen Auswirkungen von KI-Projekten sind bedeutend und erfordern eine bewusste und verantwortungsvolle Herangehensweise. Unternehmen, die diese Herausforderungen erkennen und proaktiv Maßnahmen zur Minimierung der Risiken ergreifen, können nicht nur negative Folgen vermeiden, sondern auch neue Chancen für nachhaltiges Wachstum und soziale Gerechtigkeit nutzen.

Kategorien
Blog

Ethik in der Praxis: Prinzipien für eine verantwortungsvolle KI-Nutzung

Künstliche Intelligenz (KI) revolutioniert zahlreiche Branchen und bringt immense Vorteile mit sich – von der Effizienzsteigerung in der Produktion bis hin zur personalisierten Kundenansprache. Doch mit diesen Möglichkeiten gehen auch ernsthafte ethische Herausforderungen einher. Unternehmen, die KI einsetzen, müssen sicherstellen, dass ihre Systeme nicht nur leistungsfähig, sondern auch ethisch vertretbar sind. In diesem Beitrag beleuchten wir zentrale ethische Prinzipien, die bei der Implementierung von KI berücksichtigt werden sollten, und bieten Ihnen praxisnahe Tipps, wie Sie ethische Risiken minimieren können.

Warum Ethik in der KI-Nutzung unerlässlich ist

Ethische Überlegungen sind entscheidend, um das Vertrauen der Öffentlichkeit, der Kunden und der Mitarbeiter in KI-Systeme aufrechtzuerhalten. Ein unethischer Einsatz von KI kann schwerwiegende Folgen haben, einschließlich Diskriminierung, Datenschutzverletzungen und sogar körperlichen oder psychischen Schäden. Unternehmen, die diese Risiken nicht berücksichtigen, setzen sich nicht nur rechtlichen und finanziellen Risiken aus, sondern gefährden auch ihre Reputation und den langfristigen Erfolg.

Das Fehlen ethischer Standards in der KI-Nutzung kann darüber hinaus zu gesellschaftlichen Spaltungen führen, da bestimmte Gruppen benachteiligt oder ausgegrenzt werden könnten. Es ist daher von größter Bedeutung, dass Unternehmen ihre Verantwortung erkennen und ethische Prinzipien in ihre KI-Strategien integrieren.

Zentrale ethische Prinzipien für den Einsatz von KI

Um KI ethisch verantwortlich zu nutzen, sollten Unternehmen die folgenden Prinzipien in ihre Strategien und Prozesse integrieren:

  1. Transparenz: KI-Systeme sollten für Nutzer und Betroffene nachvollziehbar und verständlich sein. Das bedeutet, dass die Entscheidungsprozesse, die hinter den KI-Modellen stehen, offen gelegt und erklärt werden sollten. Dies schafft Vertrauen und ermöglicht es, Fehler und Vorurteile zu erkennen und zu korrigieren.
  2. Fairness: KI-Systeme müssen fair und unvoreingenommen sein. Diskriminierung aufgrund von Geschlecht, Hautfarbe, Religion oder anderen persönlichen Merkmalen darf nicht stattfinden. Um dies zu gewährleisten, sollten Unternehmen regelmäßig Audits ihrer KI-Modelle durchführen, um potenzielle Verzerrungen (Bias) zu erkennen und zu beheben.
  3. Datenschutz: Der Schutz der Privatsphäre ist ein zentrales ethisches Anliegen bei der Nutzung von KI. Unternehmen müssen sicherstellen, dass sie die Daten ihrer Kunden und Nutzer sicher und verantwortungsbewusst behandeln. Dies beinhaltet nicht nur den Schutz vor Datenmissbrauch, sondern auch die Minimierung der erhobenen Datenmengen (Data Minimization) und die Gewährleistung von Anonymität, wo immer dies möglich ist.
  4. Verantwortlichkeit: Für die Entscheidungen, die durch KI-Systeme getroffen werden, muss immer eine verantwortliche Person oder Einheit benannt sein. Unternehmen sollten klar definieren, wer für die Überwachung, Evaluierung und gegebenenfalls Anpassung der KI-Systeme zuständig ist. Dies stellt sicher, dass ethische Standards eingehalten und bei Bedarf schnell korrigiert werden können.
  5. Sicherheit: KI-Systeme müssen so gestaltet sein, dass sie keine physischen oder psychischen Schäden verursachen. Dies bedeutet, dass Unternehmen Sicherheitsvorkehrungen treffen müssen, um sicherzustellen, dass ihre Systeme in allen möglichen Szenarien sicher funktionieren und dass es Mechanismen zur Schadensbegrenzung gibt, falls es doch zu unerwarteten Problemen kommt.

Praktische Schritte zur Umsetzung ethischer Prinzipien

Die Integration dieser ethischen Prinzipien in die Praxis erfordert konkrete Maßnahmen und Tools. Hier sind einige Schritte, die Ihnen helfen, ethische Standards in Ihren KI-Projekten umzusetzen:

  1. Ethische Leitlinien entwickeln: Beginnen Sie damit, klare ethische Leitlinien für den Einsatz von KI in Ihrem Unternehmen zu formulieren. Diese sollten auf den oben genannten Prinzipien basieren und spezifisch auf die Bedürfnisse und Herausforderungen Ihres Unternehmens zugeschnitten sein.
  2. Ethische Audits durchführen: Implementieren Sie regelmäßige Audits Ihrer KI-Systeme, um sicherzustellen, dass sie den ethischen Standards entsprechen. Diese Audits sollten sich auf Bereiche wie Fairness, Transparenz und Datenschutz konzentrieren und sowohl technische als auch nicht-technische Aspekte berücksichtigen.
  3. Schulung und Sensibilisierung: Schulen Sie Ihre Mitarbeiter regelmäßig in ethischen Fragen und der verantwortungsvollen Nutzung von KI. Dies stellt sicher, dass ethische Überlegungen bei der Entwicklung und Implementierung von KI-Lösungen durchgängig berücksichtigt werden.
  4. Stakeholder einbinden: Beziehen Sie verschiedene Stakeholder – einschließlich Kunden, Mitarbeiter und externe Experten – in den Entwicklungsprozess Ihrer KI-Systeme ein. Dies hilft, unterschiedliche Perspektiven zu berücksichtigen und sicherzustellen, dass Ihre Systeme den Bedürfnissen und Erwartungen aller Beteiligten gerecht werden.
  5. Technologische Lösungen nutzen: Setzen Sie auf technologische Tools, die Ihnen helfen, ethische Prinzipien in Ihren KI-Systemen zu implementieren. Dazu gehören beispielsweise Algorithmen zur Erkennung und Behebung von Bias, Tools zur Gewährleistung von Transparenz und erklärbarer KI (Explainable AI) sowie Technologien zum Schutz der Privatsphäre.

Beispiele für ethische Herausforderungen in der Praxis

Ein bekanntes Beispiel für ethische Herausforderungen bei der Nutzung von KI ist der Einsatz von Gesichtserkennungstechnologien. Diese Technologien können zwar zur Verbesserung der Sicherheit beitragen, indem sie etwa die Identifizierung von Kriminellen erleichtern, doch sie sind auch mit erheblichen ethischen Bedenken verbunden. Studien haben gezeigt, dass viele Gesichtserkennungssysteme Verzerrungen aufweisen und bei bestimmten Bevölkerungsgruppen, insbesondere bei Menschen mit dunkler Hautfarbe, weniger zuverlässig sind. Dies kann zu Diskriminierung und ungerechten Entscheidungen führen.

Ein weiteres Beispiel ist die Nutzung von KI in der Personalbeschaffung. Viele Unternehmen setzen KI ein, um Bewerbungen zu sichten und die am besten geeigneten Kandidaten auszuwählen. Doch auch hier gibt es ethische Risiken: Wenn die Algorithmen auf historischen Daten trainiert wurden, die Verzerrungen enthalten, können sie diese Verzerrungen reproduzieren und verstärken. Dies kann dazu führen, dass bestimmte Gruppen von Bewerbern systematisch benachteiligt werden.

Fazit: Ethik als Schlüssel für den Erfolg von KI-Projekten

Die Integration ethischer Prinzipien in die Nutzung von Künstlicher Intelligenz ist nicht nur eine Frage der Verantwortung, sondern auch des langfristigen Erfolgs. Unternehmen, die ethische Standards ernst nehmen und konsequent umsetzen, können das Vertrauen ihrer Stakeholder gewinnen, Risiken minimieren und ihre Reputation stärken. Ethik sollte daher nicht als zusätzliche Bürde, sondern als integraler Bestandteil der KI-Strategie verstanden werden.

In den nächsten Beiträgen dieser Serie werden ich mich mit spezifischen Aspekten der nachhaltigen und ethischen KI-Nutzung beschäftigen, darunter die Frage, wie Sie Ihre Datengrundlage umweltfreundlich und ethisch gestalten können, sowie die Analyse der ökologischen und sozialen Auswirkungen von KI-Projekten. Bleiben Sie dran, um weitere wertvolle Einblicke und praktische Tipps zu erhalten.

Kategorien
Blog

Der erste Schritt: Nachhaltigkeit in der KI-Strategie verankern

Die Integration von Künstlicher Intelligenz (KI) in Unternehmen ist in vielen Branchen ein entscheidender Faktor für zukünftigen Erfolg. Doch die Einführung von KI-Technologien bringt nicht nur technologische und ökonomische Herausforderungen mit sich, sondern auch ökologische und soziale Fragen. In diesem Beitrag zeigen wir Ihnen, wie Sie Nachhaltigkeitsziele von Anfang an in Ihre KI-Strategie integrieren können, um langfristig erfolgreich und verantwortungsvoll zu agieren.

Warum Nachhaltigkeit in der KI-Strategie wichtig ist

Nachhaltigkeit ist heute mehr als ein Trend – sie ist ein Muss. Unternehmen stehen unter zunehmendem Druck, ihre Geschäftspraktiken an ökologischen und sozialen Standards auszurichten. Dies gilt auch und besonders für den Einsatz von Künstlicher Intelligenz. Eine nachhaltige KI-Strategie stellt sicher, dass KI-Systeme nicht nur effizient und innovativ sind, sondern auch dazu beitragen, die Umwelt zu schonen und gesellschaftliche Verantwortung zu übernehmen.

Eine nachhaltige KI-Strategie hilft Unternehmen dabei, langfristige Risiken zu minimieren und Chancen zu maximieren. Ein KI-System, das beispielsweise den Energieverbrauch optimiert oder die Ressourceneffizienz steigert, kann nicht nur Kosten senken, sondern auch einen positiven Beitrag zur Umweltbilanz leisten. Gleichzeitig reduziert eine solche Strategie das Risiko negativer sozialer und ökologischer Auswirkungen, die zu Reputationsverlusten oder regulatorischen Problemen führen könnten.

Wie Nachhaltigkeit in die KI-Strategie integriert werden kann

Der erste Schritt zur Integration von Nachhaltigkeit in Ihre KI-Strategie besteht darin, klare Nachhaltigkeitsziele zu definieren. Diese sollten sowohl ökologische als auch soziale Dimensionen umfassen und auf den spezifischen Kontext Ihres Unternehmens abgestimmt sein. Hier sind einige zentrale Fragen, die Sie sich dabei stellen sollten:

  • Welche ökologischen Auswirkungen hat unser KI-Projekt? Betrachten Sie den gesamten Lebenszyklus Ihres KI-Systems – von der Entwicklung über den Betrieb bis hin zur Entsorgung. Wie hoch ist der Energieverbrauch? Welche Ressourcen werden benötigt? Gibt es Möglichkeiten, den ökologischen Fußabdruck zu minimieren?
  • Wie trägt unser KI-Projekt zur sozialen Nachhaltigkeit bei? KI kann sowohl positive als auch negative soziale Auswirkungen haben. Fördert Ihr Projekt beispielsweise die Chancengleichheit und Inklusion? Oder besteht das Risiko, dass bestimmte Bevölkerungsgruppen benachteiligt werden?
  • Wie passt unser KI-Projekt in die übergeordnete Nachhaltigkeitsstrategie unseres Unternehmens? Nachhaltigkeit sollte kein isolierter Aspekt sein, sondern in die gesamte Unternehmensstrategie integriert werden. Überlegen Sie, wie Ihre KI-Projekte zur Erreichung Ihrer übergeordneten Nachhaltigkeitsziele beitragen können.

Methoden zur Bewertung der ökologischen und sozialen Auswirkungen

Um die ökologischen und sozialen Auswirkungen von KI-Projekten zu bewerten, stehen Ihnen verschiedene Methoden und Tools zur Verfügung. Eine bewährte Methode ist die Lebenszyklusanalyse (Life Cycle Assessment, LCA), die den gesamten Lebenszyklus eines Produkts oder einer Dienstleistung untersucht – von der Rohstoffgewinnung über die Produktion und Nutzung bis hin zur Entsorgung. Mit einer LCA können Sie den ökologischen Fußabdruck Ihres KI-Projekts ermitteln und identifizieren, in welchen Bereichen Verbesserungen möglich sind.

Für die Bewertung sozialer Auswirkungen eignet sich die Social Impact Assessment (SIA). Diese Methode analysiert die sozialen Folgen eines Projekts und hilft Ihnen, potenzielle Risiken zu erkennen und zu minimieren. Eine SIA kann beispielsweise dazu beitragen, Diskriminierung oder unfaire Praktiken zu identifizieren, die durch den Einsatz von KI-Systemen verstärkt werden könnten.

Praxisbeispiele für nachhaltige KI-Projekte

Ein Beispiel für die erfolgreiche Integration von Nachhaltigkeit in eine KI-Strategie ist das Unternehmen Google. Google hat sich zum Ziel gesetzt, bis 2030 vollständig auf erneuerbare Energien umzusteigen und hat bereits erhebliche Fortschritte in Richtung Klimaneutralität gemacht. Ein wichtiger Bestandteil dieser Strategie ist der Einsatz von KI zur Optimierung des Energieverbrauchs in Rechenzentren. Durch den Einsatz von maschinellem Lernen konnte Google den Energieverbrauch seiner Rechenzentren um bis zu 40 % senken, was nicht nur die Betriebskosten senkt, sondern auch einen erheblichen Beitrag zum Klimaschutz leistet.

Ein weiteres Beispiel ist die Modeindustrie, wo KI genutzt wird, um den Ressourcenverbrauch in der Produktion zu minimieren. Das Unternehmen H&M setzt KI-Algorithmen ein, um die Produktionsmengen besser vorherzusagen und so Überproduktion und Abfall zu reduzieren. Diese Strategie trägt dazu bei, die Umweltbelastung zu verringern und gleichzeitig die Effizienz der Lieferkette zu erhöhen.

Nachhaltigkeitsziele in die Praxis umsetzen: Eine Checkliste

Um sicherzustellen, dass Ihre KI-Projekte nachhaltig sind, können Sie die folgenden Schritte in Ihre Strategie integrieren:

  1. Nachhaltigkeitsziele definieren: Legen Sie konkrete, messbare Ziele fest, die sowohl ökologische als auch soziale Aspekte berücksichtigen.
  2. Lebenszyklusanalyse durchführen: Bewerten Sie den ökologischen Fußabdruck Ihres KI-Projekts und identifizieren Sie Optimierungspotenziale.
  3. Soziale Auswirkungen analysieren: Führen Sie eine Social Impact Assessment durch, um potenzielle soziale Risiken zu erkennen und zu minimieren.
  4. Nachhaltige Technologien und Praktiken wählen: Setzen Sie auf Technologien und Methoden, die den Energieverbrauch und die Ressourcennutzung minimieren.
  5. Kontinuierliche Überwachung und Anpassung: Überwachen Sie regelmäßig die Fortschritte Ihrer Nachhaltigkeitsziele und passen Sie Ihre Strategie bei Bedarf an.

Fazit: Der Weg zu einer nachhaltigen KI-Strategie

Nachhaltigkeit in der KI-Strategie zu verankern, ist ein entscheidender Schritt, um langfristigen Erfolg zu sichern und gleichzeitig einen positiven Beitrag zur Gesellschaft und Umwelt zu leisten. Durch klare Ziele, die Bewertung von ökologischen und sozialen Auswirkungen und die Auswahl nachhaltiger Technologien können Unternehmen sicherstellen, dass ihre KI-Projekte nicht nur wirtschaftlich erfolgreich, sondern auch verantwortungsvoll und zukunftsfähig sind.

In den nächsten Beiträgen unserer Serie werden wir uns mit weiteren Aspekten der ethischen und nachhaltigen KI-Nutzung befassen. Bleiben Sie dran, um zu erfahren, wie Sie Ihre KI-Projekte von Anfang an ethisch gestalten und welche Best Practices Ihnen dabei helfen können, verantwortungsvolle und innovative Lösungen zu entwickeln.

Kategorien
Blog

Warum KI-Projekte nachhaltiger und ethischer gestaltet werden müssen

Künstliche Intelligenz (KI) hat das Potenzial, unsere Welt grundlegend zu verändern – und das tut sie bereits. Von der Optimierung von Produktionsprozessen über die Automatisierung von Dienstleistungen bis hin zur Entwicklung neuer Geschäftsmodelle: Die Möglichkeiten, die KI bietet, scheinen schier endlos. Doch mit großer Macht kommt auch große Verantwortung. In diesem ersten Beitrag unserer Serie werfen wir einen Blick darauf, warum Unternehmen bei der Umsetzung von KI-Projekten Nachhaltigkeit und Ethik von Anfang an berücksichtigen sollten.

Die Chancen und Risiken von KI

Künstliche Intelligenz kann einen bedeutenden Beitrag zur Lösung globaler Herausforderungen leisten. Beispielsweise kann sie dazu beitragen, den Energieverbrauch in der Industrie zu optimieren, Verkehrsströme effizienter zu steuern oder den Ressourcenverbrauch zu minimieren. Solche Anwendungen tragen unmittelbar zur Erreichung von Nachhaltigkeitszielen bei, indem sie ökologische und ökonomische Vorteile verbinden.

Gleichzeitig birgt der Einsatz von KI jedoch auch erhebliche Risiken. Einer der größten Kritikpunkte ist der enorme Energieverbrauch, der mit der Nutzung und dem Training von KI-Modellen einhergeht. Insbesondere bei großen, datenintensiven Anwendungen können die CO2-Emissionen beträchtlich sein. Ein weiteres Risiko liegt in der sozialen Dimension: KI-Systeme können, wenn sie nicht richtig konzipiert und überwacht werden, ungewollt Diskriminierung und Voreingenommenheit verstärken. Das bekannteste Beispiel hierfür sind Algorithmen, die bestimmte Bevölkerungsgruppen benachteiligen, weil sie auf verzerrten Datensätzen trainiert wurden.

Nachhaltigkeit und Ethik: Zwei Seiten derselben Medaille

Wenn wir über Nachhaltigkeit sprechen, denken viele zunächst an ökologische Aspekte wie den Klimaschutz. Doch Nachhaltigkeit umfasst weit mehr als das. Die Vereinten Nationen definieren Nachhaltigkeit als das Streben nach ökologischer, sozialer und ökonomischer Gerechtigkeit – heute und für künftige Generationen. Diese drei Dimensionen sollten auch bei der Entwicklung und Implementierung von KI-Lösungen berücksichtigt werden.

Ethische Überlegungen sind in diesem Zusammenhang von zentraler Bedeutung. Sie stellen sicher, dass KI-Systeme nicht nur effizient und innovativ sind, sondern auch fair, transparent und verantwortungsvoll agieren. Ethische KI bedeutet beispielsweise, dass Algorithmen nachvollziehbar sind, dass die Privatsphäre der Nutzer geschützt wird und dass Entscheidungen auf der Basis solider und fairer Daten getroffen werden.

Der Handlungsdruck für Unternehmen

Unternehmen stehen heute mehr denn je unter Druck, ihre Geschäftsmodelle nachhaltig und verantwortungsbewusst zu gestalten. Die Öffentlichkeit, Regulierungsbehörden und Investoren verlangen zunehmend Nachweise dafür, dass Unternehmen ihre soziale und ökologische Verantwortung ernst nehmen. Dies gilt insbesondere im Bereich der Künstlichen Intelligenz, die immer mehr ins Zentrum des gesellschaftlichen Diskurses rückt.

Regulatorische Anforderungen wie die EU-Richtlinien zur Nachhaltigkeitsberichterstattung oder das Lieferkettensorgfaltspflichtengesetz zwingen Unternehmen dazu, ihre Geschäftspraktiken umfassend zu überdenken. Es reicht nicht mehr aus, sich ausschließlich auf den ökonomischen Erfolg zu konzentrieren. Unternehmen müssen zeigen, dass sie sich ihrer Verantwortung gegenüber Gesellschaft und Umwelt bewusst sind und entsprechende Maßnahmen ergreifen.

Auch die ethische Dimension gewinnt zunehmend an Bedeutung. Skandale wie diskriminierende Algorithmen oder der Missbrauch von Nutzerdaten haben das Vertrauen der Öffentlichkeit in KI erschüttert. Unternehmen, die hier nicht proaktiv handeln und ethische Standards implementieren, riskieren nicht nur Reputationsverluste, sondern auch rechtliche Konsequenzen.

Die Rolle von Unternehmen in einer nachhaltigen Zukunft

Unternehmen haben die Möglichkeit – und die Verantwortung –, die Zukunft der Künstlichen Intelligenz aktiv mitzugestalten. Indem sie nachhaltige und ethische Prinzipien in ihre KI-Projekte integrieren, können sie nicht nur gesellschaftliche und ökologische Vorteile schaffen, sondern auch langfristig ihren eigenen Erfolg sichern. Nachhaltigkeit und Ethik sollten daher nicht als Hemmnisse, sondern als Chancen begriffen werden.

Ein nachhaltiges und ethisches KI-Projekt ist nicht nur ein Beitrag zum Gemeinwohl, sondern auch ein Wettbewerbsvorteil. Unternehmen, die hier eine Vorreiterrolle einnehmen, können sich als verantwortungsvolle Innovatoren positionieren und das Vertrauen von Kunden, Partnern und Investoren gewinnen.

Fazit: Warum jetzt gehandelt werden muss

Die Implementierung von KI-Systemen ohne Rücksicht auf Nachhaltigkeit und Ethik ist keine Option mehr. Unternehmen, die diesen Aspekt ignorieren, riskieren nicht nur ihre Reputation, sondern auch ihre langfristige Wettbewerbsfähigkeit. Jetzt ist die Zeit, Verantwortung zu übernehmen und Künstliche Intelligenz so zu gestalten, dass sie einen positiven Beitrag zur Gesellschaft leistet.

In den kommenden Beiträgen dieser Serie werden ich Ihnen konkrete Ansätze, Tools und Best Practices vorstellen, wie Sie KI-Projekte nachhaltig und ethisch verantwortungsvoll umsetzen können. Denn nur wer heute die Weichen richtig stellt, wird morgen von den Chancen der KI profitieren.

Kontaktieren Sie mich, wenn Sie Fragen zu Ihren KI Projekten und Strategien haben und/oder Schulungen und Weiterbildungen in diesem Bereich brauchen

Kategorien
Blog

Konferenz: Auswirkungen von KI im Digitalen Journalismus auf Glaubwürdigkeit und Ethik

Ich freue mich einer spannenden Einladung folgen zu können, die mich nicht nur zu einem spannenden Thema bringt, sondern auch zurück zu meinen beruflichen Anfängen, bzw. meinem damals schon aktiven Verbandsengagement – zum Deutschen Journalistenverband. Vor vielen Jahren habe ich beim DJV Hamburg den Arbeitskreis Junge JournalistenInnen ins Leben gerufen und gemeinsam mit meinem Kollegen Frank Riedel geleitet.

Doch darum soll es eigentlich nicht gehen, auch wenn die Erinnerungen erheblich getriggert wurden. Vielmehr geht es um die Zukunft und nichts geringeres als die Überlebensfähigkeit und Zukunft des Journalismus schlechthin. Wir werden auf der Konfernez – hier geht zur Anmeldung und mehr Infos Link über die Auswirkungen der künstlichen Intelligenz auf die Glaubwürdigkeit journalistischer Angebote diskutieren. Es stellen sich hier nicht nur viele ethische Fragen, ob und wie KI eingesetzt werden sollte, nicht zuletzt weil sich die Frage stellt, ob Medienunternehmen und Journalisten hier nicht nur Passagiere auf der Reise sind. Es geht auch um existenzielle Frage, die wir bereits auch vor dem generellen Hintergrund des Internets und der Digitalisierung seit vielen Jahren diskutieren, nämlich nach der Rolle und dem Selbstverständnis des Journalismus in unserer Gesellschaft. In Zeiten von ChatGPT, MidJourney und Co. werden diese Fragen um ein Vielfaches komplexer und wichtiger.

Ich freue mich sehr – Wir sehen uns am 16.09. in Wuppertal.

Kurzvorstellung der Konferenz von der Webseite:

Mensch & Maschine – Die Beschleunigung des Journalismus?

Medienschaffende aus ganz Deutschland treffen sich am 16. September 2023 im codeks in Wuppertal zum Journalismuskongress „Besser Online“.

In der Stadt, die bekannt ist für ihre Schwebebahn und seltene Mammutbäume, lautet das Motto „Mensch & Maschine – Welche Intelligenz Journalismus braucht“.

Die große Beschleunigung macht auch vor dem Journalismus nicht halt. „Wir leben in einer Welt voller Exponentialfunktionen“, sagt der Kognitionspsychologe und diesjährige Keynote-Speaker Christian Stöcker. Was hat es für Folgen, wenn die Transformation so laut an die Redaktionstür klopft, dass das Ignorieren nun wirklich nicht mehr funktioniert?
Pessimismus und Verteufelung führen in eine gefährliche Sackgasse. „Wir brauchen eine konstruktive Auseinandersetzung mit dem Thema Künstliche Intelligenz, die sowohl die Chancen, als auch die Herausforderungen bedenkt. Und dazu gehört auch eine andere Denkweise, ein Mindshift in Richtung gemeinsamer Zukunftskreation“, sagt Ute Korinth, Vorsitzende des Fachausschusses Online im Deutschen Journalistenverband, der die Veranstaltung organisiert.

Und genau darüber und viele weitere, den Journalismus bewegende Themen, werden Teilnehmende und Speaker*innen verschiedenster Fachrichtungen diskutieren. In zahlreichen Vorträgen und Panels teilen Expert*innen ihre Erfahrungen zu Glaubwürdigkeit, investigativem Journalismus, Mental Health, der Zukunft der sozialen Netzwerke, den Umgang mit Verschwörungstheorien und natürlich der künstlichen Intelligenz. Es wird Workshops geben zum Thema „Prebunking“, „Prompting für Einsteiger*innen“ und mehr.

Der im letzten Jahr erstmals erfolgreich durchgeführte Start-up-Pitch wird auch in Wuppertal stattfinden. „Besser Online“ bietet den Menschen hinter drei zukunftweisenden Ideen eine Bühne. Nalan Sipar, die Gewinnerin des Vorjahres ist als Moderatorin dabei.

Zum Abschluss wird die Transformationsbegleiterin und Mitgründerin des Start-ups „Reinventing Society“ Stella Schaller einen Blick in die Zukunft wagen. Eine Zukunft, in der Visionen und der Mut, Experimente zu wagen, eine entscheidende Rolle im Journalismus spielen werden.

Kategorien
Blog

Neue Möglichkeiten für Transparenz und Storytelling

Lesen Sie hier das Interview mit mir im CSR-Magazin mit dem Thema „Neue Möglichkeiten für Transparenz und Storytelling“
— Read on csr-news.net/news/2020/02/16/neue-moeglichkeiten-fuer-transparenz-und-storytelling/