Künstliche Intelligenz ist längst kein Zukunftsthema mehr, sondern Teil des Arbeitsalltags: Mitarbeitende lassen sich Mails von Copilot vorschlagen, prüfen Texte mit ChatGPT, nutzen KI-gestützte Recherche oder werten Daten automatisiert aus. In vielen Organisationen ist das schon Normalität – oft, ohne dass jemand einen Überblick hat, wo überall KI im Spiel ist.
Parallel dazu hat Europa mit dem EU AI Act einen neuen Rechtsrahmen geschaffen. Ein eher unscheinbarer Artikel darin wird in den nächsten Jahren sehr wichtig werden: Artikel 4, die Pflicht zur sogenannten „AI Literacy“. Dort heißt es, stark vereinfacht: Unternehmen, die KI-Systeme bereitstellen oder einsetzen, sollen dafür sorgen, dass die Menschen, die damit arbeiten, ein ausreichendes Maß an KI-Kompetenz haben.
Dazu kommen bekannte Pflichten aus dem deutschen Arbeitsschutzrecht – etwa die Unterweisung bei neuen Technologien nach § 12 ArbSchG – und aus dem Datenschutzrecht, wo die DSGVO über den Datenschutzbeauftragten ausdrücklich Sensibilisierung und Schulung von Mitarbeitenden verlangt.
Dieser Beitrag will diese Rahmenbedingungen nicht juristisch auslegen – das ist Aufgabe von Juristinnen und Juristen. Er will zeigen, was sie praktisch bedeuten: für Führung, Kultur und den Alltag von Mitarbeitenden. Und er will skizzieren, wie man aus der Pflicht zur „AI Literacy“ und zur KI-Schulung im Unternehmen eine sinnvolle Lern- und Transformationschance macht.
1. Was der Rechtsrahmen im Kern sagt – ohne Juristendeutsch
Schaut man auf die verschiedenen Regelungen, lassen sich drei Linien erkennen.
Erstens: Der EU AI Act verpflichtet sowohl Anbieter als auch Anwender („Deployers“) von KI-Systemen, Maßnahmen zu ergreifen, um ein angemessenes Niveau an AI Literacy bei den beteiligten Personen zu sichern. Die Europäische Kommission betont in ihren Fragen und Antworten, dass es dabei nicht um starre Zertifikate geht, sondern um ein risikobasiertes Vorgehen: Je nach Rolle und Einsatzgebiet brauchen Mitarbeitende unterschiedliches Wissen und unterschiedliche Tiefe.
Zweitens: Das Arbeitsschutzgesetz verlangt schon lange, dass Beschäftigte „ausreichend und angemessen“ unterwiesen werden – insbesondere bei Einführung neuer Arbeitsmittel oder Technologien, und zwar vor Aufnahme der Tätigkeit und regelmäßig wiederholt. Wer KI als Arbeitsmittel einführt, fällt damit ganz selbstverständlich in diesen Rahmen: KI-Systeme sind kein „Spielzeug“, sondern Teil der Arbeitsumgebung, zu der Arbeitgeber qualifizieren müssen.
Drittens: Die DSGVO weist dem Datenschutzbeauftragten die Aufgabe zu, Unternehmen und Mitarbeitende zu informieren, zu beraten, Bewusstsein zu schaffen und Schulungen zu überwachen. Sobald KI-Systeme personenbezogene Daten verarbeiten – was im HR-, Marketing- oder Kundenkontext praktisch die Regel ist –, genügt es nicht, irgendwo ein Datenschutzkonzept abzulegen. Menschen müssen verstehen, was sie tun, welche Daten sie in KI-Systeme geben und welche Risiken damit verbunden sind.
Gemeinsam ergeben diese Linien kein spektakuläres neues Ritual wie einen formalen „KI-Jahresbericht“. Aber sie erzeugen eine klare Erwartung: Wer KI nutzt, muss seine Leute fachlich und verantwortungsethisch so fit machen, dass sie die Systeme verstehen, einordnen und reflektiert einsetzen können – und dieses Vorgehen gegebenenfalls auch dokumentieren und nachweisen können. Genau hier setzt ein strukturiertes AI-Literacy-Programm im Unternehmen an.
2. Was mit „AI Literacy“ wirklich gemeint ist
„AI Literacy“ ist kein Buzzword für Technikfreaks, sondern eine sehr praktische Kompetenzfrage. In der europäischen Debatte geht es um Wissen, Fähigkeiten und Verständnis, die Menschen in die Lage versetzen, KI-Systeme informiert zu nutzen, Chancen und Risiken zu erkennen und möglichen Schaden einzuordnen.
In der Unternehmenspraxis lässt sich das grob in drei Dimensionen denken:
Erstens geht es um Verstehen. Mitarbeitende brauchen ein realistisches Bild davon, was KI leistet – und was nicht. Sie müssen einschätzen können, warum ein System beeindruckende Ergebnisse liefern kann, aber trotzdem halluziniert, Bias verstärkt oder Kontext falsch interpretiert. Wer KI für unfehlbar hält, ist genauso schlecht aufgestellt wie jemand, der sie grundsätzlich verteufelt. Eine gute KI-Schulung im Unternehmen nimmt beide Extreme auf und bringt die Debatte auf den Boden der Realität zurück.
Zweitens geht es um verantwortliche Nutzung. AI Literacy heißt auch: Ergebnisse kritisch lesen zu können, nicht alles zu übernehmen, sondern mit Fachwissen gegenzuprüfen. Es heißt, grundlegende rechtliche und ethische Stolpersteine zu kennen – etwa dort, wo Entscheidungen über Menschen getroffen oder vorbereitet werden, wo Diskriminierungsrisiken bestehen oder wo sensible Daten verarbeitet werden. Mitarbeitende sollten wissen, wann sie KI-Ergebnisse dokumentieren, hinterfragen oder eskalieren müssen.
Drittens geht es um Gestalten. Langfristig ist AI Literacy mehr als ein Grundlagenseminar. Beschäftigte und Führungskräfte sollen Arbeit mit KI aktiv mitgestalten: Prozesse so bauen, dass KI sinnvoll eingebettet ist; Verantwortlichkeiten klären; Feedback-Schleifen etablieren, in denen Erfahrungen mit KI reflektiert und Systeme bei Bedarf nachjustiert werden. AI Literacy ist damit auch ein Kulturthema: Wie reden wir im Unternehmen über KI? Dürfen Zweifel, Kritik und ethische Fragen offen geäußert werden – oder herrscht die Angst, „technikskeptisch“ dazustehen?
Wenn Unternehmen diese drei Ebenen ernst nehmen, erfüllen sie nicht nur abstrakte Normen, sondern schaffen die Grundlage dafür, dass KI im Alltag tatsächlich zu besseren Entscheidungen und nicht nur zu schnellerer Automatisierung führt.
3. Was eine kluge KI-Schulung im Unternehmen leisten sollte
Die naheliegende Versuchung besteht darin, das Thema AI Literacy mit ein, zwei PowerPoint-Sessions im Intranet abzuhaken: einmal Grundlagen, einmal „Do’s & Don’ts“, fertig. Formal mag das verführerisch sein, inhaltlich reicht es meist nicht – weder für den rechtlichen Rahmen noch für eine ernsthafte Transformation der Organisation.
Aus meiner Erfahrung sind mehrere Elemente entscheidend.
Am Anfang steht eine ehrliche Bestandsaufnahme: Wo taucht KI heute schon auf – nicht nur in offiziell eingeführten Tools, sondern auch im Schattengebrauch („Ich lasse mir das privat kurz von ChatGPT ausrechnen“)? Welche Bereiche sind besonders sensibel, weil es um Personal, Finanzen, Kunden oder Regulierung geht? Und wo gibt es in der Organisation schon jetzt Sorgen, Widerstände oder unrealistische Erwartungen?
Darauf folgt ein klares Zielbild: Nicht alle müssen alles wissen. Mitarbeitende im Tagesgeschäft brauchen andere Inhalte als Geschäftsführung, HR, IT oder Kommunikation. Für einige wird es genügen, Grundlagen und Risiken zu verstehen; andere müssen die Systeme tiefer durchdringen, um sie steuern, beaufsichtigen oder extern verantworten zu können. Ein gutes AI-Literacy-Programm ist deshalb modular und rollenbezogen, statt „one size fits all“.
Drittens braucht es Formate, die zur Kultur passen. In manchen Organisationen funktionieren Workshops mit Praxisbeispielen und Diskussion am besten, in anderen eher modulare Lernpfade, in wieder anderen kurze Impulse, die an bestehende Weiterbildungsprogramme andocken. Entscheidend ist, dass Menschen in ihrem konkreten Arbeitskontext abgeholt werden – nicht in einer abstrakten Technologiewelt. KI-Schulung im Unternehmen wird akzeptiert, wenn sie erkennbar hilft, den eigenen Arbeitsalltag besser zu bewältigen.
Viertens schließlich braucht es die Verzahnung mit bestehenden Governance-Strukturen: Arbeitsschutz, Datenschutz, Compliance, Nachhaltigkeit, Strategie – KI berührt all diese Bereiche. Eine kluge AI-Literacy-Strategie bindet diese Perspektiven ein, statt isoliert daneben zu stehen. Juristische Detailfragen klärt dabei die Rechtsabteilung oder eine spezialisierte Kanzlei; Schulung und Kulturaufbau machen die Anforderungen überhaupt erst lebbar.
4. Wie ich Organisationen konkret begleite
In meiner Arbeit mit Unternehmen und Institutionen geht es selten „nur“ um KI als Technik. Es geht um die Verbindung von Strategie, Ethik, Nachhaltigkeit, Kommunikation und Führung – und darum, dass Mitarbeitende nicht das Gefühl haben, von einer Blackbox gesteuert zu werden.
Typisch ist ein Einstieg in mehreren Schritten. Zunächst verschaffen wir uns gemeinsam Transparenz: Welche KI-Anwendungen sind im Haus, welche sind geplant, wer nutzt bereits was, wo gibt es Sorgen oder Widerstände? Aus dieser Analyse entwickeln wir ein Konzept für AI Literacy, das Rollen, Risiken und Reifegrad berücksichtigt: Welche Zielgruppen brauchen welche Tiefe? Wie lässt sich das in bestehende Lern- und Führungsstrukturen integrieren? Wo sind schnelle Quick Wins möglich, wo braucht es mehr Zeit?
In Workshops, Impulsvorträgen oder begleiteten Pilotprojekten verbinden wir dann technische Grundlagen, praktische Anwendungsfälle und ethische Reflexion. Ziel ist nicht, aus allen Data Scientists zu machen, sondern Menschen zu befähigen, KI im eigenen Arbeitsfeld verantwortlich einzusetzen. Dazu gehört immer auch die Frage: Wie reden wir intern über KI, wie transparent sind wir gegenüber Mitarbeitenden und Stakeholdern, und wie passt der Einsatz von KI zu unserem Verständnis von guter Führung und nachhaltigem Wirtschaften?
Parallel schauen wir darauf, wie das Ganze kommunikativ und kulturell verankert werden kann: in Leitbildern, in Führungsgrundsätzen, in internen Debatten. Gerade hier entstehen oft wichtige Aha-Erlebnisse: KI wird nicht nur als Rationalisierungsinstrument erlebt, sondern auch als Anlass, neu über Verantwortung, Kompetenz und Zusammenarbeit nachzudenken.
Wo es um konkrete Rechtsfragen geht – etwa die Einstufung bestimmter Systeme, Auftragsverarbeitungsverträge oder detaillierte Compliance-Themen –, arbeite ich mit den zuständigen Juristinnen und Juristen der Organisation oder mit spezialisierten Partnern zusammen. Meine Rolle liegt dort, wo Technik, Organisation und Menschen zusammenkommen – im Aufbau von AI Literacy, in KI-Schulungen im Unternehmen und in der Begleitung der kulturellen Transformation.
5. Pflicht, Chance – und Einladung zum Gespräch
Die Pflicht zur AI Literacy ist kein bürokratischer Unfall, sondern Ausdruck einer Einsicht: Wenn wir KI ernsthaft nutzen wollen, müssen wir in Menschen investieren – in ihr Wissen, ihre Urteilsfähigkeit, ihre Fähigkeit zum Widerspruch. Der EU AI Act, das Arbeitsschutzrecht und der Datenschutzrahmen geben dafür einen gewissen Druck von außen. Entscheidend wird sein, wie Unternehmen diesen Druck nutzen: als Mindeststandard zum Abhaken – oder als Anlass, ihre Organisation für die KI-Zeit reifer aufzustellen.
Wenn Sie sich fragen, wo Ihre Organisation auf diesem Weg steht, und überlegen, wie ein sinnvolles Programm für AI Literacy, KI-Schulung und Kulturentwicklung aussehen könnte, komme ich gerne mit Ihnen ins Gespräch.
Hinweis: Dieser Beitrag bietet keine Rechtsberatung und ersetzt keine individuelle Prüfung der Rechtslage. Für verbindliche Auskünfte sollten Sie Ihre Rechtsabteilung oder eine spezialisierte Kanzlei hinzuziehen.
Quellen & weiterführende Links
EU AI Act – konsolidierter Text (EUR-Lex, deutsch)
https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=de
Art. 4 „AI literacy“ – Volltext (AI Act Explorer)
https://artificialintelligenceact.eu/article/4/
AI Act Service Desk – Artikel 4 „AI literacy“
https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-4
Europäische Kommission – AI Literacy Questions & Answers
https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers
Bundesnetzagentur – AI literacy und EU AI Act (deutsch/englisch)
https://www.bundesnetzagentur.de/EN/Areas/Digitalisation/AI/07_Literacy/start.html
Arbeitsschutzgesetz § 12 Unterweisung (Gesetze-im-Internet)
https://www.gesetze-im-internet.de/arbschg/__12.html
Arbeitsschutzgesetz § 12 Unterweisung (buzer.de, Übersicht)
https://www.buzer.de/12_ArbSchG.htm
DSGVO – Art. 39 Aufgaben des Datenschutzbeauftragten (gdpr-info.eu)
https://gdpr-info.eu/art-39-gdpr
DSGVO – Art. 39 Aufgaben des Datenschutzbeauftragten (legislation.gov.uk, engl. Konsolidierung)
