OE-Prozess · Ercan Carikci Coaching

KI in Organisationen ist keine Technologiefrage. Es ist eine Machtfrage.

Wer entscheidet, nach welchen Kriterien, mit welchen Folgen — und wer trägt Verantwortung? Dieser Prozess macht KI-gestützte Entscheidungen nachvollziehbar, verantwortbar und AGG-konform.

Zum Prozess
Leitsatz

Jede KI-gestützte Entscheidung braucht zugewiesene Verantwortung, nachvollziehbare Kriterien und überprüfbare Prüfung.

Drei untrennbare Ebenen
1
Macht & Demokratie
KI verschiebt Deutungshoheit und Verantwortung — das ist eine politische Frage.
2
Recht & AGG
Diskriminierungsrisiken durch KI sind haftungsrelevant — AGG ist Pflicht, nicht Kür.
3
Organisation & Steuerung
Entscheidungen brauchen klare Zuständigkeiten, Kriterien und Prüfprozesse.
Das Problem

Organisationen treffen bereits Entscheidungen mit KI — ohne es zu wissen.

In der Personalauswahl, in der Kommunikation, in automatisierten Bewertungsprozessen. Was fehlt, ist nicht Wissen darüber, sondern eine verbindliche Praxis: klare Zuständigkeiten, überprüfbare Kriterien, dokumentierte Entscheidungslogik.

KI-Systeme sind nicht neutral. Sie reproduzieren die Ungleichheiten, mit denen sie trainiert wurden. Sie verschieben Deutungshoheit und verschleiern Verantwortung. Wo Kriterien fehlen, entscheidet das System — nicht die Person.

Das AGG setzt einen verbindlichen Rahmen. Diskriminierungsrisiken durch KI sind haftungsrelevant. Intransparente Entscheidungslogiken sind unvereinbar mit demokratischer Rechenschaftspflicht.

Für Führungskräfte bedeutet das: KI-Entscheidungen werden täglich getroffen — ohne klare Kriterien, ohne zugewiesene Verantwortung und mit persönlichem Haftungsrisiko.

Drei Module. Zwei Transferphasen. Verbindliche Ergebnisse.

01
Halbtag · Alle Ebenen
Systemanalyse und Einordnung

Wo wird KI bereits genutzt — sichtbar und unsichtbar? Wer entscheidet faktisch? Wo entstehen Risiken im Hinblick auf Diskriminierung und AGG? Das Modul schafft ein präzises Bild der realen Praxis.

  • Vollständige Bestandsaufnahme aller KI-Anwendungen
  • Identifizierte und priorisierte Risikobereiche
  • Grundlage für Transferphase 1
02
Ganztag · Gemischte Teams
Entscheidungslogik, Kriterien und Haltung

Jede relevante KI-Anwendung wird einer verantwortlichen Rolle zugeordnet. Teams entwickeln einen Kriterienkatalog — Nachvollziehbarkeit, Diskriminierungsrisiko, Reversibilität, AGG-Konformität — als Pflicht, nicht als Option.

  • Kriterienmatrix für den KI-Einsatz
  • Rollenmodell mit Entscheidungsbefugnis
  • Prüfprozess Version 1
03
Halbtag · Führung & HR
Steuerung, Verbindlichkeit und Umsetzung

Aus dem Richtlinienentwurf wird eine verbindliche interne Regelung. Zuständigkeiten werden final zugewiesen, der Prüfprozess implementiert. Das Modul endet mit Beschlüssen, nicht mit Absichten.

  • Verbindliche interne KI-Richtlinie
  • Dokumentierter Prüfprozess
  • Priorisierter Umsetzungsplan
Transferphase 1 · 4–6 Wochen

Teams dokumentieren konkrete KI-Nutzungen aus dem Arbeitsalltag. Führungskräfte benennen Entscheidungsprozesse, in denen KI bereits beteiligt ist.

Transferphase 2 · 4–6 Wochen

Die Kriterien werden in der Praxis erprobt. Führungskräfte und HR erstellen auf Basis der Kriterienmatrix erste Richtlinienentwürfe.

Was am Ende vorliegt.

Keine Empfehlungen, die folgenlos bleiben. Keine Sensibilisierung ohne Ergebnis. Sondern eine arbeitsfähige Struktur — dokumentiert, steuerbar, AGG-konform und demokratisch rechenschaftsfähig.

Vollständige Bestandsaufnahme aller KI-Anwendungen in der Organisation

Dokumentierte Kriterienmatrix für Einsatz und Ausschluss

Rollenmodell mit klaren Entscheidungsbefugnissen und Prüfungspflichten

Implementierter Prüfprozess — verbindlich und revisionsgeeignet

Interne KI-Richtlinie — AGG-konform, diversitätssensibel, steuerbar

Priorisierter Umsetzungsplan mit benannten Verantwortlichen

Was Organisationen und Führungskräfte gewinnen.

01
Entscheidungsentlastung

Führungskräfte erhalten klare Kriterien und Zuständigkeitsstrukturen. KI-Entscheidungen sind nicht länger Grauzone, sondern geregelte Prozesse mit benannten Verantwortlichen.

02
Reduktion von Haftungsrisiken

Diskriminierungsrisiken durch KI sind haftungsrelevant. Der Prozess schafft AGG-konforme Entscheidungsgrundlagen mit nachweisbarer Dokumentation — revisionsgeeignet.

03
Steuerbarkeit

Die entwickelten Strukturen sind in bestehende Leitlinien, Compliance-Prozesse und Diversity-Konzepte integrierbar — und bleiben steuerbar, wenn KI-Systeme sich weiterentwickeln.

04
Demokratische Rechenschaftspflicht

Organisationen im öffentlichen Bereich haben eine demokratiepolitische Verantwortung. Dieser Prozess macht diese Verantwortung strukturell einlösbar — nicht als Absicht, sondern als Praxis.

Flexibel in der Form.
Verbindlich im Ergebnis.

Der Gesamtprozess dauert drei bis fünf Monate und kann vollständig digital, präsent oder hybrid durchgeführt werden.

Optional: Prozessbegleitung zwischen den Modulen, Beratung bei der Implementierung, Verknüpfung mit Awareness-Konzepten, Evaluation nach 6–12 Monaten.

Digital Präsenz Hybrid 3–5 Monate AGG-konform Verwaltung Ministerien Bildung
E
Ercan Carikci Coaching
Rassismuskritische OE · Demokratiearbeit · Seit 2009
H
Hannah Lutat
Digitale Ethik & Critical AI · ECC-Trainerteam

ECC verantwortet diesen Prozess — Hannah Lutat bringt als Teil des ECC-Trainerteams ihre Expertise in digitaler Ethik und Critical AI ein. Beides zusammen ergibt ein Angebot, das technisches Verständnis mit demokratiepolitischer Substanz verbindet.

Jetzt anfragen

Bereit für strukturelle Veränderung?

Gemeinsam klären wir Zielsetzung, Format und Termin und entwickeln ein passendes Angebot für Ihre Organisation.

Zur Website

Vielen Dank — wir melden uns in Kürze bei Ihnen.