Wer entscheidet, nach welchen Kriterien, mit welchen Folgen — und wer trägt Verantwortung? Dieser Prozess macht KI-gestützte Entscheidungen nachvollziehbar, verantwortbar und AGG-konform.
Zum ProzessJede KI-gestützte Entscheidung braucht zugewiesene Verantwortung, nachvollziehbare Kriterien und überprüfbare Prüfung.
In der Personalauswahl, in der Kommunikation, in automatisierten Bewertungsprozessen. Was fehlt, ist nicht Wissen darüber, sondern eine verbindliche Praxis: klare Zuständigkeiten, überprüfbare Kriterien, dokumentierte Entscheidungslogik.
KI-Systeme sind nicht neutral. Sie reproduzieren die Ungleichheiten, mit denen sie trainiert wurden. Sie verschieben Deutungshoheit und verschleiern Verantwortung. Wo Kriterien fehlen, entscheidet das System — nicht die Person.
Das AGG setzt einen verbindlichen Rahmen. Diskriminierungsrisiken durch KI sind haftungsrelevant. Intransparente Entscheidungslogiken sind unvereinbar mit demokratischer Rechenschaftspflicht.
Für Führungskräfte bedeutet das: KI-Entscheidungen werden täglich getroffen — ohne klare Kriterien, ohne zugewiesene Verantwortung und mit persönlichem Haftungsrisiko.
Wo wird KI bereits genutzt — sichtbar und unsichtbar? Wer entscheidet faktisch? Wo entstehen Risiken im Hinblick auf Diskriminierung und AGG? Das Modul schafft ein präzises Bild der realen Praxis.
Jede relevante KI-Anwendung wird einer verantwortlichen Rolle zugeordnet. Teams entwickeln einen Kriterienkatalog — Nachvollziehbarkeit, Diskriminierungsrisiko, Reversibilität, AGG-Konformität — als Pflicht, nicht als Option.
Aus dem Richtlinienentwurf wird eine verbindliche interne Regelung. Zuständigkeiten werden final zugewiesen, der Prüfprozess implementiert. Das Modul endet mit Beschlüssen, nicht mit Absichten.
Teams dokumentieren konkrete KI-Nutzungen aus dem Arbeitsalltag. Führungskräfte benennen Entscheidungsprozesse, in denen KI bereits beteiligt ist.
Die Kriterien werden in der Praxis erprobt. Führungskräfte und HR erstellen auf Basis der Kriterienmatrix erste Richtlinienentwürfe.
Keine Empfehlungen, die folgenlos bleiben. Keine Sensibilisierung ohne Ergebnis. Sondern eine arbeitsfähige Struktur — dokumentiert, steuerbar, AGG-konform und demokratisch rechenschaftsfähig.
Vollständige Bestandsaufnahme aller KI-Anwendungen in der Organisation
Dokumentierte Kriterienmatrix für Einsatz und Ausschluss
Rollenmodell mit klaren Entscheidungsbefugnissen und Prüfungspflichten
Implementierter Prüfprozess — verbindlich und revisionsgeeignet
Interne KI-Richtlinie — AGG-konform, diversitätssensibel, steuerbar
Priorisierter Umsetzungsplan mit benannten Verantwortlichen
Führungskräfte erhalten klare Kriterien und Zuständigkeitsstrukturen. KI-Entscheidungen sind nicht länger Grauzone, sondern geregelte Prozesse mit benannten Verantwortlichen.
Diskriminierungsrisiken durch KI sind haftungsrelevant. Der Prozess schafft AGG-konforme Entscheidungsgrundlagen mit nachweisbarer Dokumentation — revisionsgeeignet.
Die entwickelten Strukturen sind in bestehende Leitlinien, Compliance-Prozesse und Diversity-Konzepte integrierbar — und bleiben steuerbar, wenn KI-Systeme sich weiterentwickeln.
Organisationen im öffentlichen Bereich haben eine demokratiepolitische Verantwortung. Dieser Prozess macht diese Verantwortung strukturell einlösbar — nicht als Absicht, sondern als Praxis.
Der Gesamtprozess dauert drei bis fünf Monate und kann vollständig digital, präsent oder hybrid durchgeführt werden.
Optional: Prozessbegleitung zwischen den Modulen, Beratung bei der Implementierung, Verknüpfung mit Awareness-Konzepten, Evaluation nach 6–12 Monaten.
ECC verantwortet diesen Prozess — Hannah Lutat bringt als Teil des ECC-Trainerteams ihre Expertise in digitaler Ethik und Critical AI ein. Beides zusammen ergibt ein Angebot, das technisches Verständnis mit demokratiepolitischer Substanz verbindet.
Gemeinsam klären wir Zielsetzung, Format und Termin und entwickeln ein passendes Angebot für Ihre Organisation.