Ethik als Kern der unternehmerischen KI-Nutzung

Warum “KI-Ethik” geschäftskritisch ist
Die Debatte um Künstliche Intelligenz (KI) in Unternehmen verlässt die philosophischen Seminare und wird zu einem geschäftskritischen Faktor. Jahrelang galten ethische Prinzipien als “Soft Law” – wünschenswerte Leitplanken, aber rechtlich kaum verbindlich. Diese Ära endet.
Die vormals abstrakte “KI-Ethik” wird 2025 und 2026 zu einem messbaren Faktor für das Risikomanagement. Unternehmen, die KI einsetzen, müssen sich nicht mehr nur fragen: “Können wir das?”, sondern vor allem: “Wie geht das?”
Der wissenschaftliche und gesellschaftliche Konsens hat stabile Kernprinzipien für “gutes Handeln” bei KI-Systemen etabliert 2
- Transparenz / Erklärbarkeit: Entscheidungen von KI-Systemen müssen nachvollziehbar sein.
- Gerechtigkeit / Fairness: Die Vermeidung von algorithmischen Verzerrungen (Bias) ist essenziell.
- Verantwortlichkeit / Rechenschaftspflicht: Es muss klar sein, wer für Fehler und Schäden haftet.
- Autonomie / Menschliche Kontrolle: Der Mensch muss die Letztentscheidungsgewalt behalten.
- Wohlergehen / Schadenvermeidung: KI soll Nutzen bringen und keinen (physischen, psychischen oder ökonomischen) Schaden stiften.
Diese Prinzipien sind nicht länger optional. Sie bilden die Grundlage für Vertrauen bei Kunden, Akzeptanz bei Mitarbeitern und – zunehmend – für die Einhaltung neuer, strenger gesetzlicher Vorgaben. Ethik ist die neue Compliance.
Das Kernproblem: Algorithmischer Bias und (Un-)Gerechtigkeit
Das größte ethische Risiko beim Einsatz von KI ist die (Un-)Gerechtigkeit durch algorithmischen Bias. KI-Systeme sind nicht objektiv; sie sind ein Spiegelbild der Daten, mit denen sie trainiert wurden. Das “Garbage in, Garbage out”-Prinzip wird hier zur ethischen und rechtlichen Zeitbombe.
Das Dilemma im Personalwesen
Der Einsatz von KI im Personalwesen (HR) ist ein Paradebeispiel. Unternehmen nutzen KI, um Bewerbungen effizienter zu sichten oder Leistung zu bewerten. Doch was passiert, wenn das System mit den Personaldaten der letzten 20 Jahre trainiert wird?
Wenn in diesen Daten historisch bedingt vorwiegend Männer in Führungspositionen befördert wurden, “lernt” die KI, dass männliche Attribute ein Erfolgsprädiktor sind. Das System beginnt, weibliche Bewerberinnen systematisch auszusortieren, selbst wenn keine diskriminierende Absicht besteht. Diese Form der automatisierten Voreingenommenheit ist nicht nur unethisch, sondern stellt auch eine rechtlich relevante Diskriminierung dar.
Automatisierte Vorentscheidungen
Ähnliche ethische Bedenken gelten im Kundenmanagement. Wenn KI-Systeme über Kreditwürdigkeit entscheiden (Scoring) oder Kundensegmente einteilen, besteht die Gefahr, dass sie unbewusste Vorurteile reproduzieren. Ein Algorithmus könnte lernen, dass Menschen in bestimmten Postleitzahlen statistisch weniger kreditwürdig sind, und so ganze Bevölkerungsgruppen von Dienstleistungen ausschließen und in dieser Weise die Entstehung von Ghettos begünstigen.
Das ethische Problem wurzelt oft in einem technischen Dilemma: Um Fairness zu gewährleisten und Bias zu erkennen, müsste die KI wissen, ob sie z.B. Frauen oder Menschen mit Migrationshintergrund benachteiligt. Dies erfordert oft die Verarbeitung sensibler Daten (wie Herkunft), deren Erhebung und Nutzung aus Datenschutz- und Ethikgründen selbst hochproblematisch ist.
Die “Black Box”: Das ethische Dilemma der Intransparenz
Eng verbunden mit dem Problem der Gerechtigkeit ist die ethische Forderung nach Transparenz. Viele moderne KI-Systeme, insbesondere im Bereich des “Deep Learning”, agieren als “Black Box”: Sie liefern ein Ergebnis, aber selbst die Entwickler können oft nicht im Detail nachvollziehen, warum diese spezifische Entscheidung getroffen wurde.
Diese Intransparenz untergräbt das Vertrauen fundamental. Wie kann ein Unternehmen einer Entscheidung vertrauen, die es nicht versteht? Wie soll sich ein abgelehnter Bewerber oder Kunde zur Wehr setzen, wenn ihm niemand sagen kann, auf welcher Logik die Ablehnung beruht?
Explainable AI (XAI) als ethische Notwendigkeit
Aus diesem Grund wird “Explainable AI” (XAI) – die Fähigkeit von Systemen, ihre Entscheidungen nachvollziehbar zu machen – von einem technischen “Nice-to-have” zu einer ethischen und rechtlichen Notwendigkeit.
Ein Mensch, der eine KI-Entscheidung überwachen soll (siehe nächster Punkt), kann dies nur tun, wenn er die Grundlagen der Entscheidung versteht. Ein Unternehmen, das im Verdacht steht, zu diskriminieren, kann sich nur entlasten, wenn es die Logik seines Systems offenlegen kann.
Konfliktfeld: Transparenz vs. Geschäftsgeheimnis
In der Praxis entsteht hier ein Zielkonflikt: Unternehmen wollen ihre Algorithmen als wertvolles Geschäftsgeheimnis schützen. Gleichzeitig fordern Ethik und Recht (z.B. die DSGVO bei automatisierten Entscheidungen) ein Mindestmaß an Transparenz.
Die Lösung dieses Konflikts liegt in einer “qualifizierten Transparenz”: Während der Quellcode geheim bleiben darf, sollen Unternehmen gegenüber Behörden oder im Streitfall vor Gericht die Funktionsweise, die Logik und die verwendeten Trainingsdaten offenlegen können, um die Einhaltung ethischer und rechtlicher Standards zu beweisen.
Menschliche Kontrolle und Rechenschaftspflicht
Die Prinzipien der menschlichen Autonomie und der Rechenschaftspflicht bilden das dritte ethische Standbein. KI darf den Menschen nicht zum Objekt degradieren; sie muss ein Werkzeug bleiben.
Der Mensch behält die Kontrolle
Das ethische Leitbild ist der “Human-in-the-loop” oder “Human-on-the-loop”. Es muss sichergestellt sein, dass eine natürliche Person die KI effektiv überwachen, eingreifen und die Letztentscheidungsgewalt behalten kann. Eine “vollautomatisierte” Kündigung durch eine KI, ohne menschliche Prüfung, ist ethisch (und rechtlich) inakzeptabel.
Diese menschliche Aufsicht erfordert jedoch geschultes Personal. Ein Mitarbeiter, der eine KI-Empfehlung nur “abnickt”, ohne die Logik oder die Risiken (wie Bias) zu verstehen, stellt keine wirksame Kontrolle dar.
Wer haftet, wenn die KI irrt?
Das Prinzip der Rechenschaftspflicht stellt die Haftungsfrage. Wenn eine KI diskriminiert, einen Kunden falsch bewertet oder einen Betriebsausfall verursacht – wer ist verantwortlich? Der Entwickler? Das Unternehmen, das die KI einsetzt? Der Mitarbeiter, der sie überwachen sollte?
Die ethische Forderung nach “Accountability” wird derzeit massiv in das neu diskutierte Haftungsrecht gegossen. Software, einschließlich KI, wird nach der Produkthaftungsrichtlinie zunehmend als “Produkt” eingestuft, für dessen Fehler der Hersteller haftet. Diese Richtlinie ist bis zum 09.10.2026 umzusetzen und gilt nur für „Verbraucher-KI“. In Verträgen mit Unternehmen vereinbaren KI-Anbieter weitgehende Haftungsausschlüsse. Das bedeutet, dass ein Unternehmen gegenüber seinen Beschäftigten oder Kunden direkt für KI-Fehler haftet. Ein Rückgriff auf den Anbieter ist oft schwierig.
Für die Unternehmensleitung selbst entsteht eine ethische und organisationsrechtliche Pflicht (sogenanntes “Organisationsverschulden”). Ein Geschäftsführer, der KI im Unternehmen einführt, ohne für deren sorgfältige Auswahl, Schulung der Mitarbeiter und kontinuierliche Überwachung (auf Bias, Fehler etc.) zu sorgen, verletzt seine Sorgfaltspflichten und haftet im Schadensfall potenziell persönlich. Das ist natürlich ein extremer Fall. Aus diesem Grund werden auch D&O-Versicherungen für Geschäftsführern abgeschlossen. Pauschale Disclaimer wie “Wir haften nicht für die Ergebnisse der KI” sind rechtlich gegenüber eigenen Mitarbeitern oder Kunden wirkungslos.
Ethik in der Praxis: Von der Richtlinie zur “AI Governance”
Wie können Unternehmen diese ethischen Prinzipien nun praktisch umsetzen? Die Antwort liegt in einer robusten, unternehmensweiten “AI Governance”. Diese ist kein bürokratisches Hindernis, sondern das zentrale Instrument zur Steuerung von Risiken und zur Schaffung von Vertrauen.
Schritt 1: Das AI Governance Framework
Unternehmen müssen verbindliche interne Richtlinien für den KI-Einsatz definieren. Dieses Framework legt fest, welche KI-Anwendungen oder Anwendungsszenarien tabu sind (z.B. Emotionserkennung bei Mitarbeitern), welche als riskant gelten und einem strengen Prüfprozess unterliegen (z.B. im HR-Bereich) und welche unkritisch sind. Es definiert Verantwortlichkeiten (z.B. einen “AI Officer”).
Schritt 2: Der KI-Ethikrat
Für die Umsetzung der Governance hat sich die Einrichtung eines internen KI-Ethikrates oder eines “AI Compliance Committees” als Best Practice etabliert. Insbesondere bei den Verhandlungen mit einem Betriebsrat hilft ein. Dieses Gremium darf keine reine IT-Veranstaltung sein. Es muss interdisziplinär besetzt sein mit Vertretern aus:
- Recht & Compliance
- Datenschutz
- IT & Data Science
- Den jeweiligen Fachbereichen (z.B. HR, Marketing)
- Dem Betriebsrat
Die Kernaufgabe dieses Rates ist die ex-ante-Prüfung: Bevor ein neues, potenziell riskantes KI-System eingekauft oder ausgerollt wird, muss es vom Ethikrat auf ethische Risiken (Bias, Intransparenz) und Rechtskonformität geprüft werden. Die Herausforderung dabei ist, der Ethikrat soll schnell handeln. Eine Situation, in der der Ethikrat monatelang die Einführung von KI-Systemen stoppt und sich in theoretische Diskussionen verwickelt, ohne eine Handlungsempfehlung an die Geschäftsführung zu geben ist nicht hinnehmbar.
Schritt 3: Soziale Partnerschaft und die Betriebsvereinbarung
In Deutschland ist der Betriebsrat ein entscheidender Akteur. Nahezu jede KI, die potenziell Leistungs- oder Verhaltensdaten von Mitarbeitern verarbeiten kann, unterliegt der zwingenden Mitbestimmung (insb. nach § 87 Abs. 1 Nr. 6 BetrVG).
Die “Betriebsvereinbarung KI” ist das ideale Instrument, um die ethische Governance (Schritt 1) und die Arbeit des Ethikrates (Schritt 2) im Unternehmen praktisch und verbindlich zu verankern. Eine solche BV schafft Transparenz und Akzeptanz in der Belegschaft, indem sie klare Regeln aufstellt:
- Zweckfestlegung: Für welche Aufgaben wird die KI genutzt?
- Verbotsliste: Welche Überwachungspraktiken sind ausgeschlossen?
- Menschliche Kontrolle: Wie wird sichergestellt, dass der Mensch die Letztentscheidung behält?
- Qualifizierung: Welche Schulungen erhalten die Mitarbeiter, um die KI kompetent zu nutzen und zu überwachen?
- Monitoring: Wie wird das System (z.B. durch den Ethikrat) laufend auf Fairness und Bias überprüft?
Die Vereinbarung einer Rahmenbetriebsvereinbarung ermöglicht außerdem eine schnellere Einführung neuer KI-Anwendungen. Voraussetzung dafür ist, dass die Betriebsparteien sich auf ein standarisiertes Verfahren für die Einführung neuer Lösungen einigen.
Ethik als Fundament
Die ethische Nutzung von KI ist ab 2025 keine freiwillige Übung mehr, sondern eine strategische Notwendigkeit. Die Prinzipien Transparenz, Gerechtigkeit und Rechenschaftspflicht sind das Fundament für das Vertrauen von Kunden und Mitarbeitern. Unternehmen, die algorithmischen Bias ignorieren, die “Black Box” als gegeben hinnehmen oder die menschliche Kontrolle ausblenden, riskieren nicht nur Reputationsschäden und den Widerstand der Belegschaft, sondern auch massive rechtliche Konsequenzen.
Eine proaktive “AI Governance”, getragen von der Geschäftsleitung und umgesetzt in Partnerschaft mit interdisziplinären Ethik-Gremien und den Arbeitnehmervertretungen, ist der wirkungsvollste Weg, das enorme Potenzial der KI verantwortungsvoll auszunutzen und vor allem neue KI-Lösungen zeitnah einzuführen. Die Erfahrung zeigt, dass Unternehmen, die einen „Ethikrat“ oder „KI-Rat“ haben, deutlich schneller neue KI-Anwendungen einführen, weil die Akzeptanz von KI beim Betriebsrat deutlich höher ist.
Justyna Rulewicz
RECHTSANWÄLTIN / GESCHÄFTSFÜHRENDE PARTNERIN (CEO)
Piotr Stojgniew Maluszczak
RECHTSANWALT/WIRSTSCHAFTSMEDIATOR