Aus unserem Alltag, sowohl beruflich als auch privat, ist AI (Artificial Intelligence) nicht mehr wegzudenken und prägt grundlegend wie Unternehmen arbeiten. AI ist nicht mehr nur Effizienzhebel, sondern entwickelt sich zum strategischen Treiber für Innovation, Geschäftsmodelle und Prozessautomatisierung. (1)
Diese Fortschritte entwickeln sich in rasantem Tempo. Viele Unternehmen erleben dabei den Druck, mit der Dynamik Schritt zu halten. Um im lokalen und globalen Wettbewerb nicht zurückzufallen, gilt es, AI gezielt in die Organisation zu integrieren. Gleichzeitig dürfen die damit verbundenen Risiken nicht zur Nebensache werden. Die Herausforderung besteht darin, neue Technologien so aufzusetzen, dass sie von Beginn an sicher, verantwortungsvoll und langfristig tragfähig sind.
Dieser Spannungsbogen zwischen Potenzial und Verantwortung in einem sich rasch verändernden Umfeld zeigt sich besonders deutlich bei Agentic AI. Mit zunehmend autonomen Systemen stehen Unternehmen vor der zentralen Frage, wie Technologien einzusetzen, zu steuern und zu kontrollieren sind, die eigenständig Entscheidungen treffen können. (2)
Auch Umfragen des MIT bestätigen, dass die daraus resultierende Relevanz vom verantwortungsbewussten Einsatz der Technologien von den Unternehmen erkannt wird: 87% der Führungskräfte erkennen die Bedeutung von Responsible und Ethical AI an. Funktionen wie Datenschutz und Nachvollziehbarkeit wirken inzwischen häufig als starke Produktdifferenzierungsmerkmale. (3)
Aber auch gesellschaftlich wächst der Druck. Ein Beispiel aus Österreich hat die Debatte früh geprägt: Der vom Arbeitsmarktservice (AMS) entwickelte Algorithmus zur Bewertung von Jobchancen geriet in die Kritik, weil er bestehende Ungleichheiten etwa in Bezug auf Geschlecht und Alter in seinen Antworten reproduzierte und damit zum Teil potenziell diskriminierende Effekte hatte. Der Fall macht deutlich: AI-Systeme sind nicht immer neutral, sondern spiegeln die Daten und Annahmen, auf denen sie basieren. (4)
Mit dem EU AI Act entstand der weltweit erste umfassende Rechtsrahmen für AI, der Antworten und Leitlinien für den verantwortungsbewussten Umgang mit AI bieten soll. Unternehmen müssen ihre Systeme somit künftig nicht nur technisch beherrschen, sondern auch ethisch und regulatorisch verantworten.
Vor diesem Hintergrund wird eine Leitfrage zentral: Was genau verstehen wir unter Ethical AI und Responsible AI? Und welche Prinzipien sollten den verantwortungsvollen Einsatz von AI in Unternehmen leiten?
Der Begriff Ethical AI lässt sich nicht einheitlich definieren und wird daher in Wissenschaft, Politik und Wirtschaft themenabhängig verwendet. Dies liegt in der Natur der Sache: Ethik selbst ist ein fortlaufender Diskurs über Werte, Normen und deren Anwendung auf konkrete Situationen. (5)
Für den praktischen Einsatz in Unternehmen verstehen wir unter Ethical AI die systematische Integration ethischer Prinzipien und Werte in Strategie, Design, Entwicklung und Einsatz von AI-Systemen. (5)
Während akademische Ethik häufig abstrakte Prinzipien diskutiert, geht es im Unternehmenskontext um die Übersetzung dieser Prinzipien in konkrete Entscheidungen:
Darf ein Algorithmus diese Variable verwenden oder führt sie zu unzulässiger Diskriminierung?
Wer trägt Verantwortung, wenn ein AI System Schaden verursacht: Entwickler, Betreiber oder Anwender?
Wie werden vulnerable Nutzergruppen ausreichend geschützt?
…
Diese beispielhaften Fragen vermitteln bereits einen ersten Eindruck davon, wie umfangreich und weitreichend die notwendige Auseinandersetzung mit dem Einsatz von AI in Unternehmen ist.
Es zeigt auch auf, dass ethische Reflexion keine einmalige Pflichtübung darstellt, sondern einen kontinuierlichen Prozess, der alle Phasen des AI-Lebenszyklus durchdringt. (6)
Zusätzliche Komplexität entsteht durch die oftmals synonyme Verwendung der Begriffe Ethical AI, Responsible AI, Trustworthy AI, AI Governance und Explainable AI. Sie bezeichnen jedoch unterschiedliche Perspektiven auf dasselbe Ziel: den verantwortungsbewussten Umgang mit AI in Unternehmen und der Gesellschaft.
Ethical AI liefert die normative Grundlage, also die philosophische Reflexion darüber, welche Werte AI-Systeme verkörpern sollen.
Responsible AI (RAI) übersetzt diese Werte in operative Praxis: Prozesse, organisatorische Verantwortlichkeiten und AI Governance Strukturen. Letztere bilden den institutionellen Rahmen, die ethische Prinzipien verbindlich machen. Hierunter fallen offizielle Gesetzgebungen, wie der EU AI Act bis hin zu unternehmensinternen Policies.
Explainable AI (XAI) stellt die technischen Mittel bereit, um Transparenz und Nachvollziehbarkeit zu ermöglichen eine notwendige, aber nicht hinreichende Bedingung für ethische AI.
Trustworthy AI schließlich ist das integrative Ziel, das alle Dimensionen vereint: AI-Systeme, denen Menschen begründet vertrauen können. (7)
| Aspekt | Ethical AI | Responsible AI | AI Governance | Explainable AI |
|---|---|---|---|---|
Perspektive |
Philosophisch | Praktisch-organisational | Institutionell, regulatorisch | Technisch |
| Frage | Was ist richtig? | Wie setzen wir es um? | Wie regeln und kontrollieren wir es? | Wie machen wir es verstehbar? |
| Akteure | Ethiker, Gesellschaft | Unternehmen, Regulatoren | Politik, Aufsichtsbehörden, Unternehmen | Entwickler, Forscher |
| Output | Prinzipien, Werte | Prozesse, Governance | Gesetze, Standards, Institutionen | Methoden, Tools |
| Zeitpunkt | Vor der Entwicklung | Während des gesamten Lebenszyklus | Während des gesamten Lebenszyklus | Bei Modellentwicklung & Deployment |
Diese Begriffe stehen nicht in Konkurrenz zueinander, sondern ergänzen sich vielmehr: Ethical AI ohne Responsible AI bleibt abstrakt, während Responsible AI ohne Ethical AI seine normative Orientierung verliert. Beide wiederum bleiben ohne Explainable AI intransparent, und ohne AI Governance fehlt letztendlich die institutionelle Durchsetzungskraft.
Dieses Zusammenspiel verdeutlicht, dass Ethical AI kein singuläres Konzept darstellt, sondern unterschiedliche Perspektiven vereint, die nur in ihrer Gesamtheit wirksam werden. (7)
Die Europäische Kommission hat mit ihren „Ethics Guidelines for Trustworthy AI" (6) einen Referenzrahmen geschaffen, der vier ethische Grundprinzipien benennt: Achtung der menschlichen Autonomie, Schadensvermeidung, Fairness und Erklärbarkeit. Diese Prinzipien bilden für viele Unternehmen den Ausgangspunkt ihrer ethischen Leitlinien und lassen sich in konkrete Handlungsfelder übersetzen:
| Ethisches Grundprinzip | Praktisches Handlungsfeld | Bedeutung für Gesellschaft und Unternehmen |
|---|---|---|
| Achtung der menschlichen Autonomie | Menschliche Kontrolle | Der Mensch bleibt im Loop; AI‑Systeme unterstützen menschliche Entscheidungen, ersetzen sie aber nicht vollständig. Nutzer behalten die Fähigkeit, autonome Entscheidungen zu treffen. |
| Schadensvermeidung | Datenschutz & Sicherheit | Schutz sensibler Daten und Gewährleistung der Systemsicherheit, um physische, psychische oder finanzielle Schäden für Betroffene zu vermeiden. |
| Fairness | Fairness und Vermeidung von Voreingenommenheit | Vermeidung von Diskriminierung und Bias; AI‑Systeme dürfen keine Individuen oder Gruppen ungerechtfertigt benachteiligen. |
| Erklärbarkeit | Transparenz & Verantwortlichkeit | Nachvollziehbarkeit von Entscheidungen und klare Zuständigkeiten: Betroffene können verstehen, wie Entscheidungen zustande kommen, und es ist definiert, wer die Verantwortung trägt. |
Diese Prinzipien sind nicht isoliert zu betrachten, sondern bedingen einander. So erfordert etwa echte Fairness auch Transparenz darüber, welche Kriterien eine Entscheidung beeinflussen. Und menschliche Kontrolle ist nur dann wirksam, wenn die zugrundeliegenden Prozesse nachvollziehbar sind.
Für Unternehmen bedeutet dies, alle Prinzipien gemeinsam zu adressieren und systematisch in ihre AI-Strategie einzubetten. (8)
Für viele Unternehmen ist nicht mehr die Frage, ob sie AI einsetzen, sondern wie sie dies (verantwortungsvoll) tun.
AI ist längst kein isoliertes ITThema mehr. Sie wird zunehmend zu einem Kernbestandteil von Geschäftsstrategie, Wertschöpfung und Organisationsentwicklung. Die aktuelle PwC CEO Survey zeigt, dass ein Großteil der CEOs davon ausgeht, dass sie ihr Geschäftsmodell in den kommenden Jahren substanziell transformieren müssen, um wettbewerbsfähig zu bleiben. (9)
Ist AI dann in der Organisation verankert, gilt es Vertrauen aufzubauen und zu bewahren, sowohl innerhalb der Organisation als auch gegenüber Kund:innen. Verantwortungsvoll gestaltete AI ist nicht nur Risikomanagement, sondern zunehmend ein Differenzierungsfaktor im Markt. Studien zeigen, dass Responsible AI Merkmale wie Datenschutz, Sicherheit und Nachvollziehbarkeit zu messbaren wirtschaftlichen Vorteilen führen können, etwa durch höhere Abschlussraten, geringere Churn-Raten oder durch höhere Zahlungsbereitschaft. Wer das erkennt und früher in der Anwendung und Produktentwicklung berücksichtigt, kann sich als vertrauenswürdiger Arbeitgeber und Anbieter positionieren und diesen Vorsprung auch im Wettbewerb nutzen. (3)
Die Herausforderung hierbei ist es jedoch, das Vertrauen auch nachhaltig zu erhalten, um nicht Reputationsschäden zu gefährden. Ein einzelner Vorfall kann über Jahre hinweg das Vertrauen in eine Organisation beschädigen, selbst wenn das zugrunde liegende Problem längst behoben ist. Gerade in stark regulierten Branchen wie Finanzdienstleistung, Energie, Telekommunikation oder Gesundheitswesen sind die Erwartungen von Öffentlichkeit und Aufsicht besonders hoch. Unternehmen, die hier keine klaren Leitplanken für Responsible AI setzen, gehen ein unnötig hohes Reputations- und Litigation-Risiko ein.
Schließlich ist nicht zuletzt auch der regulatorische Druck inzwischen gegeben. Maßgebend ist hier unter anderem der bereits genannte EU AI Act. Er verpflichtet Unternehmen je nach Risikoklasse ihrer Systeme unter anderem zu:
systematischem Risikomanagement,
Transparenz- und Dokumentationspflichten,
klarer menschlicher Aufsicht und
technischer Robustheit und Sicherheit.
Für viele österreichische Unternehmen bedeutet das: Prozesse, Rollen und Kontrollen rund um AI müssen grundlegend überprüft und neu aufgesetzt werden. Auch soll bei den Mitarbeitenden Bewusstsein für die Nutzung der Technologie (KI-Kompetenz) geschaffen werden. Wer frühzeitig Strukturen für Responsible AI und AI Governance etabliert, reduziert nicht nur das Risiko von Verstößen und Sanktionen, sondern gewinnt auch Handlungssicherheit in einem sich weiterentwickelnden Regulierungsumfeld.
Unternehmen, die AI verantwortungsvoll einsetzen wollen, müssen diese Dimensionen ganzheitlich denken und in ihre Strategie, Prozesse und Unternehmenskultur integrieren. Denn vertrauenswürdige AI entsteht nicht allein durch technische Lösungen oder regulatorische Compliance. Sie erfordert vielmehr ein Zusammenwirken von ethischer Reflexion, organisationaler Verankerung, institutioneller Absicherung und technischer Transparenz. Nur wer alle diese Ebenen adressiert, schafft die Grundlage für AI-Systeme, denen Kunden, Mitarbeitende und Gesellschaft langfristig vertrauen können.
Wir unterstützen Sie gerne.
Das PwC-Team begleitet Unternehmen auf dem gesamten Weg von der strategischen Ausrichtung über die Entwicklung passender Governance-Strukturen bis hin zur praktischen Implementierung. Gemeinsam schaffen wir die Grundlage für AI-Systeme, denen Ihre Kunden, Mitarbeitenden und Partner vertrauen können.
Kontaktieren Sie uns – wir freuen uns auf den Austausch mit Ihnen.
Shirin Kristin El-Tohamy
(1) PwC (2025): AI and transparency: A new age of corporate responsibility.
https://www.pwc.com/gx/en/services/audit-assurance/corporate-reporting/esg-reporting/ai-transparency-and-corporate-responsibility.html
(2) PwC (2025): PwC’s 2025 Responsible AI survey: From policy to practice.
https://www.pwc.com/us/en/tech-effect/ai-analytics/responsible-ai-survey.html
(3) Oguz A. et al. (2025): How Responsible AI Protects the Bottom Line.
(4) Kreilinger, N. (2023): Das AMS hat bei KI so ziemlich alles falsch gemacht. DER STANDARD.
https://www.derstandard.at/story/3000000201875/das-ams-hat-bei-ki-so-ziemlich-alles-falsch-gemacht
(5) Hagendorff,T. (2020): The Ethics of AI Ethics: An Evaluation of Guidelines.
(6) European Commission: EU High-Level Expert Group on AI, Ethics guidelines for trustworthy AI.
https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
(7) IEEE (2019): Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems.
https://standards.ieee.org/industry-connections/ec/autonomous-systems/
(8) European Commission: EU Artificial Intelligence Act.
https://artificialintelligenceact.eu/
(9) PwC (2026): 27th Annual Global CEO Survey.
https://www.pwc.com/gx/en/news-room/press-releases/2026/pwc-2026-global-ceo-survey.html