Der Allianz Konzern ist einer der weltweit führenden Versicherer und Vermögensverwalter, aktiv in fast 70 Ländern, mit rund 97 Millionen Kundinnen und Kunden*. Versicherungskunden der Allianz nutzen ein breites Angebot von der Sach-, Lebens- und Krankenversicherung über Assistance-Dienstleistungen und Kreditversicherung bis hin zur Industrieversicherung. Die Allianz ist einer der weltweit größten Investoren und betreut im Auftrag ihrer Versicherungskunden ein Investmentportfolio von etwa 764 Milliarden Euro**. Zudem verwalten unsere Asset Manager PIMCO und Allianz Global Investors etwa 2,0 Billionen Euro** für Dritte. Mit unserer systematischen Integration von ökologischen und sozialen Kriterien in unsere Geschäftsprozesse und Investitionsentscheidungen sind wir unter den führenden Versicherern im Dow Jones Sustainability Index. 2025 erwirtschafteten über 156.000 Mitarbeiter für den Konzern einen Umsatz von 186,9 Milliarden Euro und erzielten ein operatives Ergebnis von 17,4 Milliarden Euro.
Für das, was uns am Herzen liegt: Verantwortungsvoller KI-Einsatz bei der Allianz
Kundenzentriert – Vertrauen als Kompass
Die Allianz setzt KI mit dem Kunden im Zentrum unserer Strategie ein. Entlang aller Kontaktpunkte analysieren, automatisieren und personalisieren wir Prozesse. Gleichzeitig schützen wir Kundendaten konsequent und setzen menschliche Fähigkeiten dort ein, wo sie den größten Mehrwert schaffen.
Dieser kundenzentrierte Ansatz prägt den Einsatz von KI bei der Allianz. Effizienz- und Kosteneffekte sind wichtig, werden jedoch bewusst als Ergebnis einer vertrauensbasierten KI‑Strategie verstanden – nicht als deren Ausgangspunkt.
Governance von Anfang an
„Die Allianz hat Grundsätze für verantwortungsvolle KI bereits Jahre vor den Vorgaben des EU‑AI‑Acts eingeführt“, sagt Philipp Raether, Chief Privacy & AI Trust Officer bei der Allianz. „Das war eine strategische Entscheidung: Wir wollten KI skalieren, ohne Vertrauen, Reputation oder unsere Geschäftsfähigkeit zu gefährden. Governance und Verantwortlichkeiten wurden parallel zum technologischen Fortschritt aufgebaut. Das ist das Richtige für unsere Kundinnen und Kunden.“
Allianz hat ein konzernweites Group Data and AI Trust Advisory Board etabliert, das auf dem 2021 gegründeten Group Data Advisory Board aufbaut. Es berät den Vorstand der Allianz SE zu Datenethik sowie zur verantwortungsvollen und rechtskonformen Nutzung von Künstlicher Intelligenz.
Acht Prinzipien, die Vertrauen in die Praxis übersetzen
Allianz‑Prinzipien für verantwortungsvolle KI
- Verbotene KI: Die Allianz entwickelt oder nutzt keine KI‑Systeme, die gegen geltendes Recht oder grundlegende Werte verstoßen, einschließlich verbotener Praktiken nach dem EU‑AI‑Act, etwa KI, die Menschen manipuliert, Sicherheitslücken ausnutzt oder in anderer Weise unvertretbare Risiken für Grundrechte darstellt.
- Transparenz: Kundinnen und Kunden werden darüber informiert, wann und zu welchem Zweck KI eingesetzt wird – auch dann, wenn sie mit KI‑Systemen interagieren.
- Verantwortlichkeit, Genauigkeit und Fachkompetenz: KI kann halluzinieren. Deshalb ist Genauigkeit eine zentrale Anforderung verantwortungsvoller KI: Unzutreffende Ergebnisse können zu Missverständnissen oder suboptimalen Entscheidungen führen und müssen daher angemessen gesteuert werden, um eine verlässliche und vertrauenswürdige Nutzung sicherzustellen.
- Sicherheit und Resilienz: Technische Robustheit und Cybersicherheit über den gesamten Lebenszyklus hinweg, einschließlich Schutz vor Missbrauch und Fehlfunktionen.
- Nichtdiskriminierung: KI‑Anwendungsfälle können Diskriminierungsrisiken bergen, wenn verzerrte Daten zu unfairen Ergebnissen für bestimmte Personen oder Gruppen führen. Dieses Risiko wird durch das Erkennen, Vermeiden und Korrigieren von Verzerrungen in Daten und KI‑Nutzung gemindert.
- Datenschutz: KI‑Systeme verarbeiten Daten. Daher ist Datenschutz eine zentrale Anforderung verantwortungsvoller KI: Es werden ausschließlich Daten verwendet oder KI‑Systemen zugänglich gemacht, die nach den jeweils anwendbaren Datenschutzgesetzen rechtmäßig verarbeitet werden dürfen.
- Daten‑Governance: Daten‑Governance ist essenziell, da KI auf Daten basiert. Klare Regeln zu Datenqualität, Herkunft, Zugriff und Nutzung sind notwendig, um verlässliche, rechtskonforme und vertrauenswürdige KI‑Ergebnisse zu gewährleisten.
- Menschliche Aufsicht: KI unterliegt einer Human‑in‑the‑Loop‑Aufsicht. Das bedeutet, dass klar benannte Personen den Einsatz überwachen und eingreifen oder Ergebnisse korrigieren können, die nicht mit den Prinzipien verantwortungsvoller KI im Einklang stehen.
Klare rote Linien: Was die Allianz nicht tut
Beispiele für ausgeschlossene Anwendungen sind:
- Soziales Scoring von Personen auf Basis von Verhalten, sozialen Merkmalen oder abgeleiteten Eigenschaften
- Emotionserkennung zur Bewertung von Mitarbeitenden am Arbeitsplatz
- Manipulative KI, die Vulnerabilitäten ausnutzt, um Menschen zu beeinflussen
- KI, die darauf ausgelegt ist, rechtliche oder regulatorische Schutzmechanismen zu umgehen (nach EU‑Recht verboten und auch außerhalb der EU nicht im Einsatz)
Ein durchgängiger Lebenszyklus: von der Idee bis zum Betrieb – und darüber hinaus
Verantwortungsvolle KI in der Praxis: zwei Beispiele
1) Ende‑zu‑Ende‑Schadenbearbeitung
Ein Beispiel für den verantwortungsvollen Einsatz von KI ist die automatisierte Bearbeitung von Schadenfällen mit hohem Volumen und geringer Komplexität. Kundinnen und Kunden (oder ihre Vermittler) laden Dokumente wie Rechnungen hoch. Mittels Texterkennung werden relevante Informationen extrahiert, KI‑Modelle prüfen zentrale Daten (z. B. Rechnungsdatum und Policennummer) und gleichen sie mit Vertragsdaten ab. Bei Unsicherheiten werden Fälle an menschliche Expertinnen und Experten weitergeleitet.
Die Allianz in Deutschland hat Jahr 2025 49,7 % der Schadenfälle in der deutschen Tierkrankenversicherung vollständig automatisiert bearbeitet. In einfachen Fällen bedeutet das: Kunden erhalten ihr Geld nur wenige Stunden nach der Schadenmeldung. Transparenz über den KI‑Einsatz wird durch klare Datenschutzhinweise sichergestellt, die erläutern, wann Fälle vollständig automatisiert bearbeitet werden können. Kundinnen und Kunden haben jederzeit Zugang zu einem menschlichen Ansprechpartner, um nicht in einer „KI‑Schleife“ zu landen.
2) Agentische Automatisierung bei Lebensmittelschäden infolge von Naturkatastrophen
In Australien nutzt die Allianz agentenbasierte Automatisierung zur Bearbeitung von Lebensmittelschäden – einem häufigen Kleinschaden bei Naturkatastrophen. Mehrere auf Teilaufgaben spezialisierte Agenten arbeiten zusammen, um Prozesse zu beschleunigen und die Regulierung von Tagen auf Stunden zu verkürzen. Der Ansatz ist auf Spitzenlasten ausgelegt, in 95 % der Fälle liegt die maximale beantragte Auszahlung bei 500 AUD.
Für diese Schadenfälle konnte die Allianz die gesamte Bearbeitungszeit von rund sieben Tagen auf weniger als einen Tag reduzieren. Die menschliche Aufsicht bleibt dabei entscheidend: Potenzielle Ablehnungen werden an erfahrene Schadenmanager eskaliert, und Mitarbeitende erhalten gezielte Schulungen, um KI‑Empfehlungen einzuordnen und kritisch zu hinterfragen. Management‑Dashboards vergleichen KI‑Ergebnisse mit menschlichen Schadenentscheidungen, um Abweichungen frühzeitig zu erkennen.
Investitionen in Technologie und Menschen
Jenseits von Algorithmen: Vertrauen als eigentlicher Vorteil
Weiterführende Informationen
Mehr auf allianz.com
Über die Allianz
* Die Kundenanzahl spiegelt nur die Allianz Kundinnen und Kunden in konsolidierten Unternehmen wider, die zum Umfang der Kundenberichtserstattung gehören.
** Stand: 31. Dezember 2025.