Ein Datenmodell beschreibt Daten für einen Anwendungsbereich und ihre Beziehung zueinander. Dies stellt in der Versicherungsbranche eine Art gemeinsame Sprache dar. So sind die verschiedenen Marktteilnehmer wie Versicherer, Assekuradeure, Makler etc. in der Lage, sich untereinander zu verständigen. Grundsätzlich werden Datenmodelle mithilfe von Datenfeldern beschrieben. Hier können zum Beispiel Daten zu Deckungen, Deklarationen, Risikodetails und Prämien erfasst werden. Je standardisierter die Datenmodelle sind, desto einfacher läuft der Datenaustausch.

Wichtig ist, dass Datenmodelle von Anfang an richtig konzipiert werden, denn sie sind die Basis für alle Prozesse, die darauf aufbauen. Sie müssen einheitlich auswertbar, flexibel erweiterbar und langfristig wiederverwendbar sein, um beispielsweise Geschäftsprozesse, Organisationseinheiten und Services zu beschreiben. Aus technischer Sicht werden sie insbesondere für die Entwicklung von APIs nutzbar.

1. Datenmodelle sinnvoll erstellen
Die Digitalisierung von Industrieversicherungen ist ein langfristiger Prozess – oft über Jahre angelegt. Daher ist es sinnvoll, inkrementell und iterativ vorzugehen: Mit einem groben Datenmodell starten und anschließend die Modelle schrittweise anpassen und sukzessive ausbauen.

Um eine gemeinsame Basis zu schaffen, ist es wichtig, die verschiedenen Fachabteilungen und die IT zusammenzubringen. Sinnvollerweise wird bei der Datenmodellierung in kleinen Einheiten gedacht, wie beispielsweise einer Sparte. Entlang eines Geschäftsprozesses gibt es die Möglichkeit, viele, kleinere Datenmodelle abzubilden – wie deckungsrelevante Daten für die Kasko- und die Haftpflichtdeckung bei Transportversicherungen. Dasselbe gilt für die Vielzahl der Daten zum Angebotsrahmen, wie Gültig-bis-Datum oder Angebotsnummer, in Abgrenzung zu Daten zum Vertragsrahmen, wie Beginn, Ablauf oder Vertragsnummer sowie den jeweiligen Deckungsinformationen.

2. Strukturieren der Daten nach Prozessschritten
Einen effektiven Ansatz zur Datenstrukturierung und damit zur Trennung von kritischen und weniger kritischen Daten, bietet das EVA-Prinzip. Dabei ist der gesamte Prozess zu betrachten – von der Eingabe über die Verarbeitung bis hin zur Ausgabe. Grundsätzlich ist es sinnvoll, eine Strukturierung nach Prozess oder Prozessschritten anzugehen.

So kann direkt bei der Ausarbeitung der Prozesse die Komplexität in den Datenfeldern reduziert werden. Hier bedarf es einer pragmatischen Vorgehensweise bei der Definition der Daten sowie bei weniger kritischen Informationen den Mut, Daten auch unscharf oder sogar unvollständig zu lassen.

3. Datenmodelle direkt verproben
Ist ein Datenmodell erstellt, sollte es direkt verprobt werden. So zeigt sich, ob Theorie und Praxis übereinstimmen. Möglich wird eine direkte Verprobung auf Basis echter Testdaten mit Low Code-Lösungen. Dabei werden die Datenfelder direkt von Fachexpert*innen modelliert, Programmierkenntnisse sind nicht nötig. So können Fachbereichsleiter*innen die Datenmodelle direkt in der Anwendung testen und mögliche fachliche Lücken erkennen. Low Code-Tools bieten ausreichend Flexibilität für spätere Änderungen oder Weiterentwicklungen.

4. Kollaboration von IT und Fachbereich als Grundlage
Grundvoraussetzung für das Gelingen der Datenmodellierung ist eine intensive Zusammenarbeit von IT und Fachbereich. Dafür müssen sich Technik, Fachbereiche und Businessexpert*innen regelmäßig austauschen sowie Kompetenzen aufbauen und Wissen teilen. Um die eingeführten Datenmodelle für zukünftige Geschäfte sinnvoll aufzubauen, ist ein parallel stattfindender Change-Prozess im Unternehmen nötig.

Am Ende sind es die Fachexpert*innen, die die Hoheit über die digitalen Datenmodelle erhalten, um zukünftig mit ihnen zu arbeiten. In der digitalen Zukunft der Industrieversicherung wird es zu den Kernkompetenzen von Underwritern und Sachbearbeitern gehören, Datenmodelle selbst zu modellieren und damit Geschäftsprozesse zu unterstützen.

Bildquelle:@arthead on stock.adobe.com