AI-Qualität als zentraler Erfolgsfaktor: Wie gut ist Ihre AI?

Screenshot

Immer mehr Versicherungsunternehmen führen AI-Lösungen ein: Von einzelnen POCs bis hin zum unternehmensweiten Rollout von AI-Chat- und Assistentenlösungen. Nach anfänglicher Euphorie folgt häufig die Ernüchterung, da die Lösungen nicht die erwarteten Ergebnisse liefern: AI-Antworten sind unpräzise, halluzinieren oder tun einfach nicht das, was der Anwender oder die Anwenderin erwartet.

Der Cosmo AI Assistant fokussiert auf das Thema “Dateneffizienz”, also der Umwandlung von unstrukturierten Daten in strukturierte Formate mit automatischer Weiterverarbeitung. Beispiel: Aus der eingehenden Email eines Maklers für Änderungen in der KFZ-Flotte seines Kunden werden vollautomatisch alle KFZ- und Schadendaten ausgelesen, in das Bestandsführungssystem übertragen, die Prämie angepasst und das Nachtragsdokument generiert.

Diese Daten- und Prozesseffizienz lässt sich nur gewährleisten, wenn sich die Qualität der AI-Lösung in messbaren und nachvollziehbaren Zahlen ausdrücken lässt: Welche Daten werden mit welcher Quote erkannt, bei welchen Daten ist eventuell ein höhere Fehlertoleranz akzeptabel bei welchen auf keinen Fall? Wann sollte immer eine Expertin oder Experte die Daten kontrollieren?

Diese Fragen beantwortet das mgm AI Evaluation Framework von Anfang an:

  • Vor Projektstart: Mit welcher AI-Qualität kann ich mit meinen Daten beim Einsatz des AI-Assistenten rechnen?
  • Im Projekt: Wie kann ich die AI-Qualität systematisch und nachvollziehbar verbessern, z. B. durch AI-Finetuning oder AI-Training?
  • Im Betrieb: Lohnt sich der Wechsel auf einen anderen LLM-Anbieter (OpenAI, Llama, Mistral…)? Mit welchem Qualitätsgewinn kann ich konkret rechnen?

Das Evaluation Framework arbeitet mit Ihren Daten (ggf. anonymisiert) und individuell für Sie angepassten Metriken, die auch nicht-ITler verstehen.

Mehr Informationen finden Sie hier.