Warum Genauigkeit zu meiner Obsession in der KI-Analytik wurde
Zusammenfassung
- KI-Analysen können plausible Antworten liefern, aber inkonsistente Ergebnisse untergraben das Vertrauen in Entscheidungsfindung von Unternehmen.
- Zuverlässige KI-Analysen erfordern deterministische Geschäftslogik und kein probabilistisches Prompt Engineering.
- Eine geregelte semantische Ebene gewährleistet einheitliche Definitionen für Kennzahlen wie Umsatz, Abwanderung und aktive Kunden.
- Die Kombination von KI mit starker Data Governance, Qualität und Herkunftsnachweis trägt dazu bei, vertrauenswürdige Erkenntnisse in großem Maßstab zu liefern.
Jeder erinnert sich an das erste Mal, als er gesehen hat, wie eine KI eine Datenfrage beantwortet hat. Jemand tippt eine Frage in einfachem Englisch ein, und heraus kommt eine Antwort mit Diagrammen und allem Drum und Dran. Es fühlt sich wie Zauberei an. Man denkt: Das verändert alles.
Und das tut es auch – bis man dieselbe Frage zweimal stellt und eine völlig andere Zahl erhält. Das ist genau der Moment, in dem der Zauber verfliegt.
Dies ist das Kernproblem der Kategorie „KI-Analytik“. Sprachmodelle sind sehr gut darin, Antworten zu generieren, die korrekt klingen. In Data Analytics muss die Antwort einfach nur korrekt sein, und zwar konsistent.
In Unternehmen ist eine „plausible“ Zahl, der man nicht trauen kann, deutlich schlimmer als gar keine Zahl. Wenn ein Finanzvorstand auf der Grundlage einer halluzinierten Umsatzzahl handelt, ist das kein harmloser Fehler – es ist eine Haftung.
Die Überwindung dieser Vertrauenslücke ist seit dem ersten Tag bei Wobby unsere einzige Mission und bleibt auch jetzt als Actian AI Analyst unsere Mission.
Wir wollten nicht einfach nur ein weiteres Tool zum „Chatten mit Ihren Daten“ entwickeln, sondern Geschäftsanwendern Antworten liefern, denen sie vertrauen können, damit sie Entscheidungen treffen können, ohne die Berechnungen hinterfragen zu müssen.
Die Paranoia des Journalisten
Meine Besessenheit von Genauigkeit begann nicht in einem Software-Startup, sondern in einer Redaktion.
Vor Wobby war ich Datenjournalist. Damals war meine größte Angst, einen Rechenfehler zu veröffentlichen, der Millionen von Lesern in die Irre führen würde. Wenn deine Arbeit zur öffentlichen Aufzeichnung wird, muss deine Mathematik absolut fehlerfrei sein.
Während der COVID-19-Pandemie beobachtete ich, wie ein Kollege jeden Morgen die Infektionsdaten der Regierung manuell in eine Tabelle kopierte, um unsere Grafiken zu aktualisieren. Ich erkannte sofort das Risiko. Ein einziger Fingerfehler oder eine rückwirkend aktualisierte Zahl könnte zu einer falschen Darstellung der Gesundheitskrise führen. Ich habe diesen Arbeitsablauf automatisiert, weil die Wahrheit zu fragil war, um sie der manuellen Eingabe zu überlassen.
Dieselbe Paranoia bestimmt auch unseren Ansatz in Bezug auf KI-Analysen. Wir wussten, dass wir, wenn wir Unternehmen bitten wollten, einer KI ihre Kennzahlen anzuvertrauen, uns nicht einfach „herumreden“ konnten, um Genauigkeit zu erreichen.
Eine andere Architektur für vertrauenswürdige KI-Analysten
Wenn Teams auf das Problem „unterschiedliche Antworten auf dieselbe Frage“ stoßen, versuchen sie in der Regel, es mit mehr Anweisungen zu beheben. Mehr Beispiele. Mehr Kontext. Mehr Leitplanken. Eine längere Systemmeldung. Eine Few-Shot-Eingabeaufforderung, die dem Modell „beibringt“, was Umsatz bedeutet.
Wir haben alles ausprobiert. In Demos funktioniert es. Als Architektur funktioniert es nicht.
Denn das Problem ist nicht, dass in der Eingabeaufforderung ein magischer Satz fehlt. Das Problem ist, dass Sie von einem probabilistischen System verlangen, sich wie ein deterministisches zu verhalten.
Also haben wir eine andere Wette abgeschlossen. Wir haben aufgehört, dem Modell „vorzuschreiben“, wie Geschäftsdefinitionen berechnet werden sollten.
Stattdessen haben wir sie explizit und deterministisch in einer semantischen Ebene definiert. Begriffe wie Umsatz, aktiver Kunde oder Abwanderung sind im Voraus strukturiert, ebenso wie die Filter und Beziehungen, die bestimmen, wie sie berechnet werden. Wenn jemand eine Frage stellt, interpretiert die KI die Sprache, aber sie setzt die Antwort aus bereits festgelegten Logikregeln zusammen.
Die Flexibilität bleibt in der Art und Weise, wie die Menschen fragen. Die Beständigkeit in der Art und Weise, wie die Zahlen berechnet werden.
Indem wir den Kontext der Daten deterministisch gestaltet haben, haben wir die Abweichungen beseitigt, die zu einer Verschiebung der Antworten führen.
Warum Actian
Als Start-up mit fünf Mitarbeitern war unser größtes Problem nie das Produkt. Es ging darum, Unternehmen davon zu überzeugen, dass ein kleines Team Probleme lösen kann, mit denen Snowflake, Databricks und Microsoft noch immer zu kämpfen hatten. Und selbst als wir bewiesen hatten, dass wir dazu in der Lage waren, kam immer die nächste Frage: Werdet ihr in drei Jahren noch existieren?
Das hat uns zu Actian geführt – und ehrlich gesagt macht es aus so vielen Blickwinkeln Sinn, dass es fast unvermeidlich erscheint.
Damit zuverlässige KI-Analysen in der Produktion funktionieren, braucht man mehr als nur einen intelligenten Agenten. Man braucht Governance. Datenqualität. Herkunft. Verwaltung. Zugriffskontrolle. Die harte, unattraktive Infrastruktur, die darüber entscheidet, ob KI-Agenten tatsächlich zuverlässig in einem großen Unternehmen eingesetzt werden können.
Actian hat Jahrzehnte damit verbracht, genau das aufzubauen. Was fehlte, war die KI, die alles miteinander verband – und genau das bringen wir mit.
Wir alle kennen die Demo perfekt funktioniert. Eine ausgefeilte Frage, eine klare Antwort. Aber Unternehmensanalysen leben nicht von Demos. Sie leben von Hunderten von unvorhergesehenen Fragen, die von verschiedenen Menschen auf unterschiedliche Weise gestellt werden. Unser Ziel war es nie, magische Demos zu erstellen. Unser Ziel war es, etwas zu entwickeln, auf das sich Unternehmen tatsächlich verlassen können.