Produktgetriebene KI-Strategie
Andrej Karpathy, ehemaliger Director of AI bei Tesla, hat die heutige künstliche Intelligenz kürzlich als „people spirits“ beschrieben. Diese metaphorischen Wesen verkörpern zugleich die Brillanz tiefen Wissens und die Unberechenbarkeit einer Jokerkarte.
Technisch betrachtet sind diese „Geister“ Large Language Models (LLMs), eine besondere Klasse von Vorhersagemodellen, die konversationelle KI-Systeme wie ChatGPT antreiben. Im Kern sagen sie auf Basis des bisherigen Gesprächs vorher, was als Nächstes kommt.
Vereinfacht lässt sich das so denken:
Gegeben eine Folge von Wörtern: Welches ist das wahrscheinlich nächste?
Um dies zu leisten, greift ein LLM auf zwei unterschiedliche Wissensquellen zurück: erlerntes Wissen und Kontextwissen.
Erlerntes Wissen ist das, was das Modell in seiner umfangreichen Trainingsphase aufnimmt. Es verarbeitet ungeheure Mengen an Text, um Muster, Sprachstrukturen und Fakten zu verstehen. Dieser Prozess ist so ressourcenintensiv, dass nur wenige Tech-Konzerne (und manche Open-Source-Communities) ihn in großem Maßstab betreiben können.
Selbst ohne besonderen Kontext kann ein LLM ein plausibles Gespräch führen oder die meisten Trivia-Fragen beantworten:
„Wer war der 42. Präsident der USA?“
Das gleicht einem Kopf voller Pub-Quiz-Fakten, jedoch eingefroren in der Zeit. Es kann beispielsweise die Akkulaufzeit Ihres Produkts unter Extremtemperaturen nicht sinnvoll beurteilen, sofern diese spezifischen Testdaten nicht bereitgestellt werden.
Kontextwissen ist Information, die Sie dem Modell situativ für eine konkrete Aufgabe mitgeben. Möchten Sie etwa, dass das LLM die Akkulebensdauer Ihres Produkts kennt, müssen Sie diese Werte in einem lesbaren Format bereitstellen.
Der Haken: In das sogenannte Kontextfenster passt nur begrenzt viel. Es umfasst das Kontextwissen, den bisherigen Dialog und die Antwort des Modells.
Wie viel Kontextwissen ist also optimal? Die Antwort:
Gerade so viel wie nötig.
Das ist der Kern von Noumetics Bottom-up, produktgetriebener KI-Strategie. Indem wir auf singulären, verifizierten Wahrheiten aufbauen und dem LLM nur ausreichend Kontext geben, stellen wir sicher, dass es nur aktuelle, zur Situation passende Fakten heranzieht. Schauen wir uns typische Fallstricke an, die dieser Ansatz entschärft.
Eine berüchtigte Schwäche von LLMs ist die Halluzination. Dinge werden selbstsicher erfunden. Das Modell könnte etwa von einer Studie erzählen, die Ihre Argumentation perfekt stützt … die jedoch nie existiert hat. Oder es „schätzt“ die Hitzetoleranz Ihres Produkts frei, weil die tatsächlichen Testdaten nicht im Kontext enthalten waren.
Das Halluzinationsrisiko wächst tatsächlich mit der Länge des Kontexts. Das ist eine Nebenwirkung der probabilistischen Natur dieser Modelle.
Überladen Sie ein LLM mit zu viel Kontext, sinkt die Genauigkeit oft subtiler als durch offene Halluzination. Das Modell muss sich durch einen Berg Details wühlen, und es lauern drei typische Fallen des sogenannten Nadel-im-Heuhaufen-Problems:
- Fehlgriffe durch Teilübereinstimmung: Ein Detail wird gewählt, das der Wahrheit nahekommt, aber nicht exakt stimmt.
- Aktualitäts- oder Häufigkeitsbias: Zu starke Gewichtung des zuletzt genannten oder am häufigsten erwähnten Details statt des korrekten.
- Halluzination: Findet das Modell die echte Antwort nicht, erfindet es eine.
Stellen Sie sich vor, Sie speisen Jahrzehnte an Produktspezifikationen sowohl Ihres Unternehmens als auch der Konkurrenz ein. Sie fragen nach Ihrer maximalen Betriebstemperatur im Jahr 2004, doch das Modell könnte:
- stattdessen Ihre Spezifikation von 2006 liefern (Aktualitätsbias),
- die Spezifikation eines Wettbewerbers aus 2004 nennen (Teilübereinstimmung), oder
- eine Zahl frei erfinden (Halluzination).
Mehr Kontext ist also nicht automatisch besser. Er kann den Fokus des Modells verwischen und zu allen drei Fehlerarten führen.
Um das Kontextlimit zu umgehen, lassen sich Information-Retrieval-Systeme einsetzen, die nur die relevantesten Textstücke nachladen. Das birgt jedoch das Risiko der Kontext-Fragmentierung. Wesentliche Zusammenhänge gehen verloren.
Sie könnten beispielsweise drei Temperaturmessreihen erhalten, aber keine zugehörigen Testdaten, weil diese Informationen an anderer Stelle im Dokument lagen.
Selbst bei perfekter Suche und null Halluzination kann ein LLM scheitern, wenn falsche Informationen eingespeist werden. Unterschiedliche Anwendungsfälle benötigen unterschiedliche Daten. Der Verkauf braucht marketingfreigegebene Spezifikationen und Wettbewerbspositionierung, der Support hingegen Schritt-für-Schritt-Anleitungen, Garantiebedingungen und Reparaturverfahren.
Werden diese Unterscheidungen in Ihrer Data Governance also der Entscheidung, welche Information für welches Publikum korrekt ist und wie sie aktuell gehalten wird, nicht konsequent umgesetzt, riskiert man, dass das Modell die richtige Antwort auf die falsche Frage gibt. Das LLM bewertet nicht, ob eine Spezifikation für Sales oder Support gedacht ist. Ohne klare Trennung und Kennzeichnung sieht es lediglich „Daten“.
Noumetic begegnet diesen Herausforderungen, indem wir eine produktzentrierte Ontologie Ihres Unternehmens aufbauen. Es handelt sich um eine strukturierte, vernetzte Landkarte von Konzepten, in der jedes Konzept eine atomare Informationseinheit darstellt.
Stellen Sie sich eine Ontologie als detaillierten Bauplan vor, der definiert, wie sich alle Elemente Ihres Geschäfts zueinander verhalten:
- Produkte gehören zu Produktlinien
- Produktlinien gehören zu Ihrem Unternehmen
- Projekte sind mit Standorten, Teams und Zeitplänen verbunden

Jedes Produkt, jede Produktlinie, jedes Projekt, jeder Standort, jedes Team und jede Zeitachse ist eine in sich geschlossene Wahrheit mit den zugehörigen Daten. So stellt das LLM ausschließlich aktuelle, kontextgerechte Fakten bereit.
Das führt zu gerade so viel Kontext wie nötig:
- Kürzerer Kontext bedeutet höhere Abrufgenauigkeit und weniger Halluzinationen
- Selbst wenn das Kontextfenster überschritten wird, bleibt Information innerhalb eines einzigen konzeptionellen „Raums“. Fragmentierung wird reduziert.
Darüber hinaus sorgt die klare Trennung von Informationen durch Data Governance dafür, dass jede Rolle nur das erhält, was sie braucht. Ein Sales-Agent arbeitet etwa mit Produktfeatures, Preisgestaltung und Positionierung, während ein Support-Agent auf Troubleshooting-Schritte, historische Tickets und Garantiebedingungen zugreift. So liefert das LLM die richtigen Fakten für das richtige Publikum ohne Kreuzkontamination.

Mit Ihrem Produkt im Zentrum lässt sich die Reichweite der KI auf Projektmanagement, Analyse von Kundeninteraktionen und umsetzbare Geschäftseinblicke ausdehnen. Alles ist verankert in produktzentrierter, governter Wahrheit.
Am deutlichsten zeigen sich diese Prinzipien in den zwei Hauptanwendungsfällen, in denen produktzentrierte KI den größten Hebel entfaltet: Sales und Support. Beide Funktionen erzeugen Tickets, strukturierte Gespräche mit Kund:innen. Doch der Weg, wie diese Tickets ins Produkt zurückfließen, unterscheidet sich. Zusammen bilden sie zwei komplementäre Kreisläufe.
Im Sales-Innovationszyklus führt der Erstkontakt mit einer Interessentin zu einem Sales-Ticket. Ein Sales-Agent arbeitet daran, daraus eine Kundin zu machen, indem er Features, Nutzen und Differenzierungsmerkmale herausstellt. Über den unmittelbaren Abschluss hinaus zeigen die gesammelten Tickets, wonach potenzielle Kund:innen beständig fragen: unerfüllte Bedürfnisse, gewünschte Funktionen oder Kaufhindernisse. Systematisch analysiert nähren diese Erkenntnisse die Produktinnovation, indem sie die Roadmap an der Marktnachfrage statt am Bauchgefühl ausrichten.
Im Support-Verbesserungszyklus erzeugt ein Kundenproblem ein Support-Ticket. Der Support-Agent löst das Problem für die einzelne Person. Der eigentliche Mehrwert steckt jedoch in der Aggregation. Durch die Analyse wiederkehrender Probleme, Ineffizienzen oder Fehlmuster über viele Tickets hinweg werden Bereiche sichtbar, in denen das Produkt robuster, zuverlässiger oder nutzerfreundlicher werden kann. Diese Einsichten fließen zurück in Produktverbesserungen, die die künftige Supportlast senken und die Kundenzufriedenheit stärken.

Gemeinsam bilden diese beiden Schleifen, Innovation aus Sales und Verbesserung aus Support, ein kontinuierliches Rückkopplungssystem. Beide Zyklen beginnen mit einer Kundeninteraktion und enden mit einem besseren Produkt. Sie verstärken einander und stellen sicher, dass das Produkt selbst das Zentrum von Wachstum und Strategie bleibt.
Wenn Ihr Unternehmen produktgeführt ist, dann ist jetzt der richtige Zeitpunkt, Ihr Produkt auch zum Zentrum Ihrer KI-Strategie zu machen.