KI‑Suche für B2B‑Kataloge: RAG, Relevanz & Conversion
Warum Standardsuche im B2B an Grenzen stößt
Die Standardsuche in Magento ist robust, stößt in komplexen B2B‑Umgebungen jedoch schnell an Grenzen. Einkäufer verwenden nuancierte, branchenspezifische Sprache, suchen nach Konzepten, Problemen oder Teil‑SKUs – nicht nur nach Produktnamen. Erwartet wird Kontextverständnis: Eine Anfrage wie "Komponenten für hochbeanspruchte Roboterarme" sollte nicht nur den Arm liefern, sondern auch passende Lager, Aktuatoren und Schmierstoffe – selbst wenn diese Begriffe nicht explizit in den Beschreibungen stehen. Klassische Keyword‑Suche – selbst mit Elasticsearch – überbrückt diese semantische Lücke nur unzureichend. Ergebnis sind geringe Relevanz, hohe Zero‑Result‑Raten und Umsatzverluste.
Kernarchitektur: Retrieval‑Augmented Generation (RAG)
RAG kombiniert die Stärken großer Sprachmodelle (LLMs) für Verständnis/Generierung mit den faktenbasierten, aktuellen Katalogdaten aus Magento. Es ist nicht nur ein Suchalgorithmus, sondern ein System zur Intent‑Erkennung mit kontextbewussten Antworten.
Der Prozess folgt drei Schritten:
- Vektorindex (Wissensbasis): Katalogdaten – Beschreibungen, Spezifikationen, Handbücher, Kategorien und ggf. Supportartikel – werden von einem Embedding‑Modell in Vektoren überführt, die semantische Bedeutung abbilden. Eine Suche nach "korrosionsbeständig" landet nahe Vektoren für Edelstahl‑Produkte oder Beschichtungen – auch ohne das Wort "Korrosion" im Text. Diese Vektorbibliothek ist das Langzeitgedächtnis des LLM.
- Retrieval (Finden der Nadeln): Die Nutzeranfrage wird ebenfalls vektorisiert. Anschließend erfolgt eine Ähnlichkeitssuche (z. B.
Cosine Similarity) gegen den Index, um semantisch passende Produktinformationen zu finden. Es geht nicht um Keyword‑Matches, sondern um Kandidaten, die zur Intention passen. - Generation (Antwort formulieren): Die gefundenen Daten und die ursprüngliche Anfrage werden als Kontext an ein LLM übergeben. Ein Prompt könnte lauten:
"Kontext: [retournierte Daten für SKUs 123, 456, 789]. Anfrage: 'Ich brauche robuste, wasserdichte Steckverbinder für den Außeneinsatz.' Antworte AUSSCHLIESSLICH auf Basis des Kontextes."Das LLM fasst Optionen zusammen, begründet die Eignung und nennt kompatibles Zubehör – faktenbasiert aus dem Katalog.
Hybrides Ranking: Schlüssel zur B2B‑Relevanz
Reine Semantik genügt nicht. B2B‑Käufer kennen oft exakte SKUs/Begriffe. Ein ausschließlich semantisches System könnte eine präzise SKU fälschlich "korrigieren". Daher braucht es ein hybrides Ranking, das mehrere Signale zu einem belastbaren Gesamtscore verbindet.
- Semantic Score: Relevanz aus der Vektor‑Ähnlichkeitssuche – trifft die Konzept‑Intention.
- Keyword Score (TF‑IDF/BM25): Klassischer Volltext‑Score, wichtig für SKUs, Modellnummern und Fachjargon – Domäne von Elasticsearch.
- Business‑Logic‑Score: Regeln wie Lagerbestand (in‑stock boosten), kundenspezifische Preislisten oder Popularität aus Analytics.
Der finale Score ist eine gewichtete Kombination. Enthält die Anfrage ein SKU‑Muster, überwiegt der Keyword‑Anteil; bei konzeptionellen Suchen ("leichte Montagekomponenten") dominiert der semantische Anteil. So liefern explorative wie präzise Suchen konsistent korrekte Ergebnisse.
Security & Governance: Nicht verhandelbar
Im B2B sehen nicht alle Nutzer denselben Katalog oder dieselben Preise. Eine RAG‑Suche muss ACLs, Kundengruppen und Shared‑Catalog‑Berechtigungen aus Magento respektieren. Verstöße riskieren Datenabfluss (z. B. verhandelte Preise, gesperrte Produkte).
Durchsetzen lässt sich dies am effektivsten im Retrieval: Vor der Vektorsuche wird die Dokumentenmenge anhand der Session‑Kontexte (z. B. customer_group_id) vorgefiltert. Das LLM sieht ausschließlich zulässige Daten. Security by design verhindert so unabsichtliche Offenlegung sensibler B2B‑Informationen.
Wirkungsnachweis: Mehr als nur Conversion
Neben der Conversion zeigen folgende Leitmetriken, ob die KI‑Suche greift:
- Click‑Through‑Rate (CTR): Klicken Nutzer die Top‑Ergebnisse? Niedrige CTR deutet auf Relevanzprobleme hin; bei generierten Zusammenfassungen via Link‑Interaktion messbar.
- Normalized Discounted Cumulative Gain (NDCG): Bewertet die Ranking‑Qualität über die Position relevanter Treffer. Hohe NDCG‑Werte bedeuten, dass die besten Ergebnisse oben stehen.
- Zero‑Result‑Rate: Anteil der Suchen ohne Treffer. RAG sollte diese Rate deutlich senken, da Intention statt reiner Keywords verstanden wird.
Magento‑Umsetzung: Praxisnotizen
Die Integration von RAG in Magento ist machbar: Wähle Vektor‑DB (z. B. Pinecone, Weaviate) und LLM (z. B. OpenAI, Llama). Nutze Observer (catalog_product_save_after) zur inkrementellen Re‑Indexierung; für den Initialimport eignet sich ein CLI‑Kommando. Stelle die Suche über einen Custom‑API‑Endpoint bereit, der Vektorisierung, hybrides Ranking und LLM‑Antwort kapselt und strukturiertes JSON ans Frontend liefert. Ergebnisse häufiger Anfragen aggressiv cachen, um Latenz und Kosten zu senken.
