Wissensdatenbank

Trainiere deinen Bot mit eigenen Inhalten: Dokumente, Websites, manueller Text und API-Quellen.

Übersicht

Die Wissensdatenbank ist das Herzstück deines Bots. Hier hinterlegst du alle Inhalte, aus denen der Bot seine Antworten generiert. Je besser und umfangreicher die Wissensdatenbank, desto genauer und hilfreicher die Antworten deines Bots.

Quellentypen

TypFormateMax. GrößeBeschreibung
DokumentPDF, DOCX, TXT10 MB / DateiDirekt hochgeladene Dateien
Website-CrawlerURL500 SeitenAutomatisches Crawlen einer Website
Manueller TextFreitext50.000 ZeichenFAQ-Einträge oder freier Text
API-QuelleJSON Endpoint-Dynamische Daten aus einer externen API

Dokumente hochladen

Navigiere zu Wissensdatenbank → Dokumente → „Dokument hochladen" und wähle eine oder mehrere Dateien aus:

  • PDF – Textbasierte PDFs werden automatisch extrahiert. Gescannte PDFs werden per OCR verarbeitet (Pro-Plan).
  • DOCX – Word-Dokumente inklusive Formatierung, Tabellen und Listen.
  • TXT – Einfache Textdateien werden direkt importiert.
Batch-UploadDu kannst bis zu 20 Dateien gleichzeitig hochladen. Alle Dateien werden im Hintergrund verarbeitet – du erhältst eine Benachrichtigung, wenn die Verarbeitung abgeschlossen ist.

Website-Crawler

Der Website-Crawler durchsucht automatisch alle Seiten einer Website und extrahiert den Textinhalt. So funktioniert es:

  1. Gehe zu Wissensdatenbank → „Website crawlen"
  2. Gib die Start-URL ein (z. B. https://example.com)
  3. Konfiguriere die Einstellungen:
  4. Klicke auf „Crawling starten"
EinstellungStandardBeschreibung
Maximale Seiten100Maximale Anzahl der zu crawlenden Seiten (max. 500)
Tiefe3Maximale Link-Tiefe ab der Start-URL
Gleiche DomainJaNur Seiten der gleichen Domain crawlen
URL-Muster-Regex-Pattern zum Filtern von URLs (z. B. /blog/.*)
Ausschluss-Muster-Regex-Pattern zum Ausschließen von URLs
Automatisch aktualisierenNeinCrawling regelmäßig wiederholen (wöchentlich)
robots.txtDer Crawler respektiert die robots.txt Datei deiner Website. Stelle sicher, dass der User-Agent „LymbeBot" nicht blockiert wird.

Manueller Text

Für FAQ-Einträge, Richtlinien oder spezifische Informationen kannst du Text direkt eingeben. Das ist besonders nützlich für:

  • Häufig gestellte Fragen (FAQ) mit exakten Antworten
  • Firmendaten wie Öffnungszeiten, Adresse, Kontaktinformationen
  • Produktinformationen, die nicht auf der Website stehen
  • Interne Richtlinien für die Bot-Antworten
  • Korrekturen oder Ergänzungen zu bestehenden Dokumenten

API-Quellen

Für dynamische Inhalte (z. B. aktuelle Preise, Lagerbestände) kannst du eine externe API als Quelle einbinden. Der Bot ruft die Daten bei Bedarf in Echtzeit ab.

api-source-config.jsonjson
{
  "name": "Produkt-API",
  "url": "https://api.example.com/products",
  "method": "GET",
  "headers": {
    "Authorization": "Bearer {{API_TOKEN}}"
  },
  "refreshInterval": 3600,
  "jsonPath": "$.products[*]",
  "fieldMapping": {
    "title": "$.name",
    "content": "$.description",
    "metadata": {
      "price": "$.price",
      "stock": "$.inStock"
    }
  }
}

Chunk-Editor

Alle Inhalte werden in Chunks (Textabschnitte) aufgeteilt und als Vektoren gespeichert. Im Chunk-Editor kannst du:

  • Einzelne Chunks bearbeiten, um die Qualität der Antworten zu verbessern
  • Chunks zusammenführen, wenn zusammenhängende Informationen getrennt wurden
  • Chunks aufteilen, wenn ein Chunk zu viele verschiedene Themen enthält
  • Chunks löschen, die irrelevant oder fehlerhaft sind
  • Metadaten hinzufügen (z. B. Kategorie, Gültigkeitsdatum)
  • Die Ähnlichkeitssuche testen: Gib eine Frage ein und sieh, welche Chunks der Bot finden würde

Best Practices

  • Starte mit den 20 häufigsten Kundenfragen als manuellen Text
  • Lade wichtige Dokumente wie AGB, Datenschutzerklärung und Produktkataloge hoch
  • Nutze den Crawler für deine Website, aber beschränke ihn auf relevante Bereiche
  • Überprüfe regelmäßig die Chunk-Qualität im Editor
  • Teste den Bot nach jedem Update der Wissensdatenbank
  • Halte die Wissensdatenbank aktuell – veraltete Informationen führen zu falschen Antworten
  • Nutze die Ähnlichkeitssuche im Chunk-Editor um Lücken zu finden

Limits nach Plan

PlanDokumenteCrawler-SeitenAPI-QuellenGesamt-Chunks
Free5500500
Pro5020035.000
Business2005001020.000
EnterpriseUnbegrenzt1.000Unbegrenzt100.000