Datenbankinterne große Sprachmodelle (LLMs) vereinfachen die Entwicklung von GenAI-Anwendungen erheblich. Sie können in kürzester Zeit von generativer KI profitieren, ohne ein externes LLM auswählen zu müssen, und Sie müssen sich keine Gedanken über die Komplexität und die Kosten der Integration oder die Verfügbarkeit eines externen LLM in verschiedenen Rechenzentren machen.
Entwicklung generativer KI-Apps für eine Vielzahl von Anwendungsfällen in verschiedenen Clouds
Reduzierung von Kosten und Risiken
Mit HeatWave Vector Store können Sie die Leistung von LLMs mit Ihren eigenen Daten kombinieren, um genauere und kontextrelevante Antworten zu erhalten als mit Modellen, die nur auf öffentlichen Daten trainiert wurden. Der Vektorspeicher nimmt Dokumente in einer Vielzahl von Formaten auf, einschließlich PDFs, und speichert sie als Einbettungen, die über ein Einbettungsmodell generiert werden. Der Vektorspeicher identifiziert bei einer Benutzerabfrage die jeweils ähnlichsten Dokumente, indem er eine Ähnlichkeitssuche in den gespeicherten Einbettungen in Bezug auf die eingebettete Abfrage durchführt. Diese Dokumente werden verwendet, um den Prompt, den das LLM erhalten hat, anzureichern, sodass es eine kontextbezogenere Antwort für Ihr Unternehmen liefert.
Keine KI-Kenntnisse erforderlich
Kosten und Risiken können gesenkt werden
Die Vektorverarbeitung wird durch die In-Memory- und Scale-Out-Architektur von HeatWave beschleunigt. HeatWave unterstützt einen neuen nativen VECTOR-Datentyp, mit dem Sie Standard-SQL zum Erstellen, Verarbeiten und Verwalten von Vektordaten verwenden können.
Mit einer neuen HeatWave-Chatschnittstelle können Sie kontextbezogene Unterhaltungen im Vektorspeicher mit natürlicher Sprache durch proprietäre Dokumente erweitern.