Oracle HeatWave GenAI bietet integrierte, automatisierte und sichere generative KI mit datenbankinternen großen Sprachmodellen (LLMs), einem automatisierten Vektorspeicher in der Datenbank, Scale-out-Vektorverarbeitung und der Möglichkeit, kontextbezogene Konversationen in natürlicher Sprache zu führen. So können Sie die Vorteile generativer KI ohne KI-Expertise, Datenbewegung oder zusätzliche Kosten nutzen. HeatWave GenAI ist auf Oracle Cloud Infrastructure (OCI), Amazon Web Services (AWS) und Microsoft Azure verfügbar.
Sehen Sie sich die Aufzeichnung der Keynote von Chief Corporate Architect Edward Screven auf der Oracle CloudWorld an: „Generative KI-Anwendungen erstellen – integriert und automatisiert mit HeatWave GenAI“.
Entdecken Sie gemeinsam mit uns, wie Sie vom HeatWave-Portfolio profitieren können.
Fordern Sie einen kostenlosen Workshop mit Experten an, um HeatWave zu bewerten oder erste Schritte mit der Lösung zu unternehmen.
Erfahren Sie, wie SmarterD seine Roadmap um 12 Monate beschleunigt und mit Oracle HeatWave GenAI in nur einem Monat von der Entwicklung zur Produktion übergegangen ist.
Die Analysten von Nucleus Research befragten mehrere Organisationen, die HeatWave verwenden, und berichteten von erheblichen Betriebsverbesserungen, darunter einer hundertfachen Steigerung bei hybriden OLTP/OLAP-Abfragen.
Verwenden Sie datenbankinterne LLMs über Clouds und Regionen hinweg, um Daten abzurufen und Inhalte zu generieren oder zusammenzufassen – ohne den Aufwand für die Auswahl und Integration einer externen LLM.
Lassen Sie Ihre geschützten Dokumente von LLMs durchsuchen, um genauere und kontextrelevante Antworten zu erhalten – ohne KI-Expertise oder Verschieben von Daten in eine separate Vektordatenbank. HeatWave GenAI automatisiert die Einbettungsgenerierung.
Erhalten Sie schnelle Einblicke aus Ihren Dokumenten über Unterhaltungen in natürlicher Sprache. Die Chatschnittstelle HeatWave behält den Kontext bei, um „menschliche“ Unterhaltungen mit Nachfassfragen zu ermöglichen.
Verwenden Sie die integrierten LLMs in allen Oracle Cloud Infrastructure (OCI)-Regionen, OCI Dedicated Region und Cloud-übergreifend und erzielen Sie konsistente Ergebnisse mit vorhersehbarer Leistung über alle Bereitstellungen hinweg. Reduzieren Sie die Infrastrukturkosten, indem Sie die Bereitstellung von GPUs überflüssig machen.
Greifen Sie über den OCI Generative AI-Dienst auf vorab trainierte Basismodelle von Cohere und Meta zu, wenn Sie HeatWave GenAI auf OCI verwenden, und über Amazon Bedrock, wenn Sie HeatWave GenAI auf AWS verwenden.
Führen Sie kontextbezogene Unterhaltungen in natürlicher Sprache auf der Grundlage Ihrer unstrukturierten Daten im HeatWave Vector Store. Darüber hinaus können Sie den integrierten Lakehouse Navigator nutzen, um LLMs bei der Suche nach bestimmten Datensätzen zu unterstützen. So können Sie die Kosten senken und erhalten schneller genauere Ergebnisse.
HeatWave Vector Store speichert Ihre firmeneigenen Dokumente in verschiedenen Formaten und dient als Wissensbasis für Retrieval-Augmented Generation (RAG), damit Sie genauere und kontextbezogene Antworten erhalten – ohne Daten in eine separate Vektordatenbank verschieben zu müssen.
Nutzen Sie die automatisierte Pipeline, um proprietäre Dokumente im HeatWave Vector Store zu entdecken und aufzunehmen. So können Entwickler und Analysten ohne KI-Kenntnisse den Vektorspeicher einfacher verwenden.
Die Vektorverarbeitung wird auf bis zu 512 HeatWave-Clusterknoten parallelisiert und mit der Speicherbandbreite ausgeführt. Dies trägt dazu bei, schnelle Ergebnisse mit einer geringeren Wahrscheinlichkeit eines Genauigkeitsverlusts zu liefern.
Lesen Sie die technische Zusammenfassung zu HeatWave GenAI.
„HeatWave GenAI macht es extrem einfach, generative KI zu nutzen. Die Unterstützung von datenbankinternen LLMs und datenbankinterner Vektorerstellung führt zu einer erheblichen Verringerung der Anwendungskomplexität und vorhersehbarer Inferenzlatenz. Vor allem entstehen keine zusätzlichen Kosten für uns, um die LLMs zu verwenden oder die Einbettungen zu erstellen. Dies ist wirklich die Demokratisierung der generativen KI, und wir glauben, dass dies zur Entwicklung von reichhaltigeren Anwendungen mit HeatWave GenAI und signifikanten Produktivitätssteigerungen für unsere Kunden führen wird.“
—Vijay Sundhar, CEO, SmarterD
„Wir nutzen die datenbankinterne HeatWave AutoML intensiv, um unseren Kunden verschiedene Empfehlungen zu geben. Die Unterstützung von HeatWave für datenbankinterne LLMs und Vektorspeicher ist ein Alleinstellungsmerkmal. Und die Fähigkeit, generative KI mit AutoML zu integrieren, unterscheidet HeatWave weiterhin von anderen Angeboten in der Branche, wodurch wir unseren Kunden neue Arten von Fähigkeiten anbieten können. Die Synergie mit AutoML verbessert auch die Leistung und Qualität der LLM-Ergebnisse.“
—Safarath Shafi, CEO, EatEasy
„Datenbankinterne LLMs und Vektorspeicher von HeatWave, skalierbare In-Memory-Vektorverarbeitung und HeatWave Chat sind sehr differenzierte Fähigkeiten von Oracle, die generative KI demokratisieren und sie sehr einfach, sicher und kostengünstig einsetzbar machen. Der Einsatz von HeatWave und AutoML für unsere Unternehmensanforderungen hat unser Geschäft bereits in mehrfacher Hinsicht verändert, und die Einführung dieser Innovation von Oracle wird wahrscheinlich das Wachstum einer neuen Klasse von Anwendungen ankurbeln, bei denen Kunden nach Möglichkeiten suchen, generative KI für ihre Unternehmensinhalte zu nutzen.“
—Eric Aguilar, Founder, Aiwifi
Mit integrierten LLMs und dem HeatWave Chat können Sie Apps bereitstellen, die für kontextbezogene Unterhaltungen in natürlicher Sprache vorkonfiguriert sind. Es sind keine externen LLMs und GPUs erforderlich.
Mit HeatWave GenAI können Sie problemlos mit Ihren Daten kommunizieren, nach Ähnlichkeiten in Dokumenten suchen und Informationen aus Ihren eigenen Daten abrufen.
Geben Sie Entwicklern und Unternehmensteams integrierte Funktionen und Automatisierungen an die Hand, um die Vorteile der generativen KI zu nutzen. Ermöglichen Sie ganz einfach Gespräche in natürlicher Sprache und RAG.
Sie können die datenbankinternen LLMs verwenden, um Inhalte auf der Grundlage Ihrer unstrukturierten Dokumente zu erstellen oder zusammenzufassen. Die Nutzer können über Anwendungen Fragen in natürlicher Sprache stellen, und der LLM wird die Anfrage bearbeiten und den Inhalt liefern.
Sie können die Leistung der generativen KI mit anderen integrierten HeatWave-Funktionen, wie z. B. dem maschinellen Lernen, kombinieren, um Kosten zu senken und schneller genauere Ergebnisse zu erzielen. In diesem Beispiel tut ein Fertigungsunternehmen dies für die vorausschauende Wartung. Ingenieure können Oracle HeatWave AutoML verwenden, um automatisch einen Bericht über anomale Produktionsprotokolle zu erstellen, und HeatWave GenAI hilft bei der schnellen Ermittlung der Grundursache des Problems, indem einfach eine Frage in natürlicher Sprache gestellt wird, anstatt die Protokolle manuell zu analysieren.
Chatbots können RAG nutzen, um z. B. Fragen von Mitarbeitern zu internen Unternehmensrichtlinien zu beantworten. Interne Dokumente mit Details zu Policys werden als Einbettungen im HeatWave Vector Store gespeichert. Der Vektorspeicher identifiziert bei einer Benutzerabfrage die jeweils ähnlichsten Dokumente, indem er eine Ähnlichkeitssuche in den gespeicherten Einbettungen in Bezug auf die eingebettete Abfrage durchführt. Diese Dokumente werden verwendet, um den Prompt, den das LLM erhalten hat, anzureichern, sodass es eine genaue Antwort liefert.
Entwickler können Anwendungen erstellen, die die kombinierte Leistung des integrierten ML und der generativen KI in HeatWave nutzen, um personalisierte Empfehlungen bereitzustellen. In diesem Beispiel verwendet die Anwendung das HeatWave AutoML-Empfehlungssystem, um Restaurants auf der Grundlage der Vorlieben des Benutzers oder seiner früheren Bestellungen zu empfehlen. Mit HeatWave Vector Store kann die Anwendung zusätzlich die Speisekarten von Restaurants im PDF-Format durchsuchen, um bestimmte Gerichte vorzuschlagen und dem Kunden einen größeren Nutzen zu bieten.
Die Ähnlichkeitssuche konzentriert sich auf die Suche nach verwandten Inhalten auf der Grundlage der Semantik. Die Ähnlichkeitssuche geht über die einfache Suche nach Schlüsselwörtern hinaus, indem sie die zugrundeliegende Bedeutung berücksichtigt, anstatt nur nach den verwendeten Tags zu suchen. In diesem Beispiel möchte ein Anwalt schnell eine potenziell problematische Klausel in Verträgen identifizieren.
Nipun Agarwal, Oracle Senior Vice President, HeatWave and MySQL Development
Oracle HeatWave bietet automatisierte, integrierte und sichere generative KI und maschinelles Lernen (ML) in einem vollständig verwalteten Cloud-Service für Transaktionen und Analysen im Lakehouse-Skalierungsanalysen. Die neuen Funktionen sind im gesamten HeatWave-Portfolio verfügbar, sowohl auf OCI als auch auf AWS.
„Die technischen Innovationen von HeatWave setzen die Vision einer universellen Cloud-Datenbank fort. Das Neueste ist die generative KI im HeatWave-Stil, die die Integration eines automatisierten, datenbankinternen Vektorspeichers und datenbankinterner LLMs direkt in den HeatWave-Kern umfasst. Dies ermöglicht es Entwicklern, neue Klassen von Anwendungen zu schaffen, indem sie HeatWave-Elemente kombinieren.“
„HeatWave macht einen großen Schritt, um generative KI und Retrieval-Augmented Generation (RAG) zugänglicher zu machen, indem es die gesamte Komplexität der Erstellung von Vektoreinbettungen zentralisiert. Die Entwickler verweisen einfach auf die Quelldateien, die im Cloud-Objektspeicher liegen, und HeatWave übernimmt dann die schwere Arbeit.“
Folgen Sie den Schritt-für-Schritt-Anleitungen und verwenden Sie den von uns bereitgestellten Code, um schnell und einfach Anwendungen mit HeatWave GenAI zu erstellen.
Registrieren Sie sich für eine kostenlose Testversion von HeatWave GenAI. Sie erhalten 300 US-Dollar Cloud-Guthaben, um die Funktionen 30 Tage lang zu testen und zeitlich unbegrenzt kostenlos auf zahlreiche HeatWave-Funktionen zuzugreifen.
Möchten Sie mehr über HeatWave GenAI erfahren? Einer unserer Experten wird Ihnen gerne helfen.