Met in-database grote taalmodellen (large language models, LLM's) kan de ontwikkeling van GenAI-applicaties aanzienlijk worden vereenvoudigd. U kunt snel profiteren van generatieve AI en u hoeft geen externe LLM te selecteren of rekening te houden met de complexiteit van de integratie, de kosten of de beschikbaarheid van een externe LLM in verschillende datacenters.
Met HeatWave Vector Store kunt u de kracht van LLM's combineren met uw eigen gegevens om nauwkeurigere en contextueel relevantere antwoorden te krijgen dan met modellen die alleen zijn getraind aan de hand van openbare gegevens. In de vectoropslag worden documenten opgenomen in verschillende indelingen, waaronder pdf, en opgeslagen als embeddingen die worden gegenereerd via een embeddingsmodel. Voor een bepaalde gebruikersquery helpt de vectoropslag de meest vergelijkbare documenten te identificeren door een zoekopdracht naar overeenkomsten uit te voeren op basis van de opgeslagen embeddingen en de embedded query. Deze documenten worden gebruikt om de prompt die aan de LLM wordt gegeven, uit te breiden, zodat deze een meer contextueel antwoord kan geven voor uw bedrijf.
Vectorverwerking gaat sneller met de in-memory en scale-out architectuur van HeatWave. HeatWave ondersteunt een nieuw native VECTOR-gegevenstype, waarmee u standaard-SQL kunt gebruiken om vectorgegevens te maken, verwerken en beheren.
Met de nieuwe HeatWave Chat-interface kunt u contextuele gesprekken uitbreiden met eigen documenten in de vectoropslag, in een natuurlijke taal.