Alan Zeichick | Tech Content Strategist | 19 septembrie 2023
Inteligența artificială (AI) generativă excelează în crearea răspunsurilor textuale bazate pe modele lingvistice mari (LLM), în care inteligența artificială este antrenată pe un număr masiv de date. Vestea bună este că de cele mai multe ori textul generat este ușor de citit și oferă răspunsuri detaliate care se aplică în mare măsură la întrebările adresate software-ului, adesea numite „prompts”.
Vestea mai puțin plăcută este că informațiile utilizate pentru a genera răspunsul sunt limitate la informațiile utilizate pentru a antrena inteligența artificială, de obicei un LLM generalizat. Datele din LLM pot fi învechite (de săptămâni, luni sau chiar ani), iar într-un chatbot AI corporativ s-ar putea să nu includă informații specifice despre produsele sau serviciile organizației. Acest lucru poate duce la răspunsuri incorecte care diminuează încrederea clienților și angajaților în tehnologie.
Aici intervine RAG. RAG oferă o modalitate de a optimiza rezultatul unui LLM cu informații specifice fără a modifica modelul de bază în sine. Aceste informații specifice pot fi mai actuale decât modelul LLM, precum și specifice unei anumite organizații și industrii. Aceasta înseamnă că sistemul de inteligență artificială generativă poate oferi răspunsuri mai adecvate din punct de vedere contextual la solicitări, și își poate baza aceste răspunsuri pe date extrem de actuale.
RAG a intrat pentru prima dată în atenția dezvoltatorilor de inteligență artificială generativă după publicarea lucrării „Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks”, o lucrare din 2020 publicată de Patrick Lewis și o echipă de la Facebook AI Research. Conceptul RAG a fost preluat de mulți cercetători din mediul academic și din industrie, care îl consideră o modalitate de a îmbunătăți semnificativ valoarea sistemelor de inteligență artificială generativă.
Gândiți-vă la un campionat sportiv care dorește ca fanii și media să poată folosi chat-ul pentru a accesa datele sale și a răspunde la întrebări despre jucători, echipe, istoria și regulile sportului, precum și statisticile și clasamentele actuale. Un LLM generalizat ar putea răspunde la întrebări despre istorie și reguli, sau poate că ar putea descrie stadionul unei anumite echipe. Nu ar fi capabil însă să discute despre meciul de aseară sau să ofere informații actuale despre accidentarea unui anumit jucător, deoarece modelul LLM nu ar avea aceste informații – și, având în vedere că un LLM necesită o putere de calcul semnificativă pentru a se perfecționa, nu este viabil să se mențină modelul la zi.
În plus, pe lângă LLM-ul mare și destul de static, campionatul sportiv deține sau poate accesa multe alte surse de informații, inclusiv baze de date, depozite de date, documente care conțin biografii ale jucătorilor și fluxuri de știri care discută în detaliu fiecare meci. RAG permite inteligenței artificiale generative să absoarbă aceste informații. În felul acesta, chat-ul poate oferi informații mai oportune, mai adecvate contextului și mai precise.
Pe scurt, RAG ajută modelele LLM să ofere răspunsuri mai bune.
Concluzii cheie
Gândiți-vă la toate informațiile pe care le deține o organizație – baze de date structurate, PDF-uri nestructurate și alte documente, bloguri, știri, transcrieri de chat din sesiunile anterioare de asistență pentru clienți. În RAG, această cantitate imensă de date dinamice este transpusă într-un format comun și stocată într-o bibliotecă de cunoștințe care este accesibilă sistemului de inteligență artificială generativă.
Datele din această bibliotecă de cunoștințe sunt apoi prelucrate în reprezentări numerice cu ajutorul unui tip special de algoritm numit model de limbaj încorporat și sunt stocate într-o bază de date vectorială, care poate fi căutată și utilizată rapid pentru a prelua informațiile contextuale corecte.
Acum, să presupunem că utilizatorul trimite sistemului generativ de inteligență artificială o solicitare specifică, de exemplu, „Unde se va juca meciul din seara aceasta, care sunt jucătorii titulari și ce spun reporterii despre acest meci?” Solicitarea este transformată într-un vector și utilizată pentru a solicita baza de date vectorială, care recuperează informații relevante pentru contextul întrebării respective. Aceste informații contextuale și solicitarea originală sunt apoi introduse în LLM, care generează un răspuns textual bazat atât pe cunoștințele sale generalizate oarecum învechite, cât și pe informațiile contextuale extrem de actuale.
Interesant este că, în timp ce procesul de antrenare a LLM-ului generalizat este îndelungat și costisitor, actualizarea modelului RAG este exact invers. Date noi pot fi încărcate în modelul lingvistic încorporat și traduse în vectori în mod continuu și progresiv. De fapt, răspunsurile de la întregul sistem de inteligență artificială generativă pot fi reintroduse în modelul RAG, îmbunătățind performanța și acuratețea acestuia, deoarece, practic, acesta știe cum a răspuns deja la o întrebare similară.
Un beneficiu suplimentar al tehnologiei RAG este că, prin utilizarea bazei de date vectoriale, inteligența artificială generativă poate furniza sursa specifică de date citată în răspunsul său – ceea ce un LLM nu poate oferi. Prin urmare, dacă există o inexactitate în rezultatul inteligenței artificiale generative, documentul care conține acele informații eronate poate fi identificat și corectat rapid, iar apoi informațiile corectate pot fi introduse în baza de date vectoriale.
Pe scurt, RAG oferă inteligenței artificiale generative actualitate, context și acuratețe bazate pe dovezi, depășind ceea ce poate oferi LLM-ul de unul singur.
RAG nu este singura tehnică utilizată pentru a îmbunătăți acuratețea inteligenței artificiale generative pe bază de LLM. O altă tehnică este căutarea semantică, care ajută sistemul de inteligență artificială să limiteze sensul unei solicitări prin căutarea unei înțelegeri profunde a cuvintelor și frazelor specifice din solicitare.
Căutarea tradițională se axează pe cuvinte cheie. De exemplu, o solicitare de bază despre speciile de copaci indigene din Franța ar putea căuta în baza de date a sistemului de inteligență artificială folosind „arbori” și „Franța” ca cuvinte cheie și ar putea găsi date care conțin ambele cuvinte cheie – dar este posibil ca sistemul să nu înțeleagă cu adevărat semnificația copacilor din Franța și, prin urmare, să recupereze ori prea multe informații, ori prea puține, sau chiar informații greșite. Această căutare bazată pe cuvinte cheie ar putea, de asemenea, să omită informații deoarece căutarea bazată pe cuvinte cheie este prea literală: Arborii originari din Normandie, de exemplu, ar putea fi omiși, chiar dacă se află în Franța, pentru că lipsește acest cuvânt cheie.
Căutarea semantică merge mai departe decât căutarea pe bază de cuvinte cheie, determinând semnificația întrebărilor și a documentelor sursă și utilizând această semnificație pentru a obține rezultate mai precise. Căutarea semantică este o parte integrală a tehnologiei RAG.
În cazul în care o persoană are nevoie de un răspuns instantaneu la o întrebare, este greu de întrecut promptitudinea și ușurința de utilizare a unui chatbot. Majoritatea roboților sunt antrenați pe un număr finit de intenții – adică sarcinile sau rezultatele dorite de client – și răspund la aceste intenții. Capacitățile RAG pot face ca roboții actuali să fie mai buni, permițând sistemului de inteligență artificială să ofere răspunsuri în limbaj natural la întrebări care nu se regăsesc în lista de intenții.
Paradigma „pune o întrebare, primește un răspuns” face din roboții de chat un caz de utilizare perfect pentru inteligența artificială generativă, din mai multe motive. Întrebările necesită adesea un context specific pentru a genera un răspuns corect și, având în vedere că așteptările utilizatorilor de roboți de chat privind relevanța și acuratețea sunt adesea ridicate, este clar cum se aplică tehnicile RAG. De fapt, pentru multe organizații, roboții de chat pot fi într-adevăr punctul de plecare pentru utilizarea RAG și a inteligenței artificiale generative.
Întrebările necesită adesea un context specific pentru a oferi un răspuns corect. De exemplu, întrebările clienților cu privire la un produs nou introdus nu sunt utile dacă datele se referă la modelul anterior și, de fapt, pot fi înșelătoare. Iar un drumeț care vrea să știe dacă un parc este deschis duminica aceasta se așteaptă la informații corecte și prompte despre un anumit parc, la o anumită dată.
Tehnicile RAG pot fi utilizate pentru a îmbunătăți calitatea răspunsurilor unui sistem de inteligență artificială generativă la solicitări, dincolo de ceea ce poate oferi un LLM de unul singur. Printre beneficiile oferite se numără următoarele:
Deoarece RAG este o tehnologie relativ nouă, propusă pentru prima dată în 2020, dezvoltatorii de inteligență artificială încă învață cum să implementeze cel mai bine mecanismele sale de recuperare a informațiilor în inteligența artificială generativă. Unele provocări cheie sunt următoarele:
Există multe exemple de inteligență artificială generativă completată de RAG.
Cohere, un lider în domeniul inteligenței artificiale generative și al RAG, a prezentat un robot de chat care poate oferi informații contextuale despre o locuință de vacanță în Insulele Canare, inclusiv răspunsuri bazate pe fapte despre accesibilitatea plajelor, salvamarii pe plajele din apropiere și disponibilitatea terenurilor de volei la distanță de mers pe jos.
Oracle a mai prezentat și alte cazuri de utilizare a sistemului RAG, cum ar fi analiza rapoartelor financiare, asistență în descoperirea de gaze și petrol, revizuirea transcrierilor din conversațiile cu clienții din call center și căutarea în bazele de date medicale pentru lucrări de cercetare relevante.
Astăzi, în fazele incipiente ale RAG, tehnologia este utilizată pentru a oferi răspunsuri prompte, precise și contextuale la solicitări. Aceste cazuri de utilizare sunt adecvate pentru roboți de chat, e-mail, mesaje text și alte aplicații conversaționale.
În viitor, direcțiile posibile pentru tehnologia RAG ar fi sprijinirea inteligenței artificiale generative pentru a întreprinde o acțiune adecvată pe baza informațiilor contextuale și a indicațiilor utilizatorului. De exemplu, un sistem de inteligență artificială cu RAG ar putea identifica cea mai bine cotată proprietate de vacanță pe plajele din Insulele Canare și apoi ar putea iniția rezervarea unei cabane cu două dormitoare la distanță mică de plajă în timpul unui turneu de volei.
De asemenea, RAG ar putea fi în măsură să ofere asistență în cazul unor întrebări mai sofisticate. În prezent, inteligența artificială generativă ar putea fi capabilă să informeze un angajat despre politica de rambursare a taxelor de școlarizare a companiei. RAG ar putea adăuga mai multe date contextuale pentru a-i spune angajatului care sunt școlile din apropiere care oferă cursuri corespunzătoare acestei politici și poate recomanda programe care se potrivesc jobului angajatului și pregătirii anterioare – poate chiar să-l ajute să aplice pentru aceste programe și să inițieze o cerere de rambursare.
Oracle oferă o gamă largă de servicii AI avansate bazate pe cloud, inclusiv serviciul OCI Generative AI care rulează pe Oracle Cloud Infrastructure (OCI). Ofertele Oracle cuprind modele solide bazate pe datele unice ale organizației dumneavoastră și pe cunoștințele din domeniu. Datele clienților nu sunt partajate cu furnizorii de LLM și nici nu sunt văzute de alți clienți, iar modelele personalizate antrenate pe datele clienților pot fi utilizate doar de către aceștia.
În plus, Oracle integrează AI generativă în gama sa largă de aplicații cloud, iar capacitățile de inteligență artificială generativă sunt disponibile pentru dezvoltatorii care utilizează OCI și în întregul său portofoliu de baze de date. În plus, serviciile de inteligență artificială Oracle oferă performanțe și prețuri previzibile, utilizând clustere de inteligență artificială cu o singură entitate găzduită, dedicate utilizării dumneavoastră.
Puterea și capacitățile LLM-urilor și ale inteligenței artificiale generative sunt cunoscute și înțelese pe scară largă. Acestea au fost subiectul a nenumărate titluri de știri în ultimul an. RAG valorifică avantajele LLM-urilor, făcându-le mai actuale, mai precise și mai contextuale. Pentru aplicațiile de afaceri ale inteligenței artificiale generative, RAG este o tehnologie importantă de urmărit, studiat și pilotat.
Oracle oferă o platformă de date modernă și o infrastructură AI cu costuri reduse, de înaltă performanță. Factorii suplimentari, cum ar fi modelele puternice, cu performanțe ridicate, securitatea datelor de neegalat și serviciile AI integrate, demonstrează de ce oferta AI de la Oracle este cu adevărat construită pentru întreprinderi.
Este RAG același lucru cu AI generativă?
Nu. RAG este o tehnică care poate oferi rezultate mai precise la solicitări decât un LLM generativ de sine stătător, deoarece RAG utilizează cunoștințe externe față de datele deja conținute în LLM.
Ce tip de informații se utilizează în RAG?
RAG poate încorpora date din mai multe surse, cum ar fi baze de date relaționale, depozite de documente nestructurate, fluxuri de date pe internet, fluxuri de știri media, transcrieri audio și jurnale de tranzacții.
Cum utilizează AI generativă RAG?
Datele din sursele de date din întreprinderi sunt încorporate într-un depozit de cunoștințe și apoi convertite în vectori, care sunt stocați într-o bază de date vectorială. Când un utilizator efectuează o solicitare, baza de date vectorială recuperează informațiile contextuale relevante. Aceste informații contextuale, împreună cu solicitarea, sunt trimise la modelul lingvistic mare, care utilizează contextul pentru a crea un răspuns mai rapid, mai precis și mai contextual.
Poate un RAG să citeze referințe pentru datele pe care le extrage?
Da. Bazele de date vectoriale și depozitele de cunoștințe utilizate de RAG conțin informații specifice cu privire la sursele de informații. Prin urmare, sursele pot fi citate, iar dacă există o eroare în una dintre aceste surse, aceasta poate fi corectată sau ștearsă rapid, astfel încât interogările ulterioare să nu mai returneze informațiile incorecte.