Was ist Natural Language Processing (NLP)?

Caroline Eppright | Content Strategist | 25. März 2021

Definition von Natural Language Processing (NLP)

Natural Language Processing (NLP) ist ein Zweig der künstlichen Intelligenz (KI), der es Computern ermöglicht, menschliche Sprache zu verstehen, zu erzeugen und zu bearbeiten. Natural Language Processing ist in der Lage, Daten über Texte oder Sprachmitteilungen in natürlicher Sprache abzufragen. Das wird auch als „Sprache ein“ (langauge in) bezeichnet. Die meisten Verbraucher haben wahrscheinlich bereits schon einmal mit NLP interagiert, ohne sich dessen bewusst zu sein. Zum Beispiel stellt NLP die Kerntechnologie von virtuellen Assistenten wie dem Oracle Digital Assistant (ODA) oder Siri, Cortana und Alexa dar. Wenn wir diesen virtuellen Assistenten Fragen stellen, ermöglicht ihnen NLP nicht nur, die Anfrage des Benutzers zu verstehen, sondern auch in natürlicher Sprache darauf zu antworten. NLP lässt sich sowohl auf geschriebenen Text wie auch auf gesprochene Sprache anwenden. Dabei ist es auf alle menschlichen Sprachen anwendbar. Andere Beispiele für Tools, die auf NLP basieren, sind Websuchen, E-Mail-Spamfilter, die automatische Übersetzung von Text oder Sprache, die Zusammenfassung von Dokumenten, Sentimentanalysen sowie die Grammatik- und Rechtschreibprüfung. Zum Beispiel kann ein E-Mail-Programm automatisch auf der Basis ihres Inhalts eine passende Antwort zu einer Nachricht vorschlagen – derartige Programme verwenden NLP, um Ihre Mitteilung zu lesen, zu analysieren und zu beantworten.

Es gibt noch einige andere Begriffe, die mit NLP ungefähr bedeutungsgleich sind. Natural Language Understanding (NLU) und Natural Language Generation (NLG) beziehen sich auf die Verwendung von Computern, um menschliche Sprache zu verstehen beziehungsweise zu erzeugen. NLG ist in der Lage zu einem Geschehen eine verbale Beschreibung abzugeben. Dieser Vorgang wird auch als „Language out“ bezeichnet, bei dem aussagekräftige Informationen mithilfe eines Konzepts, das als „Grammatik der Grafiken“ bekannt ist, in Textform zusammengefasst werden.

In der Praxis wird NLU synonym mit NLP verwendet. Dadurch, dass Computer die Struktur und Bedeutung aller menschlichen Sprachen verstehen können, können Entwickler und Benutzer mit natürlichen Sätzen und natürlicher Kommunikation mit Computern interagieren. Bei der Computer-Linguistik (CL) handelt es sich um die wissenschaftliche Disziplin, die die rechnerischen Aspekte menschlicher Sprache untersucht. NLP wiederum ist die technische Fachrichtung, bei der das Erstellen von Rechnerartefakten im Mittelpunkt steht, die menschliche Sprache verstehen, erzeugen und bearbeiten können.

Die Forschung an der NLP begann bereits kurz nach der Erfindung von digitalen Computern in den 1950er Jahren. NLP stützt sich sowohl auf die Linguistik als auch auf die KI. Allerdings beruhen die großen Durchbrüche der letzten Jahre auf dem maschinellen Lernen, das ein Zweig der KI ist, der Systeme entwickelt, die aus Daten lernen und aus diesen allgemeingültige Schlussfolgerungen ziehen können. Deep Learning ist eine Art des maschinellen Lernens, die aus großen Datasets sehr komplexe Muster ableiten kann. Dadurch eignet es sich ideal, um die Komplexitäten menschlicher Sprache aus Datasets zu lernen, die aus dem Internet stammen.

Anwendungen des Natural Language Processing

Automatisierung von Routineaufgaben: Chatbots, die auf NLP basieren, können eine große Anzahl von Routineaufgaben durchführen, der derzeit von menschlichen Mitarbeitern bearbeitet werden. Dadurch steht mehr Zeit für anspruchsvollere und interessantere Aufgaben zur Verfügung. Zum Beispiel können Chatbots und digitale Assistenten viele unterschiedliche Benutzeranfragen erkennen, sie mit dem entsprechenden Eintrag einer Unternehmensdatenbank abgleichen und für den Benutzer eine entsprechende Antwort formulieren.

Verbesserte Suche: NLP kann Suchen in Dokumenten und häufig gestellten Fragen, die auf dem Abgleich von Schlüsselwörtern basieren, verbessern. Dabei werden Wortsinne auf der Grundlage des Kontexts (zum Beispiel „Träger“ bedeutet im industriellen Bereich etwas anderes als in der Biomedizin) disambiguiert (d. h. eindeutig gemacht), Synonyme abgeglichen (zum Beispiel werden Dokumente, die „Auto“ enthalten, abgerufen, während der Suchbegriff „Automobil“ war) und morphologische Variationen berücksichtigt (was besonders bei Abfragen wichtig ist, die nicht auf Englisch sind). Effektive, auf NLP basierende Suchsysteme im akademischen Bereich bieten Ärzten, Anwälten und anderen Spezialisten einen erheblich besseren Zugriff auf die aktuellsten und relevantesten Forschungsergebnisse.

Suchmaschinenoptimierung: NLP ist ein hervorragendes Tool, um für Ihr Unternehmen ein besseres Ranking bei Online-Suchen zu erzielen. Dazu werden Suchen analysiert, um dann im Anschluss Ihre Inhalte zu optimieren. Suchmaschinen verwenden NLP, um die Rangfolge ihrer Suchergebnisse festzulegen – und wenn man weiß, wie man diese Techniken effektiv anwendet, kann man ein besseres Ranking als die Wettbewerber erreichen. Dadurch erzielt Ihr Unternehmen mehr Aufmerksamkeit.

Analyse und Organisation großer Dokumentensammlungen: NLP-Techniken wie das Clustern von Dokumenten oder die Themenmodellierung vereinfachen das Verstehen verschiedenartiger Inhalte in großen Dokumentensammlungen wie etwa Unterehmensberichten, Nachrichtenartikeln oder wissenschaftlichen Unterlagen. Diese Techniken kommen oft im Rahmen von juristischen Offenlegungen zum Einsatz.

Social Media-Analysen: NLP kann Kundenbewertungen und Kommentare auf Social Media analysieren, um ein besseres Verständnis großer Mengen an Informationen zu ermöglichen. Eine Sentimentanalyse identifiziert positive und negative Kommentare aus einem Stream von Social Media-Kommentaren und bietet so in Echtzeit ein direktes Maß der Kundenstimmung. Dadurch kann man sich langfristig enorme Vorteile sichern, etwa in Form einer höheren Kundenzufriedenheit oder gestiegener Umsätze.

Markteinblicke: Durch die Verwendung von NLP zur Analyse der Sprache der Kunden Ihres Unternehmens können Sie ein besseres Verständnis dafür entwickeln, was diese wirklich wollen und wie Sie noch besser mit ihnen kommunizieren können. Die aspektorientierte Sentimentanalyse erkennt Stimmungen in Social Media, die sich auf bestimmte Aspekte oder Produkte beziehen (zum Beispiel „die Tastatur ist klasse, aber der Bildschirm ist zu schwach“). Dadurch sichern Sie sich direkt handlungsunterstützende Informationen für Ihr Produktdesign und Marketing.

Moderieren von Inhalten: Falls Ihr Unternehmen viele Kommentare von Benutzern oder Kunden erhält, können Sie diese mit NLP moderieren, um die Qualität und Höflichkeit der Diskussion zu bewahren. Dabei werden nicht nur einzelne Worte, sondern auch der Tonfall und die Absicht der Kommentare analysiert.

Branchen, die Natural Language Processing verwenden

NLP vereinfacht und automatisiert eine Vielzahl von Geschäftsprozessen, insbesondere diejenigen, bei denen große Mengen an unstrukturiertem Text wie E-Mails, Umfragen, Social Media-Unterhaltungen und ähnliches miteinbezogen werden. Mithilfe von NLP können Unternehmen Ihre Daten besser analysieren, um die richtigen Entscheidungen zu treffen. Hier einige wenige Beispiele für die praktische Anwendung von NLP:

  • Gesundheitswesen: Gesundheitssysteme auf der ganzen Welt verwenden in zunehmendem Maße elektronische Patientenakten. Dabei müssen sie große Mengen an unstrukturierten Daten bewältigen. NLP kann dazu verwendet werden, um Patientenakten zu analysieren, um daraus neue Erkenntnisse zu gewinnen.
  • Rechtsberatung: Um sich auf einen Fall vorzubereiten, müssen Anwälte oft stundenlang eine große Menge an Dokumenten durchgehen und diese nach Inhalten absuchen, die für einen spezifischen Fall relevant sein könnten. Mit NLP-Technologie lässt sich der Prozess der rechtlichen Offenlegung automatisieren, sodass sowohl der Zeitaufwand wie auch das Risiko menschlicher Fehler reduziert werden, die sich sonst beim Durchforsten großer Mengen an Dokumenten ergeben würden.
  • Finanzwesen: Die Finanzwelt bewegt sich extrem schnell. Deshalb ist hier jeder einzelne Wettbewerbsvorteil von großer Bedeutung. Im Finanzsektor nutzen Trader NLP-Technologie, um automatisch Informationen aus Unternehmensdokumenten und Pressemitteilungen durchzugehen und so relevante Informationen zu extrahieren, die sie für die Verwaltung ihrer Portfolios und für ihre Trading-Entscheidungen nutzen können.
  • Kundenservice: Viele große Unternehmen verwenden virtuelle Assistenten oder Chatbots, um grundlegende Kundennachfragen oder Informationssuchen zu beantworten (wie zum Beispiel häufig gestellte Fragen). Dabei werden komplexe Fragen bei Bedarf an menschliche Mitarbeiter weitergeleitet.
  • Versicherungswesen: Große Versicherungsunternehmen nutzen NLP, um Dokumente und Berichte durchzugehen, die für Versicherungsansprüche relevant sein könnten. Dadurch versuchen sie, ihre Geschäftsprozesse zu optimieren.

NLP-Technologie – Überblick

Modelle auf der Basis maschinellen Lernens für NLP: Wie bereits erwähnt, stützt sich das moderne NLP stark auf einen KI-Ansatz, der als maschinelles Lernen bezeichnet wird. Maschinelles Lernen zieht aus den Beispielen in einem Dataset allgemeine Schlussfolgerungen und gibt auf dieser Grundlage Prognosen ab. Dieses Dataset wird als Trainingsdaten bezeichnet. Die Algorithmen für das maschinelle Lernen trainieren mit diesen Trainingsdaten und erstellen dann ein Modell, das eine bestimmte Zielaufgabe erfüllt.

So bestehen beispielsweise die Trainingsdaten einer Sentimentanalyse aus Sätzen und der dazugehörigen Stimmung (englisch: Sentiment). Diese kann zum Beispiel positiv, negativ oder neutral sein. Ein Algorithmus für maschinelles Lernen liest dieses Dataset und erstellt ein Modell, bei dem Sätze die Eingabe und die Sentiments die Ausgabe darstellen. Diese Art von Modell, bei dem Sätze oder Dokumente eingegeben werden und das darauf ein Label für die Eingabe ausgibt, wird Dokumentenklassifizierungsmodell genannt. Dokumentenklassifzierer können auch verwendet werden, um Dokumente nach den Themen, auf die sie eingehen, zu klassifizieren (zum Beispiel Sport, Finanzen, Politik usw.).

Eine andere Art von Modell wird genutzt, um Entitäten in Dokumenten zu erkennen und zu klassifizieren. Bei jedem Wort eines Dokuments prognostiziert das Modell, ob dieses Wort Teil einer Erwähnung der Entität ist. Wenn dies der Fall ist, wird angegeben, auf welche Art von Entität sich dies bezieht. Zum Beispiel ist in dem Textsegment „die Aktien der XYZ Corp wurden gestern für 28 US-Dollar gehandelt“ der Begriff „XYZ Corp“ ein Unternehmen, „28 US-Dollar“ ist ein Währungsbetrag und „gestern“ eine Datumsangabe. Die Trainingsdaten für die Entitätserkennung sind eine Sammlung von Texten, bei denen jedes Wort mit den Arten von Entitäten gelabelt ist, auf die sich das Wort bezieht. Diese Art von Modell, die für jedes eingegebene Wort ein Label erzeugt, wird als Sequence Labeling-Modell bezeichnet.

Sequence-to-Sequence-Modelle sind eine sehr neue Ergänzung in der Modellfamilie, die beim NLP zum Einsatz kommt. Bei einem Sequence-to-Sequence (oder seq2seq)-Modell wird ein ganzer Satz oder ein Dokument eingegeben (so wie beim Dokumentenklassifizierer). Aber hier besteht die Ausgabe in einem Satz oder einer anderen Sequenz (zum Beispiel einem Computerprogramm). (Ein Dokumentklassifizierer erzeugt nur ein einzelnes Symbol als Ausgabe). Ein Beispiel für die Anwendung des seq2seq-Modells sind maschinelle Übersetzungen, bei denen zum Beispiel ein englischer Satz die Eingabe und ein französischer Satz die Ausgabe ist. Andere Einsatzbereiche sind die Dokumentenzusammenfassung (bei denen die Ausgabe die Zusammenfassung der Eingaben ist) oder das semantische Parsen (bei dem die Eingabe eine Ab- oder Anfrage auf Englisch ist, worauf dann ein Computerprogamm ausgegeben wird, das die Anfrage implementiert).

Deep learning, vortrainierte Modelle und Transferlernen: Deep learning ist die am meisten verwendete Art des maschinellen Lernens beim NLP. In den 1980er Jahren entwickelten Forscher neuronale Netzwerke, bei denen eine große Anzahl primitiver Modelle für das maschinelle Lernen zu einem einzigen Netzwerk zusammengefasst werden. In Analogie zum menschlichen Gehirn werden diese einfachen Modelle für maschinelles Lernen manchmal auch „Neuronen“ genannt. Diese Neuronen sind in Schichten angeordnet. Ein tiefes neuronales Netzwerk besteht dabei aus vielen derartiger Schichten. Unter Deep Learning versteht man also maschinelles Lernen unter Verwendung tiefer neuronaler Netzwerkmodelle.

Da sie so komplex sind, benötigt man üblicherweise eine große Menge an Daten, um tiefe neuronale Netzwerke zu trainieren. Die Verarbeitung der Daten beansprucht dabei viel Rechenleistung und Zeit. Moderne NLP-Modelle mit tiefen neuronalen Netzwerken werden mit vielen unterschiedlichen Datenquellen trainiert, zum Beispiel Wikipedia und Daten, die aus dem Internet erfasst wurden. Die Trainingsdaten können dabei eine Größe von 10 GB oder mehr umfassen. Das Training des tiefen neuronalen Netzwerks dauert dann auch auf einem leistungsstarken Cluster manchmal eine Woche oder länger. (In der Forschung ist man der Ansicht, dass sich durch das Training noch tieferer Modelle mit noch größeren Datasets auch eine noch größere Performance erreichen lässt. Deswegen gibt es derzeit geradezu einen Wettlauf, immer größere Modelle mit immer größeren Datasets zu trainieren.)

Allerdings schränken die riesigen erforderlichen Datenmengen und die enorm hohe erforderliche Rechenleistung bei tiefen neuronalen Netzen deren Nützlichkeit ein. Transferlernen ermöglicht allerdings, ein bereits trainiertes tiefes neuronales Netzwerk weiterzutrainieren. So kann eine neue Aufgabe mit weitaus weniger Trainingsdaten und Rechenleistung bewältigt werden. Die einfachste Art des Transferlernens wird als Feinabstimmung bezeichnet. Diese besteht einfach darin, das Modell zunächst mit einem großen generischen Dataset zu trainieren (zum Beispiel Wikipedia). Beim weiteren Training (der Feinabstimmung) wird ein viel kleineres und aufgabenspezifisches Dataset verwendet, das mit der eigentlichen Zielaufgabe gelabelt ist. Auch wenn es überraschend sein mag, es reicht oft aus, wenn die Datasets zur Feinabstimmung extrem klein sind und nur aus ein paar Hundert oder gar nur einigen Dutzend Trainingsbeispielen bestehen. Und auf einer einzelnen CPU dauert die Feinabstimmung nur einige Minuten. Mithilfe des Transferlernens kann man Deep Learning-Modelle problemlos im ganzen Unternehmen einsetzen.

Inzwischen gibt es ein ganzes Ökosystem an Anbietern, die vortrainierte Deep Learning-Modelle bereitstellen, die auf verschiedene Sprachkombinationen, Datasets und vorbereitende Aufgaben trainiert sind. Diese vortrainierten Modelle können heruntergeladen und dann auf eine Vielzahl verschiedener Zielaufgaben feinabgestimmt werden.

Erfahren Sie, wie die Einrichtung eines KI-Center of Excellence (CoE) Ihren Erfolg mit NLP-Technologien steigern kann. Unser E-Book enthält Tipps zum Aufbau eines CoE und zur effektiven Nutzung fortgeschrittener Modelle des maschinellen Lernens.

Beispiel für NLP-Vorverarbeitungstechniken

Tokenisierung: Die Tokenisierung teilt den Rohtext (beispielsweise ein Satz oder ein Dokument) in eine Folge von Tokens auf wie etwa Worte oder Wortuntereinheiten. Die Tokenisierung ist oft der erste Schritt eines NLP-Verarbeitungsprozesses. Token sind häufig wiederkehrende Sequenzen, die bei der späteren Verarbeitung als atomare Einheiten behandelt werden. Dabei kann es sich um Wörter, Wortuntereinheiten, auch „Morpheme“ genannt (zum Beispiel Präfixe wie „un“- oder Suffixe wie „ing“- im Englischen) oder gar nur um einzelne Zeichen handeln.

Bag-of-Words-Modelle Bag-of-Words-Modelle behandeln Dokumente als ungeordnete Ansammlungen von Token oder Wörtern (ein Beutel ist wie ein Datensatz, allerdings wird dabei nachverfolgt, wie oft jedes Element auftritt). Da sie die Reihenfolge der Wörter vollständig ignorieren, können Bag-of-Words-Modelle zum Beispiel die Phrasen „Hund beißt Mann“ und „Mann beißt Hund“ nicht auseinanderhalten. Aber aus Gründen der Effizienz kommen Bag-of-Words-Modelle dennoch oft bei Aufgaben zum Einsatz, wo große Informationsmengen abgerufen werden müssen, wie etwa bei Suchmaschinen. Bei längeren Dokumenten können sie beinahe Ergebnisse liefern, die dem allerneuesten Stand der Technik entsprechen.

Stoppwortentfernung: Bei einem „Stoppwort“ handelt es sich um ein Token, das bei der späteren Verarbeitung ignoriert wird. Üblicherweise sind dies kurze, häufig vorkommende Wörter wie zum Beispiel „a“, „the“ oder „an“ im Englischen. Bag-of-Words-Modelle und Suchmaschinen ignorieren häufig Stoppwörter, um die Verarbeitungszeit zu verkürzen und den Speicherbedarf in der Datenbank zu reduzieren. Tiefe neuronale Netzwerke berücksichtigen in der Regel die Wortreihenfolge (das heißt, sie sind keine Bag-of-Words-Modelle). Außerdem nehmen sie keine Stoppwortentfernung vor, denn Stoppwörter können subtile Bedeutungsunterschiede vermitteln (zum Beispiel sind die Phrasen „das Paket ging verloren“ und „das Paket ist verloren“ nicht bedeutungsgleich, auch wenn sie nach der Stoppwortentfernung nicht zu unterscheiden wären).

Stemming und Lemmatisierung:Die kleinsten bedeutungstragenden Elemente einer Sprache werden„Morpheme“ genannt. Üblicherweise sind Morpheme kleiner als Wörter. So besteht zum Beispiel das englische Wort „revisited“ aus dem Präfix „re“-, dem Wortstamm „visit“ und dem Suffix -„ed“, das hier die Vergangenheitsform markiert. Durch Stemming und Lemmatisierung werden Wörter ihren Wortstämmen zugeordnet (zum Beispiel: „revisit“ + VERGANGENHEIT) Stemming und Lemmatisierung sind entscheidende Schritte bei Prä-Deep Learning-Modellen. Deep Learning-Modelle lernen diese Gesetzmäßigkeit jedoch üblicherweise aus ihren Trainingsdaten, sodass explizite Schritte für das Stemming und die Lemmatisierung hier nicht erforderlich sind.

Part-of-speech-Tagging und Syntactic Parsing: Unter dem Part-of-speech (PoS)-Tagging versteht man das labeln jedes einzelnen Wortes entsprechend seiner Wortart (auf Englisch: part of speech). Beispiele wären hier also: Substantiv, Verb, Adjektiv usw. Ein syntaktischer Parser wiederum analysiert, wie diese Wörter zusammen Phrasen, Satzglieder und ganze Sätze bilden. Beim PoS-Tagging handelt es sich um eine Sequence Labelling-Aufgabe. Auch das Syntactic Parsing ist eine Art erweitertes Sequence Labeling. Und tiefe neuronale Netzwerke stellen die derzeit fortschrittlichste Technologie dar, mit der diese Aufgaben durchgeführt werden können. Vor der Entwicklung des Deep Learning waren das PoS-Tagging und das Syntactic Parsing unverzichtbare Schritte für das Satzverständnis. Moderne Deep Learning-NLP-Modelle profitieren jedoch nur noch geringfügig (wenn überhaupt) von Informationen zu Wortarten oder zur Syntax. Deswegen werden beim Deep Learning-NLP PoS-Tagging und Syntactic Parsing nicht sehr häufig verwendet.

NLP-Programmiersprachen

Python:

Die NLP-Bibliotheken und -Toolkits sind generell in Python verfügbar. Aus diesem Grund werden auch die allermeisten NLP-Projekte in Python entwickelt. Die interaktive Entwicklungsumgebung von Python ermöglicht dabei ein einfaches Entwickeln und Testen von neuem Code.

Java und C++:

Java und C++ werden häufig bevorzugt, wenn große Datenmengen verarbeitet werden müssen, da sie einen effizienteren Code unterstützen.

NLP-Bibliotheken und -Entwicklungsumgebungen

Im Folgenden führen wir einige Beispiele für beliebte NLP-Bibliotheken auf.

TensorFlow und PyTorch: Dies sind die beiden beliebtesten Deep Learning-Toolkits. Sie sind sowohl für Forschungs- wie auch für kommerzielle Zwecke frei verfügbar. Obwohl sie verschiedene andere Sprachen unterstützen, ist ihre Hauptsprache Python. Sie bieten große Bibliotheken mit vordefinierten Komponenten, sodass man selbst für sehr komplexe Deep Learning-Modelle oft nur diese Bausteine zusammenfügen muss. Außerdem unterstützen sie Hochleistungs-Computing-Infrastrukturen wie Computercluster mit Beschleunigern für Grafikprozessoren (GPUs). Zudem bieten Sie eine hervorragende Dokumentation sowie Tutorials.

AllenNLP: Hierbei handelt es sich um eine Bibliothek höherer NLP-Komponenten (zum Beispiel einfache Chatbots), die in PyTorch und Python implementiert sind. Die Dokumentation dazu ist hervorragend.

HuggingFace: Dieses Unternehmen stellt Hunderte verschiedener vortrainerter Deep Learning-NLP-Modelle bereit sowie ein Plug-and-Play-Software-Toolkit in TensorFlow und PyTorch, dass es Entwicklern ermöglicht, in kürzester Zeit zu bewerten, wie gut verschiedene vortrainierte Modelle bei der Bewältigung ihrer jeweiligen Aufgaben sind.

Spark NLP: Spark NLP ist eine Open Source-Textverarbeitungsbibliothek für das erweiterte NLP mit den Programmiersprachen Python, Java, und Scala. Das Ziel des Projekts ist die Bereitstellung einer Anwendungsprogrammierschnittstelle (Application Programming Interface, API) für die Abläufe beim Natural Language Processing. Es stellt vortrainierte neuronale Netzwerkmodelle, Pipelines und Integrationen sowie Support für das Training benutzerdefinierter Modelle bereit.

SpaCy NLP: SpaCy ist eine kostenlose Open Source-Bibliothek für das erweiterte NLP in Python. Das Projekt ist insbesondere darauf ausgerichtet, zur Erstellung von Anwendungen beizutragen, die große Textmengen verarbeiten und verstehen können. SpaCy genießt den Ruf, überaus intuitiv zu sein, und kann viele der Aufgaben bewältigen, die bei gängigen NLP-Projekten erforderlich sind.

Zusammengefasst kann man feststellen, dass das Natual Language Processing einen spannenden Bereich bei der Entwicklung der künstlichen Intelligenz darstellt. Es ist Teil einer Vielzahl neuer Produkte wie beispielsweise Suchmaschinen, Chatbots, Empfehlungssystemen und Sprache-zu-Text-Systemen. Da die menschliche Interaktion mit Computern sich zunehmend weniger über Schaltflächen, Formulare und domänenspezifische Sprachen vollzieht, wird der Bedarf am Natural Language Processing auch künftig weiter zunehmen. Aus diesem Grund ist es das Anliegen von Oracle Cloud Infrastructure, Ihnen bei unseren leistungsoptimierten Compute-Ausprägungen und -Tools eine On-Premise-Performance zu bieten. Oracle Cloud Infrastructure bietet eine Reihe von GPU-Ausprägungen, die Sie innerhalb weniger Minuten bereitstellen können, um mit Ihren NLP-Experimenten zu beginnen.

Oracle Chatbot
Disconnected