Jeffrey Erickson | Content Strategist | 2. April 2024
Für einen Laien ist Inferenz eine Schlussfolgerung, die auf Beweisen und Argumenten beruht. Im Bereich der künstlichen Intelligenz ist Inferenz die Fähigkeit von KI, nach viel Training mit kuratierten Datensätzen, Schlussfolgerungen aus Daten zu ziehen, die sie noch nie zuvor gesehen hat.
Die KI-Inferenz zu verstehen, ist ein wichtiger Schritt, um zu verstehen, wie künstliche Intelligenz funktioniert. Wir werden die einzelnen Schritte, Herausforderungen, Anwendungsfälle und die Zukunftsaussichten für die Entscheidungsfindung von KI-Systemen erläutern.
KI-Inferenz bedeutet, dass ein KI-Modell, das darauf trainiert wurde, Muster in kuratierten Datensätzen zu erkennen, beginnt, diese Muster in Daten zu erkennen, die es noch nie zuvor gesehen hat. Dadurch kann das KI-Modell Schlussfolgerungen und Vorhersagen in einer Weise treffen, die den menschlichen Fähigkeiten ähnelt.
Ein KI-Modell besteht aus Entscheidungsalgorithmen, die auf einem neuronalen Netz – also einem Sprachmodell, das wie das menschliche Gehirn strukturiert ist – trainiert werden, um eine bestimmte Aufgabe zu erfüllen. In einem vereinfachten Beispiel könnten Data Scientist dem KI-Modell einen Datensatz mit Bildern von Tausenden oder Millionen von Autos zeigen, auf denen die Marken und Modelle vermerkt sind. Nach einiger Zeit würde der Algorithmus beginnen, die Autos im Trainingsdatensatz genau zu erkennen. KI-Inferenz ist, wenn dem Modell ein zufälliger Datensatz gezeigt wird und es das Fabrikat und Modell eines Autos mit akzeptabler Genauigkeit herausfindet oder ableitet. Ein auf diese Weise trainiertes KI-Modell könnte an einem Grenzübergang oder einer Brückenmautstelle eingesetzt werden, um Nummernschilder und Automarken blitzschnell zuzuordnen. Ähnliche Prozesse können die KI-Inferenz mit subtileren Argumenten und Vorhersagen für den Einsatz im Gesundheitswesen, im Bankwesen, im Einzelhandel und in vielen anderen Bereichen ableiten.
Wichtige Erkenntnisse
Die KI-Inferenz ist eine Phase im Lebenszyklus eines KI-Modells, die auf die KI-Trainingsphase folgt. Stellen Sie sich das Training von KI-Modellen als Algorithmen für maschinelles Lernen (ML) vor, die ihre Hausaufgaben machen, und die KI-Inferenz als das Bestehen eines Tests.
Beim KI-Training werden dem Modell große, kuratierte Datensätze vorgelegt, damit es etwas über das betreffende Thema lernen kann. Die Aufgabe der Trainingsdaten besteht darin, dem Modell eine bestimmte Aufgabe beizubringen, daher variieren die Datensätze. Dazu gehören beispielsweise Bilder von Katzen oder Brücken, aufgezeichnete Anrufe beim Kundendienst oder medizinische Bilder. Das KI-Modell ist in der Lage, Live-Daten zu analysieren, Muster zu erkennen und genaue Vorhersagen darüber zu treffen, was im Datensatz als Nächstes kommt.
Mit großen Sprachmodellen (LLMs) kann das Modell beispielsweise ableiten, welches Wort als nächstes kommt, und Sätze und Absätze mit unheimlicher Genauigkeit und Leichtigkeit produzieren.
KI-Inferenz ist wichtig, weil ein trainiertes KI-Modell durch diese Wahrnehmung brandneue Daten analysiert und Erkenntnisse gewinnt. Ohne die Fähigkeit, Vorhersagen zu treffen oder Aufgaben in Echtzeit zu lösen, wäre es für KI schwierig, neue Aufgaben zu übernehmen, z. B. in den Bereichen Lehrwesen, Ingenieurwesen, medizinische Forschung und Weltraumforschung, und eine immer länger werdende Liste von Anwendungsfällen in allen Branchen.
In der Tat ist Inferenz das A und O eines jeden KI-Programms. Die Fähigkeit eines Modells, Muster in einem Datensatz zu erkennen und daraus genaue Schlussfolgerungen und Vorhersagen abzuleiten, ist das Herzstück von KI. Das heißt, ein KI-Modell, das ein Röntgenbild in Sekundenschnelle genau lesen oder Betrug inmitten von Tausenden oder Millionen von Kreditkartentransaktionen erkennen kann, ist eine Investition wert.
Benötigen Sie ein KI-System, das nahezu in Echtzeit hochpräzise Entscheidungen treffen kann, z. B. ob eine größere Transaktion möglicherweise betrügerisch ist? Oder ist es für Sie wichtiger, dass es in der Lage ist, die Daten, die es bereits gesehen hat, zu nutzen, um die Zukunft vorherzusagen, wie bei einem Sensor, der so eingestellt ist, dass er die Wartung anfordert, bevor etwas defekt ist? Wenn Sie die verschiedenen Ansätze der KI-Inferenz verstehen, können Sie sich für das beste Modell für Ihr Projekt entscheiden.
Deep Learning Training und KI-Inferenz sind zwei Teile desselben Prozesses, um nützliche Ergebnisse aus einem KI-Modell zu erhalten. Das Deep Learning Training steht an erster Stelle. So wird ein KI-Modell darauf trainiert, Daten auf eine Weise zu verarbeiten, die dem menschlichen Gehirn nachempfunden ist. Je mehr ein Modell trainiert wird, desto besser kann es tiefer liegende Informationen aus Daten erkennen. Zum Beispiel kann es von der Erkennung von Formen in einem Bild zur Erkennung möglicher Themen oder Aktivitäten im Bild übergehen. Die KI-Inferenz findet nach dem Training statt, wenn das KI-Modell diese Elemente in neuen Daten erkennen soll.
Damit die KI-Inferenz in einem bestimmten Anwendungsfall einen Nutzen bringt, müssen viele Prozesse befolgt und viele Entscheidungen in Bezug auf Technologiearchitektur, Modellkomplexität und Daten getroffen werden.
KI-Inferenz ist das Ergebnis eines rechenintensiven Prozesses, bei dem ein KI-Modell mithilfe umfangreicher Datensätze durch aufeinanderfolgende Trainingsregime läuft. Sie erfordert die Integration zahlreicher Datenquellen und eine Architektur, die es dem KI-Modell ermöglicht, effizient zu arbeiten. Hier sind die wesentlichen Technologien, die diesen Prozess ermöglichen.
Die Entwicklung oder Auswahl eines KI-Modells und das anschließende Training sind nur der Anfang. Die Anwendung des KI-Modells zur Ableitung von Schlussfolgerungen in der realen Welt bringt ihre eigenen Herausforderungen mit sich. Dazu kann gehören, das Modell mit hochwertigen Daten zu versorgen und später seine Ergebnisse zu erklären. Im Folgenden finden Sie eine Liste von Herausforderungen, die Sie in diesem Kontext im Auge behalten sollten.
Dank ihrer Fähigkeit, aus verfügbaren Daten Schlussfolgerungen oder Vorhersagen abzuleiten, übernehmen KI-Modelle immer mehr Aufgaben. Beliebte große Sprachmodelle wie ChatGPT verwenden Inferenz, um Wörter und Sätze mit unheimlicher linguistischer Präzision auszuwählen. Die Inferenz ermöglicht der KI außerdem, auf der Grundlage von verbalen Aufforderungen zu erkennen, welche Bilder oder Videos sie erstellen soll.
KI-Inferenz wird aber auch für das Trainieren von Industriesystemen immer wichtiger. So kann KI beispielsweise für die schnelle visuelle Inspektion an einer Fertigungslinie eingesetzt werden, sodass sich die menschlichen Inspektoren auf die von der KI erkannten Fehler oder Anomalien konzentrieren können, was zu Kosteneinsparungen und einer verbesserten Qualitätskontrolle führt. In industriellen Systemen, in denen Roboter zusammen mit Menschen an Produktionslinien arbeiten, ermöglicht KI die Wahrnehmung, Vorhersage und Planung, die erforderlich sind, um Objekte zu erkennen und subtile Bewegungsentscheidungen zu treffen.
Eine weitere häufige Anwendung der KI-Inferenz ist das Robotic Learning, das durch die zahlreichen Versuche, autonome Autos zu perfektionieren, bekannt wurde. Wie die Trainingsjahre von Unternehmen wie Waymo, Tesla und Cruz zeigen, ist Robotic Learning mit viel Experimentieren verbunden, da neuronale Netze lernen müssen, Ausnahmen von den geschriebenen Verkehrsregeln zu erkennen und richtig darauf zu reagieren.
KI-Inferenz hilft auch Forschern und Ärzten. KI-Modelle werden darauf trainiert, Heilmittel zu finden, indem sie Unmengen an chemischen oder epidemiologischen Daten durchforsten, und sie helfen bei der Diagnose von Krankheiten, indem sie subtile Hinweise aus medizinischen Bildgebungsverfahren auslesen.
Der nächste Schritt für die KI-Inferenz besteht darin, aus großen Cloud- oder Rechenzentrumsumgebungen auszubrechen und auf lokalen Computern und Geräten eingesetzt werden zu können. Während das anfängliche Training von KI-Systemen mit Deep-Learning-Architekturen weiterhin in großen Rechenzentren stattfinden wird, bringt eine neue Generation von Techniken und Hardware die KI-Inferenz auf der letzten Meile in kleinere Geräte, näher an den Ort, an dem die Daten generiert werden.
Dies ermöglicht eine bessere Anpassung und Kontrolle. Geräte und Roboter werden eine bessere Objekt-, Gesichts- und Verhaltenserkennung sowie eine vorausschauende Entscheidungsfindung erreichen. Wenn das für Sie wie die Grundlage für Allzweckroboter klingt, sind Sie nicht allein. In den kommenden Jahren wollen die Innovationsführer diese „Inference at the Edge“-Technologie in einer breiten Palette von Geräten in neuen Märkten und Branchen einsetzen.
Oracle bietet das Fachwissen und die Rechenleistung, um KI-Modelle in großem Maßstab zu trainieren und bereitzustellen. Besonders Oracle Cloud Infrastructure (OCI) ist eine Plattform, auf der Geschäftsleute, IT-Teams und Data Scientists zusammenarbeiten und KI-Inferenz in jeder Branche einsetzen können.
Mit der vollständig verwalteten KI-Plattform von Oracle können Teams über Python und ihre bevorzugten Open-Source-Tools Modelle für maschinelles Lernen erstellen, trainieren, bereitstellen und überwachen. Dank einer JupyterLab-basierten Umgebung der nächsten Generation sind Unternehmen in der Lage, mit NVIDIA-Grafikprozessoren und verteiltem Training zu experimentieren, Modelle zu entwickeln und das Training zu skalieren. Oracle erleichtert außerdem den Zugriff auf generative KI-Modelle, die auf den hochmodernen LLMs von Cohere basieren.
OCI ermöglicht es Ihnen, Modelle in die Produktion zu bringen und sie mit maschinellen Lernverfahren wie automatisierten Pipelines, Modellbereitstellungen und Modellüberwachung am Laufen zu halten. Zusätzlich zum Modelltraining und -einsatz bietet OCI eine Reihe von SaaS-Anwendungen mit integrierten ML-Modellen und verfügbaren KI-Services.
Jedes Mal, wenn Sie mit KI interagieren, sehen Sie KI-Inferenz in der Praxis. Das gilt unabhängig davon, ob Sie Anomalieerkennung, Bilderkennung, KI-generierten Text oder nahezu jede beliebige andere KI-Ausgabe verwenden. Die Ergebnisse sind der Höhepunkt eines langen, technisch komplexen und ressourcenintensiven Prozesses der Modellerstellung, des Trainings, der Optimierung und des Einsatzes, der die Grundlage für Ihre Interaktion mit der KI bildet.
Die Einrichtung eines KI-Kompetenzzentrums vor Beginn des unternehmensspezifischen Trainings erhöht die Erfolgswahrscheinlichkeit. Unser E-Book erklärt warum und bietet Tipps zum Aufbau eines effektiven CoE.
Was ist ein Beispiel für Inferenz in der KI?
Ein gutes Beispiel für Inferenz in der KI ist, wenn ein KI-Modell eine Anomalie in Finanztransaktionen entdeckt und aus dem Kontext erkennen kann, um welche Art von Betrug es sich handeln könnte. Von dort aus kann das KI-Modell eine Warnung an das Kartenunternehmen und den Kontoinhaber senden.
Was versteht man unter Training und Inferenz in der KI?
Beim Training werden einem KI-Modell kuratierte Datensätze gezeigt, sodass es beginnen kann, Muster zu erkennen und zu verstehen. Inferenz bedeutet, dass dem KI-Modell Daten außerhalb der kuratierten Datensätze angezeigt werden, es dieselben Muster findet und darauf basierend Vorhersagen trifft.
Was bedeutet Inferenz im maschinellen Lernen?
Inferenz bedeutet, dass ein Algorithmus oder eine Reihe von Algorithmen des maschinellen Lernens gelernt hat, Muster in kuratierten Datensätzen zu erkennen, und diese Muster später in neuen Daten erkennen kann.
Was bedeutet Inferenz im Deep Learning?
Beim Deep Learning werden maschinelle Lernalgorithmen mithilfe eines neuronalen Netzes trainiert, das das menschliche Gehirn nachahmt. Dies ermöglicht die Erkennung und Ableitung subtiler Konzepte und Abstraktionen, wie sie beispielsweise bei der Generierung natürlicher Sprache auftreten.
Kann KI-Inferenz auf Edge-Geräten verwendet werden?
KI-Inferenztraining war bisher ein datenintensiver und rechenaufwändiger Prozess. Da die KI-Inferenz jedoch immer besser verstanden wird, kann sie nun auch von weniger leistungsstarken Geräten durchgeführt werden, die sich am Rand, abseits großer Rechenzentren befinden. Diese Edge-Geräte für KI-Inferenz können Bilderkennung, Spracherkennung und andere Funktionen in den Außendienst bringen.
Wie unterscheidet sich die KI-Inferenz von herkömmlichen statistischen Modellen?
Herkömmliche statistische Modelle dienen lediglich dazu, die Beziehung zwischen den Variablen in einem Datensatz abzuleiten. KI-Inferenz ist so konzipiert, dass sie einen Schritt weiter geht und die genaueste Vorhersage auf der Grundlage dieser Daten trifft.
Wie wirken sich Hyperparameter auf die Inferenzleistung der KI aus?
Beim Erstellen eines KI-Modells weisen Data Scientists manchmal Parameter manuell zu. Im Gegensatz zu den Standardparametern des KI-Modells sind diese Hyperparameter nicht dadurch bestimmt, was das Modell aus dem Datensatz ableitet. Hyperparameter können als Wegweiser betrachtet werden, die bei Bedarf angepasst werden können, um die KI-Inferenzen und die Vorhersageleistung zu unterstützen.
Wie können Unternehmen die Genauigkeit und Zuverlässigkeit von KI-Inferenzmodellen sicherstellen?
Ein wichtiger Punkt ist, dass Sie von vornherein genau wissen, für wen Ihre Ergebnisse bestimmt sind und welches Problem sie lösen sollen. Machen Sie die gewünschten Ergebnisse spezifisch und messbar. Auf diese Weise können Sie Benchmarks festlegen und die Leistung Ihres Systems kontinuierlich daran messen.