Deep learning is een subset van machine learning (ML), waarbij kunstmatige neurale netwerken (algoritmen die zijn gemodelleerd om te werken zoals het menselijk brein) leren van grote hoeveelheden data.
Deep learning wordt ondersteund door lagen neurale netwerken. Dit zijn algoritmen die losjes gemodelleerd zijn op de manier waarop het menselijk brein werkt. De neuronen in het neurale netwerk worden geconfigureerd door met grote hoeveelheden data te trainen. Het resultaat is een deep learning-model dat, eenmaal getraind, nieuwe data verwerkt. Deep learning-modellen gebruiken informatie uit meerdere databronnen en analyseren deze data in realtime en zonder menselijke tussenkomst. Bij deep learning worden GPU's (Graphics Processing units) geoptimaliseerd voor trainingsmodellen omdat ze meerdere berekeningen gelijktijdig kunnen verwerken.
Deep learning is de basis van veel AI-technologieën waarmee automatisering en analytische taken kunnen worden verbeterd. De meeste mensen hebben dagelijks met deep learning te maken wanneer ze op internet surfen of hun mobiele telefoon gebruiken. Deep learning wordt onder andere gebruikt om ondertitels te genereren voor YouTube-video's, om spraakherkenning te gebruiken op telefoons en slimme luidsprekers, om gezichtsherkenning te bieden voor foto's en om zelfrijdende auto's aan te sturen. En omdat datawetenschappers en onderzoekers met steeds complexere deep learning-projecten met deep learning-frameworks werken, wordt dit soort kunstmatige intelligentie een steeds groter deel van ons dagelijks leven.
Deep learning is eenvoudig gezegd een naam voor neurale netwerken met veel lagen.
Om wijs te worden uit observatiedata, zoals foto's of audio, geven neurale netwerken data door via onderling verbonden lagen met knooppunten. Wanneer data via een laag worden doorgegeven, voert elk knooppunt in deze laag eenvoudige bewerkingen uit op de data en worden de resultaten selectief doorgegeven aan andere knooppunten. Elke volgende laag richt zich op een hogere functie dan de laatste, totdat het netwerk de uitvoer maakt.
Tussen de invoerlaag en de uitvoerlaag bevinden zich verborgen lagen. Hier ligt het onderscheid tussen neurale netwerken en deep learning: een neuraal basisnetwerk kan één of twee verborgen lagen hebben, terwijl een deep learning-netwerk tientallen of zelfs honderden lagen kan hebben. Het verhogen van het aantal verschillende lagen en knooppunten kan de nauwkeurigheid van een netwerk verhogen. Het hebben van meer lagen kan echter ook betekenen dat voor een model meer parameters en berekeningsresources zijn vereist.
Met deep learning wordt informatie geclassificeerd via lagen neurale netwerken, die een set invoerwaarden hebben die ruwe data ontvangen. Als een neuraal netwerk bijvoorbeeld wordt getraind met afbeeldingen van vogels, kan het worden gebruikt om afbeeldingen van vogels te herkennen. Meer lagen zorgen voor nauwkeurigere resultaten, zoals het onderscheiden van een kraai van een raaf vergeleken met het onderscheiden van een kraai van een kip. Diepe neurale netwerken, die zich achter deep learning-algoritmen bevinden, bevatten diverse verborgen lagen tussen de in- en uitvoerknooppunten. Dit betekent dat ze meer complexe dataclassificaties kunnen uitvoeren. Een deep learning-algoritme moet worden getraind met grote datasets. Hoe meer data het algoritme ontvangt, hoe nauwkeuriger het is. Er zullen duizenden foto's van vogels moeten worden ingevoerd voordat het algoritme in staat is om nieuwe foto's van vogels nauwkeurig te classificeren.
Wat neurale netwerken betreft, is het trainen van het deep learning-model zeer resource-intensief. Dit is het moment waarop het neurale netwerk invoer opneemt. Deze invoer wordt verwerkt in verborgen lagen met behulp van gewichten (parameters die de sterkte van de verbinding tussen de invoerwaarden vertegenwoordigen) die worden aangepast tijdens de training. Het model maakt vervolgens een voorspelling. Gewichten worden aangepast op basis van de trainingsinvoer om zo betere voorspellingen te kunnen maken. Deep learning-modellen besteden veel tijd aan het trainen van grote hoeveelheden data. Dit is de reden waarom high-performance computing zo belangrijk is.
GPU's zijn geoptimaliseerd voor het berekenen van data en zijn ontworpen voor snelle prestaties bij grootschalige matrixberekeningen. GPU's zijn het meest geschikt voor parallelle uitvoering voor problemen op grote schaal met machine learning en deep learning. Om deze reden leveren ML-applicaties die grote aantallen berekeningen uitvoeren op grote hoeveelheden gestructureerde of ongestructureerde data (zoals afbeeldingen, tekst en video's) zulke goede prestaties.
Een groot voordeel van deep learning is dat de neurale netwerken worden gebruikt om verborgen inzichten en relaties voor data te onthullen die voorheen niet zichtbaar waren. Met robuustere machine learning-modellen waarmee grote hoeveelheden complexe data kunnen worden geanalyseerd, kunnen bedrijven fraudedetectie, supply chain management en cybersecurity verbeteren aan de hand van het volgende:
Deep learning-algoritmen kunnen worden getraind om tekst te doorzoeken en berichten, nieuws en enquêtes op sociale media te analyseren om bedrijven en klanten zo waardevolle inzichten te bieden.
Voor deep learning zijn gelabelde data voor training vereist. Na het trainen kan het algoritme nieuwe data labelen en kan het zelfstandig verschillende soorten data identificeren.
Een deep learning-algoritme kan tijd besparen omdat er geen mensen nodig zijn om functies handmatig uit ruwe data te halen.
Wanneer een deep learning-algoritme goed is getraind, kan het keer op keer en sneller dan mensen duizenden taken uitvoeren.
De neurale netwerken die bij deep learning worden gebruikt, kunnen worden toegepast op een groot aantal verschillende soorten data en applicaties. Ook kan een deep learning-model worden aangepast door het opnieuw te trainen met nieuwe data.
AI, machine learning en deep learning hebben allemaal met elkaar te maken, maar ze hebben wel verschillende functies:
Met behulp van kunstmatige intelligentie kunnen computers, machines of robots de vaardigheden van een mens nabootsen, zoals het nemen van beslissingen, het herkennen van objecten, het oplossen van problemen en het begrijpen van taal.
Machine learning is een subset van kunstmatige intelligentie, gericht op het bouwen van applicaties die kunnen leren van data om hun nauwkeurigheid in de loop der tijd te verbeteren zonder menselijke tussenkomst. Machine learning-algoritmen kunnen worden getraind om patronen te ontdekken voor het nemen van betere beslissingen en het maken van betere voorspellingen. Dit vereist echter doorgaans menselijke tussenkomst.
Deep learning is een subset van machine learning waarmee computers complexere problemen kunnen oplossen. Deep learning-modellen kunnen ook zelf nieuwe functies creëren.
Deep learning kan worden gebruikt om een groot aantal afbeeldingen te analyseren om zo sociale netwerken te helpen meer te weten te komen over hun gebruikers. Dit verbetert gerichte advertenties en suggesties.
Neurale netwerken in deep learning kunnen worden gebruikt om voorraadwaarden te voorspellen en handelsstrategieën te ontwikkelen. Ze kunnen ook beveiligingsrisico's identificeren en bescherming bieden tegen fraude.
Deep learning kan essentieel zijn voor de gezondheidszorg doordat het trends en gedragingen kan analyseren en zo ziektes bij patiënten kan voorspellen. Zorgmedewerkers kunnen ook deep learning-algoritmen gebruiken om te bepalen welke tests en behandelingen geschikt zijn voor hun patiënten.
Geavanceerde bedreigingen kunnen beter worden gedetecteerd met deep learning dan met traditionele malwareoplossingen doordat er nieuwe, verdachte activiteiten worden herkend in plaats van te reageren op een database met bekende bedreigingen.
Digitale assistenten zijn de bekendste voorbeelden van deep learning. Met behulp van natuurlijke taalverwerking (NLP) kunnen Siri, Cortana, Google en Alexa reageren op vragen en zich aanpassen aan de gewoonten van de gebruiker.
Hoewel er steeds nieuwe toepassingen voor deep learning worden ontdekt, is het een evoluerend gebied met bepaalde beperkingen:
Om meer inzichtelijke en abstracte antwoorden te krijgen, vereist deep learning grote hoeveelheden data voor verdere training. Net als het menselijk brein heeft een deep learning-algoritme voorbeelden nodig, zodat het kan leren van fouten en het resultaat kan verbeteren.
Machines leren nog steeds in zeer kleine stappen, wat tot fouten kan leiden. Deep learning-netwerken hebben data nodig om een specifiek probleem op te lossen. Als het netwerk wordt gevraagd een taak uit te voeren buiten dat bereik, zal de taak waarschijnlijk mislukken.
Hoewel er miljoenen datapunten worden doorlopen om patronen te vinden, kan het moeilijk zijn om te begrijpen hoe een neuraal netwerk met een oplossing komt. Dit gebrek aan transparantie in hoe data worden verwerkt, maakt het moeilijk om ongewenste vooroordelen te identificeren en voorspellingen uit te leggen.
Ondanks deze hindernissen zijn datawetenschappers in staat steeds nauwkeurigere deep learning-modellen te maken die zonder toezicht kunnen leren. Dit maakt deep learning sneller en minder arbeidsintensief.
Nu de hoeveelheid bedrijfsdata explosief toeneemt, moeten datawetenschappers sneller en flexibeler deep learning-modellen kunnen verkennen en bouwen dan mogelijk is met traditionele IT-hardware.
Oracle Cloud Infrastructure (OCI) biedt de beste prijs-prestatieverhouding voor data-intensieve workloads, snelle cloudopslag en netwerkverkeer met lage latentie en hoge doorvoersnelheid met 100 Gbps RDMA. OCI biedt ook GPU-compute-instances voor deep learning, eenvoudig te implementeren images en de flexibiliteit om één GPU-werkstation of een cluster met meerdere GPU-vormen uit te voeren.
Voor het bouwen, trainen en implementeren van machine learning-modellen op een high-performance cloudinfrastructuur probeert u Oracle Cloud Infrastructure Data Science. Datawetenschappers kunnen deep learning-modellen in veel minder tijd ontwikkelen en trainen met NVIDIA GPU's in notitiebloksessies. Ze kunnen ook het aantal compute- en opslagresources selecteren dat ze nodig hebben om projecten van elke omvang aan te pakken zonder dat ze zich zorgen hoeven te maken over het initialiseren of onderhouden van de infrastructuur. Daarnaast versnelt OCI Data Science het bouwen van modellen door stroomlijning van data science-taken, zoals toegang tot data, selectie van algoritmen en uitleg van modellen.