20. August 2022
Deep Learning ist eine Unterkategorie des maschinellen Lernens (ML), bei der künstliche neuronale Netzwerke – Algorithmen, die so modelliert sind, dass sie wie ein menschliches Gehirn arbeiten – aus großen Datenmengen lernen.
Deep Learning stützt sich auf neuronale Netzwerke. Dabei handelt es sich um Algorithmen, die lose nach der Funktionsweise des menschlichen Gehirns modelliert sind. Die Konfiguration der Neuronen im neuronalen Netzwerk geschieht durch das Training mit großen Datenmengen. Daraus resultiert ein Deep Learning-Modell, das, sobald es einmal trainiert ist, neue Daten verarbeiten kann. Deep Learning-Modelle nehmen Informationen aus mehreren Datenquellen auf und analysieren diese Daten in Echtzeit, ohne dass dazu menschliches Eingreifen erforderlich wäre. Beim Deep Learning werden Graphics Processing Units (GPU) für das Training der Modelle optimiert, da sie mehrere Berechnungen gleichzeitig verarbeiten können.
Deep Learning liegt zahlreichen Technologien der künstlichen Intelligenz (KI) zugrunde, die zur Verbesserung der Automatisierung und von Analysen eingesetzt werden können. Die meisten Leute haben so gut wie täglich mit Deep Learning zu tun, nämlich dann, wenn sie im Internet surfen oder ihre Mobiltelefone benutzen. Deep Learning wird, neben vielen anderen Anwendungen, zur Erstellung von Untertiteln bei YouTube-Videos verwendet, führt die Spracherkennung bei Telefonen und intelligenten Lautsprechern durch, ermöglicht die Gesichtserkennung bei Fotos und steuert selbstfahrende Autos. Und da Data Scientists und Forscher fortlaufend an immer komplexeren Deep Learning-Projekten arbeiten – unter Verwendung von Deep Learning-Frameworks –, wird diese Art der künstlichen Intelligenz künftig nur noch mehr in unserem Alltag präsent sein.
Einfach ausgedrückt ist Deep Learning ein Begriff für neuronale Netze mit vielen Schichten.
Um Beobachtungsdaten wie Fotos oder Audiodaten interpretieren zu können, senden neuronale Netzwerke Daten durch miteinander verbundene Knotenschichten. Wenn die Informationen eine Schicht durchlaufen, führt jeder Knoten dieser Schicht eine einfache Operation auf den Daten aus und übergibt die Ergebnisse selektiv an andere Knoten. Jede nachfolgende Schicht konzentriert sich auf ein Merkmal höherer Ordnung als die vorangegangene, bis das Netzwerk die Ausgabe erstellt.
Zwischen der Eingabe- und der Ausgabeschicht befinden sich verborgene Schichten. Und darin liegt der Unterschied zwischen neuronalen Netzwerken und Deep Learning: Ein einfaches neuronales Netzwerk verfügt über eine oder zwei verborgene Schichten, während ein Deep Learning-Netzwerk über Dutzende – oder gar Hunderte – von Schichten verfügt. Die Erhöhung der Anzahl der verschiedenen Schichten und Knoten kann die Genauigkeit eines Netzwerks erhöhen. Allerdings bedeuten mehr Schichten oft auch, dass ein Modell mehr Parameter und Berechnungsressourcen benötigt.
Deep Learning klassifiziert Informationen durch die Schichten neuronaler Netzwerke, die über einen Satz von Eingaben verfügen, die Rohdaten enthalten. Wenn zum Beispiel ein neuronales Netzwerk mit Bildern von Vögeln trainiert wurde, kann es dazu verwendet werden, Bilder von Vögeln zu erkennen. Mehr Schichten ermöglichen präzisere Ergebnisse wie die Unterscheidung einer Krähe von einem Raben im Gegensatz zur Unterscheidung einer Krähe von einem Huhn. Tiefe neuronale Netzwerke, die hinter Deep Learning-Algorithmen stehen, verfügen über mehrere verborgene Schichten zwischen den Eingangs- und Ausgangsknoten. Das bedeutet, dass sie komplexere Datenklassifikationen vornehmen können. Ein Deep Learning-Algorithmus muss mit großen Datensätzen trainiert werden. Und je mehr Daten er erhält, desto präziser wird er sein. Er muss mit Tausenden von Vogelbildern gefüttert werden, bevor er akkurat neue Bilder von Vögeln klassifizieren kann.
Im Kontext neuronaler Netze ist das Training von Deep Learning-Modellen überaus ressourcenaufwändig. Dies ist der Fall, wenn neuronale Netzwerke Eingaben aufnehmen, die mithilfe von Gewichtungen (Parameter, die die Stärke der Verbindung zwischen Eingaben repräsentieren) in verborgenen Schichten verarbeitet werden. Die Gewichtungen werden während des Trainings angepasst und das Modell gibt schließlich eine Prognose aus. Die Gewichtungen werden auf der Grundlage des Trainings angepasst, um bessere Prognosen zu erzielen. Deep Learning-Modelle verbringen viel Zeit beim Training mit großen Datenmengen. Deswegen ist High-Performance-Compute in diesem Zusammenhang so wichtig.
GPUs sind für Datenberechnungen optimiert und auf eine schnelle Performance bei umfangreichen Matrixberechnungen ausgelegt. GPUs eignen sich daher am besten für die parallele Ausführung von Problemen des maschinellen Lernens (ML) und Deep-Learnings. Deswegen zeichnen sich ML-Anwendungen, die eine hohe Anzahl von Berechnungen auf großen Mengen strukturierter und unstrukturierter Daten ausführen – wie Bilder, Text und Videos – durch eine gute Performance aus.
Ein wesentlicher Vorteil von Deep Learning ist, dass seine neuronalen Netzwerke dazu verwendet werden können, verborgene Einsichten und Beziehungen bei Daten aufzudecken, die vorher nicht sichtbar waren. Mithilfe robusterer Modelle für das maschinelle Lernen, die große Mengen komplexer Daten analysieren können, können Unternehmen ihre Betrugserkennung, das Lieferkettenmanagement und die Cyber-Sicherheit verbessern. Dazu ist Folgendes erforderlich:
KI, maschinelles Lernen und Deep Learning sind alle miteinander verwandt, aber sie zeichnen sich durch verschiedene Merkmale aus:
Deep Learning kann zur Analyse einer großen Anzahl von Bildern verwendet werden. So können soziale Netzwerke mehr über ihre Benutzer herausfinden. Dadurch können gezieltere Anzeigen geschaltet und Folgevorschläge gemacht werden.
Finanzen: Neuronale Netze im Bereich des Deep Learning können zur Prognose von Aktienkursen und zur Entwicklung von Handelsstrategien eingesetzt werden. Sie können auch Sicherheitsbedrohungen erkennen und vor Betrug schützen.
Gesundheitswesen: Deep Learning kann im Gesundheitswesen eine entscheidende Rolle spielen, indem es Trends und Verhaltensweisen analysiert, um Krankheiten bei Patienten vorherzusagen. Mitarbeiter im Gesundheitswesen können außerdem Deep Learning-Algorithmen verwenden, um eine optimale Entscheidung in Bezug auf die Test- und Behandlungsmethoden bei ihren Patienten zu fällen.
Cybersicherheit: Deep Learning kann komplexe Bedrohungen besser erkennen als herkömmliche Malware-Lösungen, indem es neue, verdächtige Aktivitäten erkennt, anstatt auf eine Datenbank bekannter Bedrohungen zu reagieren.
Digitale Assistenten: Digitale Assistenten sind eines der bekanntesten Beispiele für Deep Learning. Mithilfe des Natural Language Processing (NLP) können Siri, Cortana, Google und Alexa auf Fragen antworten und sich an die Gewohnheiten der Nutzer anpassen.
Es werden immer neue Anwendungen für Deep Learning gefunden. Aber dennoch ist es ein Bereich, der sich noch in der Entwicklung befindet und bei dem es bestimmte Einschränkungen gibt:
Wegen der explosionsartigen Zunahme von Geschäftsdaten müssen Data Scientists schnell Deep Learning-Modelle entwickeln, die flexibler sind, als dies mit einer herkömmlichen On-Premises-IT-Hardware realisiert werden kann.
Oracle Cloud Infrastructure (OCI) bietet die Rechenleistung mit dem fortschrittlichsten Preis-Leistungs-Verhältnis für datenintensive Workloads, einen schnellen Cloud-Speicher und ein Netzwerk mit geringer Latenz und einem hohen Durchsatz von 100 Gbit/s RDMA. OCI stellt auch GPU-Compute-Instanzen für das Deep Learning zur Verfügung. Außerdem bietet es einfach bereitzustellende Images und die Flexibilität, eine einzelne GPU-Workstation oder ein Cluster von mehreren GPU-Shapes auszuführen.
Testen Sie Oracle Cloud Infrastructure Data Science, um Modelle für maschinelles Lernen auf einer Hochleistungs-Cloud-Infrastruktur zu erstellen, zu trainieren und bereitzustellen. Data Scientists können mithilfe von NVIDIA GPUs in Notebook-Sitzungen in viel kürzerer Zeit Deep-Learning-Modelle erstellen und trainieren. Sie können außerdem die Menge an Rechen- und Storage-Ressourcen auswählen, die sie benötigen, um Projekte jeder Größe anzugehen, ohne sich um die Bereitstellung oder Wartung der Infrastruktur kümmern zu müssen. Darüber hinaus beschleunigt OCI Data Science die Modellerstellung durch die Optimierung von Data Science-Aufgaben wie dem Datenzugriff, der Auswahl der Algorithmen und der Modellerklärung.