Deep Learning ist eine Unterkategorie des maschinellen Lernens (ML), bei der künstliche neuronale Netzwerke – Algorithmen, die so modelliert sind, dass sie wie ein menschliches Gehirn arbeiten – aus großen Datenmengen lernen.
Deep Learning stützt sich auf neuronale Netzwerke. Dabei handelt es sich um Algorithmen, die lose nach der Funktionsweise des menschlichen Gehirns modelliert sind. Die Konfiguration der Neuronen im neuronalen Netzwerk geschieht durch das Training mit großen Datenmengen. Daraus resultiert ein Deep Learning-Modell, das, sobald es einmal trainiert ist, neue Daten verarbeiten kann. Deep Learning-Modelle nehmen Informationen aus mehreren Datenquellen auf und analysieren diese Daten in Echtzeit, ohne dass dazu menschliches Eingreifen erforderlich wäre. Beim Deep Learning werden Graphics Processing Units (GPU) für das Training der Modelle optimiert, da sie mehrere Berechnungen gleichzeitig verarbeiten können.
Deep Learning liegt zahlreichen Technologien der künstlichen Intelligenz (KI) zugrunde, die zur Verbesserung der Automatisierung und von Analysen eingesetzt werden können. Die meisten Leute haben so gut wie täglich mit Deep Learning zu tun, nämlich dann, wenn sie im Internet surfen oder ihre Mobiltelefone benutzen. Deep Learning wird, neben vielen anderen Anwendungen, zur Erstellung von Untertiteln bei YouTube-Videos verwendet, führt die Spracherkennung bei Telefonen und intelligenten Lautsprechern durch, ermöglicht die Gesichtserkennung bei Fotos und steuert selbstfahrende Autos. Und da Data Scientists und Forscher fortlaufend an immer komplexeren Deep Learning-Projekten arbeiten – unter Verwendung von Deep Learning-Frameworks –, wird diese Art der künstlichen Intelligenz künftig nur noch mehr in unserem Alltag präsent sein.
Einfach ausgedrückt ist Deep Learning ein Begriff für neuronale Netze mit vielen Schichten.
Um Beobachtungsdaten wie Fotos oder Audiodaten interpretieren zu können, senden neuronale Netzwerke Daten durch miteinander verbundene Knotenschichten. Wenn die Informationen eine Schicht durchlaufen, führt jeder Knoten dieser Schicht eine einfache Operation auf den Daten aus und übergibt die Ergebnisse selektiv an andere Knoten. Jede nachfolgende Schicht konzentriert sich auf ein Merkmal höherer Ordnung als die vorangegangene, bis das Netzwerk die Ausgabe erstellt.
Zwischen der Eingabe- und der Ausgabeschicht befinden sich verborgene Schichten. Und darin liegt der Unterschied zwischen neuronalen Netzwerken und Deep Learning: Ein einfaches neuronales Netzwerk verfügt über eine oder zwei verborgene Schichten, während ein Deep Learning-Netzwerk über Dutzende – oder gar Hunderte – von Schichten verfügt. Die Erhöhung der Anzahl der verschiedenen Schichten und Knoten kann die Genauigkeit eines Netzwerks erhöhen. Allerdings bedeuten mehr Schichten oft auch, dass ein Modell mehr Parameter und Berechnungsressourcen benötigt.
Deep Learning klassifiziert Informationen durch die Schichten neuronaler Netzwerke, die über einen Satz von Eingaben verfügen, die Rohdaten enthalten. Wenn zum Beispiel ein neuronales Netzwerk mit Bildern von Vögeln trainiert wurde, kann es dazu verwendet werden, Bilder von Vögeln zu erkennen. Mehr Schichten ermöglichen präzisere Ergebnisse wie die Unterscheidung einer Krähe von einem Raben im Gegensatz zur Unterscheidung einer Krähe von einem Huhn. Tiefe neuronale Netzwerke, die hinter Deep Learning-Algorithmen stehen, verfügen über mehrere verborgene Schichten zwischen den Eingangs- und Ausgangsknoten. Das bedeutet, dass sie komplexere Datenklassifikationen vornehmen können. Ein Deep Learning-Algorithmus muss mit großen Datensätzen trainiert werden. Und je mehr Daten er erhält, desto präziser wird er sein. Er muss mit Tausenden von Vogelbildern gefüttert werden, bevor er akkurat neue Bilder von Vögeln klassifizieren kann.
Im Kontext neuronaler Netze ist das Training von Deep Learning-Modellen überaus ressourcenaufwändig. Dies ist der Fall, wenn neuronale Netzwerke Eingaben aufnehmen, die mithilfe von Gewichtungen (Parameter, die die Stärke der Verbindung zwischen Eingaben repräsentieren) in verborgenen Schichten verarbeitet werden. Die Gewichtungen werden während des Trainings angepasst und das Modell gibt schließlich eine Prognose aus. Die Gewichtungen werden auf der Grundlage des Trainings angepasst, um bessere Prognosen zu erzielen. Deep Learning-Modelle verbringen viel Zeit beim Training mit großen Datenmengen. Deswegen ist High-Performance-Compute in diesem Zusammenhang so wichtig.
GPUs sind für Datenberechnungen optimiert und auf eine schnelle Performance bei umfangreichen Matrixberechnungen ausgelegt. GPUs eignen sich daher am besten für die parallele Ausführung von Problemen des maschinellen Lernens (ML) und Deep-Learnings. Deswegen zeichnen sich ML-Anwendungen, die eine hohe Anzahl von Berechnungen auf großen Mengen strukturierter und unstrukturierter Daten ausführen – wie Bilder, Text und Videos – durch eine gute Performance aus.
Ein wesentlicher Vorteil von Deep Learning ist, dass seine neuronalen Netzwerke dazu verwendet werden können, verborgene Einsichten und Beziehungen bei Daten aufzudecken, die vorher nicht sichtbar waren. Mithilfe robusterer Modelle für das maschinelle Lernen, die große Mengen komplexer Daten analysieren können, können Unternehmen ihre Betrugserkennung, das Lieferkettenmanagement und die Cyber-Sicherheit verbessern. Dazu ist Folgendes erforderlich:
Deep Learning-Aglorithmen können dafür trainiert werden, Textdaten zu interpretieren, indem man sie Social Media-Beiträge, Nachrichten und Umfragen analysieren lässt, um wertvolle Erkenntnisse zur geschäftlichen Entwicklung und zu Kunden zu gewinnen.
Deep Learning benötigt für das Training gelabelte Daten. Sobald es trainert ist, kann es neue Daten selbst mit einem Label versehen und verschiedene Datentypen unterscheiden.
Ein Deep Learning-Algorithmus kann Zeit sparen, da er nicht auf menschliches Eingreifen angewiesen ist, um Merkmale manuell aus Rohdaten zu extrahieren.
Wenn ein Deep Learning-Algorithmus richtig trainiert wurde, kann er Tausende von Aufgaben immer wieder ausführen – und zwar schneller als ein Mensch.
Die neuronalen Netzwerke können beim Deep Learning auf viele verschiedene Datentypen und Anwendungen angewendet werden. Außerdem kann sich ein Deep Learning-Modell anpassen, indem es mit neuen Daten neu trainiert.
KI, maschinelles Lernen und Deep Learning sind alle miteinander verwandt, aber sie zeichnen sich durch verschiedene Merkmale aus:
Künstliche Intelligenz ermöglicht es Computern, Maschinen oder Robotern, die Fähigkeiten von Menschen nachzuahmen wie etwa das Fällen von Entscheidungen, das Erkennen von Objekten, das Lösen von Problemen und das Verstehen von Sprache.
Das maschinelle Lernen ist eine Unterkategorie de rKI, bei der man sich darauf konzentriert, Anwendungen zu erstellen, die von Daten lernen können, um die Genauigkeit im Laufe der Zeit immer weiter zu verbessern, ohne dass dazu ein menschliches Eingreifen erforderlich wäre. Algorithmen für maschinelles Lernen können dazu trainiert werden, Muster zu finden, mit deren Hilfe dann bessere Entscheidungen und Prognosen möglich sind. Aber dies erfordert üblicherweise eine Intervention durch den Menschen.
Deep Learning ist ein Teilbereich des maschinellen Lernens, der es Computern ermöglicht, komplexere Probleme zu lösen. Deep Learning-Modelle können selbständig neue Features erstellen.
Deep Learning kann zur Analyse einer großen Anzahl von Bildern verwendet werden. So können soziale Netzwerke mehr über ihre Benutzer herausfinden. Dadurch können gezieltere Anzeigen geschaltet und Folgevorschläge gemacht werden.
Beim Deep Learning können neuronale Netze dazu verwendet werden, um Aktienkurse zu prognostizieren und Trading-Strategien zu entwickeln. Außerdem können Sie Sicherheitsrisiken erkennen und vor Betrug schützen.
Deep Learning kann im Gesundheitswesen eine entscheidende Rolle bei der Analyse von Trends und Verhaltensweisen spielen, mit denen sich Krankheiten bei Patienten vorhersagen lassen. Mitarbeiter im Gesundheitswesen können außerdem Deep Learning-Algorithmen verwenden, um eine optimale Entscheidung in Bezug auf die Test- und Behandlungsmethoden bei ihren Patienten zu fällen.
Deep Learning kann neu entwickelte Bedrohungen besser als traditionelle Malware-Lösungen erkennen, indem es neuartige, verdächtige Aktivitäten identifiziert, anstatt auf der Grundlage einer Datenbank bereits bekannter Bedrohungen zu reagieren.
Digitale Assistenten stellen eines der komplexesten Beispiele für Deep Learning-Anwendungen dar. Mithilfe des Natural Language Processing (NLP) können Siri, Cortana, Google und Alexa auf Fragen antworten und sich an die Gewohnheiten der Nutzer anpassen.
Es werden immer neue Anwendungen für Deep Learning gefunden. Aber dennoch ist es ein Bereich, der sich noch in der Entwicklung befindet und bei dem es bestimmte Einschränkungen gibt:
Um aussagekräftigere und abstraktere Antworten generieren zu können, sind beim Deep Learning große Datenmengen zum Training erforderlich. Ähnlich wie ein menschliches Gehirn benötigt ein Deep Learning-Algorithmus Beispiele, damit er aus Fehlern lernen und seine Resultate verbessern kann.
Maschinen lernen immer noch auf sehr eingeschränkte Weise, was zu Fehlern führen kann. Deep Learning-Netzwerke benötigen zur Lösung eines bestimmten Problems Daten. Wenn sie eine Aufgabe lösen sollen, die außerhalb des durch diese Daten abgedeckten Bereichs liegt, werden sie wahrscheinlich scheitern.
Ein neuronales Netzwerk durchläuft Millionen von Datenpunkten, um Muster zu finden. Daher kann es manchmal schwierig sein, nachzuvollziehen, wie es zu seiner Lösung gelangt ist. Dieser Mangel an Transparenz in Bezug auf die Art und Weise, wie das Netzwerk Daten verarbeitet, macht es schwierig, einen unerwünschten Bias zu identifizieren oder die Vorhersagen zu erklären.
Trotz dieser Hürden kommen Data Scientists der Erstellung hochpräziser Deep Learning-Modelle, die ohne menschliche Aufsicht lernen können, immer näher. Dadurch wird das Deep Learning schneller und weniger arbeitsaufwändig werden.
Wegen der explosionsartigen Zunahme von Geschäftsdaten müssen Data Scientists schnell Deep Learning-Modelle entwickeln, die flexibler sind, als dies mit einer herkömmlichen On-Premises-IT-Hardware realisiert werden kann.
Oracle Cloud Infrastructure (OCI) bietet die Rechenleistung mit dem besten Preis-Leistungs-Verhältnis für datenintensive Workloads, einen schnellen Cloud-Speicher und ein Netzwerk mit geringer Latenz und einem hohen Durchsatz von 100 Gbit/s RDMA. OCI stellt auch GPU-Compute-Instanzen für das Deep Learning zur Verfügung. Außerdem bietet es einfach bereitzustellende Images und die Flexibilität, eine einzelne GPU-Workstation oder ein Cluster von mehreren GPU-Shapes auszuführen.
Testen Sie Oracle Cloud Infrastructure Data Science, um Modelle für maschinelles Lernen auf einer Hochleistungs-Cloud-Infrastruktur zu erstellen, zu trainieren und bereitzustellen. Data Scientists können mithilfe von NVIDIA GPUs in Notebook-Sitzungen in viel kürzerer Zeit Deep-Learning-Modelle erstellen und trainieren. Sie können außerdem die Menge an Rechen- und Storage-Ressourcen auswählen, die sie benötigen, um Projekte jeder Größe anzugehen, ohne sich um die Bereitstellung oder Wartung der Infrastruktur kümmern zu müssen. Darüber hinaus beschleunigt OCI Data Science die Modellerstellung durch die Optimierung von Data Science-Aufgaben wie dem Datenzugriff, der Auswahl der Algorithmen und der Modellerklärung.