Künstliche neuronale Netze (ANNs) oder verbindungsorientierte Systeme sind Computersysteme, die von den biologischen neuronalen Netzen inspiriert sind, aus denen das tierische Gehirn besteht. Solche Systeme lernen (verbessern schrittweise ihre Fähigkeit), Aufgaben zu erledigen, indem sie Beispiele betrachten, im Allgemeinen ohne aufgabenspezifische Programmierung. Beispielsweise können sie bei der Bilderkennung lernen, Bilder zu identifizieren, die Katzen enthalten, indem sie Beispielbilder analysieren, die manuell als "Katze" oder "keine Katze" gekennzeichnet wurden, und die Analyseergebnisse verwenden, um Katzen in anderen Bildern zu identifizieren. Sie fanden den größten Einsatz in Anwendungen, die mit einem herkömmlichen Computeralgorithmus, der regelbasierte Programmierung verwendet, schwierig auszudrücken sind.
Eine ANN basiert auf einer Sammlung verbundener Einheiten, die als künstliche Neuronen bezeichnet werden (analog zu biologischen Neuronen in einem biologischen Gehirn). Jede Verbindung (Synapse) zwischen Neuronen kann ein Signal an ein anderes Neuron senden. Das empfangende (postsynaptische) Neuron kann das / die Signal (e) verarbeiten und dann stromabwärts liegende Neuronen signalisieren, die damit verbunden sind. Neuronen können einen Zustand haben, der im Allgemeinen durch reelle Zahlen dargestellt wird, typischerweise zwischen 0 und 1. Neuronen und Synapsen können auch ein Gewicht haben, das sich mit fortschreitendem Lernen ändert, was die Stärke des Signals, das es stromabwärts sendet, erhöhen oder verringern kann.
Typischerweise sind Neuronen in Schichten organisiert. Verschiedene Ebenen können unterschiedliche Arten von Transformationen für ihre Eingaben ausführen. Die Signale wandern von der ersten (Eingabe) zur letzten (Ausgabe) Schicht, möglicherweise nachdem sie die Schichten mehrmals durchlaufen haben.
Das ursprüngliche Ziel des neuronalen Netzwerkansatzes bestand darin, Probleme auf die gleiche Weise zu lösen, wie es ein menschliches Gehirn tun würde. Im Laufe der Zeit konzentrierte sich die Aufmerksamkeit darauf, bestimmte geistige Fähigkeiten abzugleichen, was zu Abweichungen von der Biologie führte, z.
Neuronale Netze wurden für eine Vielzahl von Aufgaben eingesetzt, einschließlich Computer Vision, Spracherkennung, maschinelle Übersetzung, Filtern sozialer Netze, Spielen von Brettspielen und Videospielen sowie für medizinische Diagnosen.
Seit 2017 haben neuronale Netze in der Regel einige tausend bis einige Millionen Einheiten und Millionen Verbindungen. Obwohl diese Anzahl einige Größenordnungen unter der Anzahl der Neuronen in einem menschlichen Gehirn liegt, können diese Netzwerke viele Aufgaben ausführen, die über die des Menschen hinausgehen (z. B. Erkennen von Gesichtern, Spielen von "Go").
Ein tiefes neuronales Netzwerk (DNN) ist ein künstliches neuronales Netzwerk (ANN) mit mehreren Schichten zwischen der Eingangs- und der Ausgangsschicht. Die DNN findet die richtige mathematische Manipulation, um die Eingabe in die Ausgabe umzuwandeln, sei es eine lineare Beziehung oder eine nichtlineare Beziehung. Das Netzwerk durchläuft die Ebenen und berechnet die Wahrscheinlichkeit für jede Ausgabe. Ein DNN, der darauf trainiert ist, Hunderassen zu erkennen, geht beispielsweise über das angegebene Bild und berechnet die Wahrscheinlichkeit, dass der Hund in dem Bild eine bestimmte Rasse ist. Der Benutzer kann die Ergebnisse überprüfen und auswählen, welche Wahrscheinlichkeiten das Netzwerk anzeigen soll (über einem bestimmten Schwellenwert usw.) und das vorgeschlagene Etikett zurückgeben. Jede mathematische Manipulation als solche wird als Schicht betrachtet, und komplexe DNN haben viele Schichten, daher der Name "tiefe" Netzwerke.
DNNs können komplexe nichtlineare Beziehungen modellieren. DNN-Architekturen generieren Kompositionsmodelle, bei denen das Objekt als geschichtete Komposition von Grundelementen ausgedrückt wird. Die zusätzlichen Schichten ermöglichen die Zusammenstellung von Merkmalen aus niedrigeren Schichten, wodurch möglicherweise komplexe Daten mit weniger Einheiten als in einem ähnlich flachen Netzwerk modelliert werden.
Tiefe Architekturen umfassen viele Varianten einiger grundlegender Ansätze. Jede Architektur hat in bestimmten Bereichen Erfolge erzielt. Es ist nicht immer möglich, die Leistung mehrerer Architekturen zu vergleichen, es sei denn, sie wurden mit denselben Datensätzen bewertet.
DNNs sind in der Regel Feedforward-Netzwerke, in denen Daten von der Eingabeschicht zur Ausgabeschicht fließen, ohne dass eine Rückschleife erfolgt. Zunächst erstellt der DNN eine Karte der virtuellen Neuronen und weist diesen Verbindungen zufällige numerische Werte oder "Gewichte" zu. Die Gewichte und Eingaben werden multipliziert und geben eine Ausgabe zwischen 0 und 1 zurück. Wenn das Netzwerk ein bestimmtes Muster nicht genau erkennen würde, würde ein Algorithmus die Gewichte anpassen. Auf diese Weise kann der Algorithmus bestimmte Parameter stärker beeinflussen, bis er die richtige mathematische Manipulation zur vollständigen Verarbeitung der Daten ermittelt.
Wiederkehrende neuronale Netze (RNNs), in denen Daten in jede Richtung fließen können, werden für Anwendungen wie die Sprachmodellierung verwendet. Langes Kurzzeitgedächtnis ist für diese Verwendung besonders effektiv.
Convolutional Deep Neural Networks (CNNs) werden in der Bildverarbeitung eingesetzt. CNNs wurden auch bei der akustischen Modellierung für die automatische Spracherkennung (ASR) angewendet.

Zurück nach oben