Vertiefung der Grundlagen
Grundlagen neuronaler Netze
Eine Möglichkeit, maschinelles Lernen zu ermöglichen, ist die Orientierung am Aufbau des menschlichen Gehirns. Auf dieser Grundlage entstehen künstliche neuronale Netze. Dabei orientiert man sich an der stark vereinfachten Funktionsweise des menschlichen Gehirns.
Natürliches Neuron
Das Gehirn eines Menschen besteht aus etwa 100.000.000.000, also hundert Milliarden Nervenzellen (Neuronen). Links oben siehst du eine stark vereinfachte Darstellung eines solchen Neurons (hier gelb dargestellt). Diese Neuronen sind die Bausteine der Informationsverarbeitung im Gehirn. Ein Neuron empfängt Signale von anderen Neuronen (hier rot und blau dargestellt). In Wirklichkeit kann ein Neuron mit Hunderten anderen auf diese Weise verbunden sein. Die Verbindungsstellen zwischen Neuronen heißen Synapsen. Diese übertragen die Signale unterschiedlich stark an das Neuron. Im Zellkörper des Neurons summieren sich die Signale zu einer Gesamt-Signalstärke. Übersteigt die Gesamt-Signalstärke an einer bestimmten Stelle des Neurons, dem Axonhügel, einen bestimmten Schwellenwert, so gibt das Neuron über das so genannte Axon ebenfalls ein Signal aus. Man sagt kurz: "Das Neuron feuert".
Künstliches Modell-Neuron
In der Informatik versucht man, das Verhalten von Neuronen im Gehirn mithilfe zu imitieren. Das kann durch Computerprogramme auf normaler Computerhardware geschehen oder durch spezielle Computerhardware (z.B. Neural Processing Units, abgekürzt: NPUs).
Dabei wird das Verhalten der natürlichen Nervenzelle nochmal stark vereinfacht. Wir betrachten hier eine solche Vereinfachung:
- Das künstliche Neuron kann mehrere Zahlenwerte als Eingaben verarbeiten – hier gibt es jedoch nur zwei Eingänge, $x_1$ und $x_2$. Diese entsprechen den über die Synapsen verbundenen anderen Neuronen.
- Die Stärke der jeweiligen Verbindung wird durch die synaptischen Gewichte $w_1$ und $w_2$ beschrieben. Diese modellieren - wie der Name schon sagt - die Synapsen, wir werden im Folgenden das Wort "synaptisch" der Einfachheit halber jedoch weglassen.
- Die Summierung der Signale erfolgt über die einfache mathematische Formel $$\Sigma = w_1 \cdot x_1 + w_2 \cdot x_2$$
- $s$ ist der Schwellenwert.
- Überschreitet der Wert der Summe $\Sigma$ (manchmal auch "Aktivierung" genannt) die Größe des Schwellenwertes $s$, dann „feuert” das künstliche Neuron.
- „Feuern” bedeutet, dass über sein Axon $y$ die Ausgabe 1 (z.B. an das nächste Neuron) gesendet wird - ansonsten wird eine 0 gesendet.
Wenn wir nur von den Eingängen 0 und 1 ausgehen, dann verhält es sich wie folgt:
x1 | x2 | y |
---|---|---|
0 | 0 | 0 |
0 | 1 | 0 |
1 | 0 | 1 ("feuern!") |
1 | 1 | 1 ("feuern!") |