Historisch gesehen gab es bei der Entwicklung von KNNs zunächst den Gedanken, das menschliche Gehirn nachzubilden. Der folgende Absatz fasst diesen stark vereinfachten Gedankengang zusammen:
Im menschlichen Gehirn befinden sich ca. 100 Milliarden Nervenzellen, die sogenannten Neuronen. Diese sind untereinander vernetzt und können elektrische Impulse aussenden. Empfängt ein Neuron ausreichend elektrische Impulse, sendet es selbst einen elektrischen Impuls aus.
Daher wurde auch für Künstliche Neuronen die binäre Ausgabefunktion als Aktivierungsfunktion gewählt. Sobald die Eingaben eines Künstlichen Neurons mit binärer Aktivierungsfunktion groß genug sind, "feuert das Künstliche Neuron", d.h. es hat eine 1 als Ausgabe.
In deutscher Literatur findet sich für den Begriff Bias daher oft die Übersetzung Schwellenwert. Wenn der Bias bei -5 liegt, müssen die Eingaben den Wert 5 übersteigen, sodass das Neuron feuert. Der Bias ist hier also wirklich der Schwellenwert zwischen „Feuern“ und „Nicht Feuern“ (Ausgabe 1 oder Ausgabe 0).
Für andere Aktivierungsfunktionen wie zum Beispiel die Sigmoid-Funktion lässt sich diese Analogie aber nicht fortsetzen. Hier gibt es keine Schwelle. Der Übergang ist kontinuierlich. Daher habe ich auf die deutsche Übersetzung des Begriffs Bias innerhalb meiner Lernpfade verzichtet.
Der Aufbau von Künstlichen Neuronalen Netzen ist ursprünglich also (stark vereinfacht) dem menschlichen Gehirn nachempfunden. Da ohnehin nicht bekannt ist, wie genau das menschliche Gehirn lernt, wurde mit der Zeit aber u.a. durch die Wahl anderer Aktivierungsfunktionen abgewichen. Warum der Aufbau aber mathematisch sinnvoll ist und welchen Zweck die einzelnen Bestandteile haben, wird in diesem Kurs betrachtet.