Die Kohohenschicht
Damit das Netz korrekt arbeiten kann, werden die Eingabedaten zu Beginn des Trainings normiert, d.h. durch ihre Länge geteilt :
Die Gewichtsmatrix W (also die zwischen Eingabeschicht und Kohohenschicht) wird mit
gleichmäßig verteilten Zufallswerten, die zusätzlich normiert wurden initialisiert.
Lernen in der Kohohenschicht
Nachdem die Eingabe an das Netz angelegt wurde, wird das Gewinnerneuron j ermittelt.
Dann wird die Ähnlichkeit des Gewichtsvektors dieses Neurons mit dem Eingabevektor
berechnet. Als Maß für die Ähnlichkeit wird das Skalarprodukt der beiden Vektoren
verwendet. (Beachte, beide sind normiert.) Im Falle einer ungenügenden Ähnlichkeit, wird
der Gewichtsvektor in Richtung der Eingabe gezogen. (eine Art Deltaregel) :
Dabei stellt
einen Lernparameter dar, der nach und nach verringert wird.
Danach wird der Gewichtsvektor erneut normiert.
Die Grossbergschicht
Die Grossbergschicht kann durch ein einfaches überwachtes Lernverfahren trainiert werden. Ist das Gewinnerneuron in der Kohohenschicht ermittelt kann die Grossberschicht auf die
gewünschte Ausgabe hin trainiert werden. Die Iterationsvorschrift lautet :
(also wieder eine Art Deltaregel)