Am 06.03.2023 um 23:06 schrieb Jens Kallup:
> ich glaube, ich habe jetzt verstanden, wie die ganzen
> KI-Programme funktionieren - nämlich nach einen einfachen
> und simplen Verfahren:
Neuronale Netze sind nur eines der zahlreichen Teilgebiete
der KI. Einen Einblick zu bekommen, ist wirklich einfach.
Aber es ist ein bißchen mehr nötig, als Du es beschrieben hast.
Man möchte im allgemeinen Neuronen lernfähig gestalten.
Hier das Standardmodell.
Ein Neuron hat mehrere Eingänge, die mit W[i] gewichtet, d.h.
verstärkt oder abgeschwächt werden. Hinzu kommt ein
konstanter Schwellwert T, der den Eingängen entgegenwirkt.
aktivierung := 0.0;
for i := 0 to anzahl_eingaenge - 1 do
begin
aktivierung := aktivierung + input[i] * w[i];
end;
aktivierung := aktivierung - T;
output := sigmoid(aktivierung );
Beachte: Du hast in der Regel viele Neuronen, die alle
für sich eine solche Rechnungen durchführen. Die Neuronen
können auch untereinander vernetzt sein, derart, daß der Output
eines Neurons ein Input eines anderen Neurons ist.
Das berühmte Neuronale Netz.
Die Belegung des Eingabevektors input[] stammt aus
einer Menge von Trainingsvektoren. In der Regel hast Du
auch einen Soll-Output der Dimension z.B. m. Der gibt an,
welchen Output m dafür vorbestimmte Neuronen des Netzes
haben sollten, nachdem die Rechnung durchgelaufen ist.
Das Lernen besteht nun darin, die Gewichte w[i] und
den Schwellwert T jedes Neurons so abzuändern, daß
der Eingabevektor möglichst gut auf den Soll-Output
abgebildet wird.
Grüße,
Joachim