※ Neuronale Netzwerk-Rumpf Übertragung gemeinsamen ※ ☛ Jurik Filter/Glättung und kundenspezifische MA sortiert nach Mladen ☛ höhere und größte Formulierung (höhere & Fahndung Berechnung) ☛ nutzt Rumpf MA (von Allan Hull) jedoch ist dies eine Variation von niedrigen Verzögerung auf NULL lag ☛ größte US e mit Volumen auf fundamental Chart Indikator-vorteilhaft für Indikator Set aus/Replace Motion Transient Prinzip der neuronalen Netze: Neuronale Gemeinschaft ist eine verstellbare Mannequin von Ausgängen als Fähigkeiten der Eingänge. Es besteht aus mehreren Ebenen:
- Geben Sie Layer ein, der aus Eingabe wissen besteht.
- Hidden Layer, der aus Verarbeitungsknoten besteht, die als Neuronen bezeichnet werden
- Output-Schicht, die aus 1 oder einer Reihe von Neuronen besteht, deren Ausgänge sind die Community-Ausgänge.
Alle Knoten benachbarter Ebenen sind miteinander verbunden. Diese Verbindungen werden als Synapsen bezeichnet. Jede Synapse hat einen zugewiesenen Skalierungs Koeffizienten, mit dem die durch die Synapse propagierten Informationen multipliziert werden. Dieser Skalierungs Koeffizient wird als Gewichte bezeichnet (w [i] [j] [k]). In einem Feed-Ahead-neuronalen Netzwerk (FFNN) werden die Informationen von den Eingängen zu den Ausgängen weitergegeben. Hier ist eine Instanz von FFNN mit einer Eingabeebene, einer Ausgabeebene und zwei verborgenen Ebenen:
Angeschlossenes Bild (zum Vergrößern anklicken)
Die Topologie eines FFNN wird normalerweise wie folgt abgekürzt: < # von eingaben >-< # von neuronen innerhalb der ersten versteckten ebene >-< # von neuronen innerhalb der zweiten versteckten ebene >-...-< # von ausgängen >. Die oben genannte Gemeinschaft kann als eine 4-3-3-1 Gemeinschaft bekannt sein. Die Informationen werden von Neuronen in zwei Schritten verarbeitet, entsprechend nachgewiesen im gesamten Kreis durch ein Summensignal und ein Schritt Signal:
- Alle Eingänge werden mit den zugehörigen Gewichtungen multipliziert und summiert
- Die daraus resultierenden Summen werden durch die Aktivierung durch die Neuronen verarbeitet, deren Ausgang der Neuron-Output ist.
Es ist die Aktivierung des Neurons durchführen, die nicht-Linearität der neuronalen Gemeinschaft Schaufensterpuppe bietet. Mit out it, gibt es keine solche Sache wie ein Motiv, versteckte Schichten haben, und die neuronale Gemeinschaft verwandelt sich in eine lineare Auto-Regression (AR) Schaufensterpuppe. ☝ Ich kann nicht präsentieren jede Art von unterstützen wie Codierung (zusammen mit Supply-Code) und Fehlersuche Service. Denn jetzt ist es möglich, Sie werden diesen Indikator verwenden, solange Sie mit den Daten/Talent der Weg, um die Standard-TDI-Indikator verwenden bewaffnet sind. Sie können zusätzlich die Parameter/Einstellungen, die hauptsächlich in Ihrer Wahl basieren, regulieren. ☢ Durch die Art und Weise, in der, es gibt keine gewährleistet, dass diese Indikatoren vollständig oder mit Fehlern zu arbeiten. Verwenden Sie daher bei ihrer individuellen Bedrohung; Ich begleichen für keine rechtliche Verantwortung für System Schaden, monetäre Verluste und sogar Mangel an Leben.
Angeschlossenes Bild (zum Vergrößern anklicken)
Add Date: 06:24 pm | Dienstag, 12 Juni 2018 | Greenwich impliziert Zeit (GMT)
Verbundene Datei
Neural-Network_Hull-MA_Jurik. zip 128 KB | 64 Downloads