- ตุลาคม 11, 2018
- โพสโดย: ทีมงานวิกิฟอเร็กซ์
- หมวดหมู่: ระบบการซื้อขายฟอเร็กซ์
- Neural Network ─ Hull Transferring Common (เอชเอ็มเอ) & Deviation-Scaled Transferring Common (ดีเอสเอ็มเอ) -
☛ Makes use of HMA algorithm however this one is a variation from low-lag to zero-lag
after which... fused with the next:
↓
☛ Jurik Filters/Smoothing and customized MA varieties
☛ Mixed with Deviation-Scaled Transferring Common Algorithm
☛สูงกว่า & Greatest Method (สูงกว่า & การคำนวณ APB)
Be aware: Greatest use with Volumes on Primary Chart indicator ─ advisable for indicator set off/replace motion
หลักการชั่วคราวของโครงข่ายประสาทเทียม:
The Neural community เป็นหุ่นจำลองเอาท์พุตที่สามารถปรับได้ตามความสามารถของอินพุท. ประกอบด้วยจำนวน ชั้น:
- เข้าสู่เลเยอร์, ซึ่งประกอบด้วยการป้อนความรู้
- ชั้นที่ซ่อนอยู่, which consists of processing nodes known as เซลล์ประสาท
- เลเยอร์เอาท์พุต, ซึ่งประกอบด้วย 1 หรือเซลล์ประสาทจำนวนหนึ่ง, ซึ่งมีผลผลิตเป็นผลผลิตของชุมชน.
โหนดทั้งหมดของเลเยอร์ที่อยู่ติดกันเชื่อมต่อถึงกัน. These connections are known as ไซแนปส์. แต่ละไซแนปส์มีค่าสัมประสิทธิ์สเกลที่กำหนด, by which the info propagated by means of the synapse is multiplied. These scaling coefficient are known as weights (ว[ฉัน][เจ][เค]). ในก โครงข่ายประสาทเทียมแบบป้อนล่วงหน้า (FFNN) the info is propagated from inputs to the outputs. นี่คือตัวอย่างของ FFNN ที่มีเลเยอร์ป้อนหนึ่งเลเยอร์, one output layer, and two hidden layers:
The topology of a FFNN is commonly abbreviated as follows: <# ของอินพุต> - <# ของเซลล์ประสาทภายในชั้นที่ซ่อนอยู่ชั้นแรก> - <# ของเซลล์ประสาทภายในชั้นซ่อนที่สอง> -...- <# ของเอาท์พุท>. The above community might be known as a 4-3-3-1 ชุมชน.
The info is processed by neurons in two steps, ได้รับการพิสูจน์อย่างสอดคล้องกันทั่วทั้งวงกลมด้วยสัญญาณผลรวมและสัญญาณสเต็ป:
- ข้อมูลนำเข้าทั้งหมดจะคูณด้วยน้ำหนักที่เกี่ยวข้องและหาผลรวม
- ผลรวมที่ตามมาจะถูกประมวลผลโดยเซลล์ประสาท activation operate, ซึ่งเอาท์พุตคือเอาท์พุตของเซลล์ประสาท.
It's the neuron's activation operate that offers non-linearity to the neural community mannequin. โดยที่ไม่มีมัน, there isn't a motive to have hidden layers, และชุมชนประสาทกลายเป็นการถดถอยอัตโนมัติเชิงเส้น (เออาร์) นางแบบ.
✜ Deviation-Scaled Transferring Common (ดีเอสเอ็มเอ) ✜
The brand new ดีเอสเอ็มเอ made by John Ehlers and featured within the July 2018 situation of TASC journal.
The DSMA is a knowledge smoothing method that acts as an exponential transferring common with a dynamic smoothing coefficient. The smoothing coefficient is mechanically up to date primarily based on the magnitude of value modifications. Within the Deviation-Scaled Transferring Common, the usual deviation from the imply is chosen to be the measure of this magnitude. The ensuing indicator offers substantial smoothing of the info even when value modifications are small whereas shortly adapting to those modifications.
The writer explains that because of its design, it has minimal lag but is ready to present appreciable smoothing. อย่างไรก็ตาม, โครงข่ายประสาทเทียม - เอชเอ็มเอ & DSMA indicator is fused with Jurik filters/smoothing mixed with zero-lag HMA system.
☝ I can't present any kind of assist like coding (พร้อมด้วยรหัสการจัดหา) และบริการแก้ไขปัญหา.
☢ There are not any ensures that this indicator work completely or with out errors. ดังนั้น, use at your personal danger; ฉันไม่รับผิดชอบทางกฎหมายต่อความเสียหายของระบบ, การสูญเสียทางการเงินและแม้กระทั่งการขาดชีวิต.
final replace:
8:00 AM
วันพฤหัสบดี, 11 ตุลาคม 2018
เวลามาตรฐานกรีนิช (GMT)