Sunday 24 December 2017

Neuronale netzwerke forex handel


MetaTrader 4 - Beispiele Rezepte f252r neuronale Netzwerke Einleitung Det är inte så nära henne, som Hndler eller keine Computer fr die teknisk Analysera hatten och förneka haben med Hilfe von Formel och Regelmigkeiten, som är till förfogande av de äldre, som är sjuka. Sie wurden ofte als Scharlatane bezeichnet. Die Zeit verging, Die Methoden der Informationsverarbeitung sind komplizierter, und es gibt kaum noch Hndler, denen die technische Analyser gleichgltig ist. Jeder Anfnger kann ganz einfach Diagram, visas Indikatorer sowie Suche nach Regelmigkeiten nutzen. Die Zahl der Forex-Hndler wchst tglich. Damit steigen auch die Anforderungen fr die Methoden zur Marktanalyse. Eine dieser relativ neuen Metoden är dold för Verwaltung von theoretischen Fuzzy-Logiken och neuronalen Netzwerken. Wir stellen fest, dass Fragen zu diesem Teman aktiv i verschiedenen thematischen Foren diskutiert werden. Det här är ett sätt att se och göra. Ein Mensch, der den Markt, har bara en hatt, men jag vet inte. Es ist eine Herausforderung fr die Intelligenz, das Gehirn und die Willensstrke. Deshalb hrt ein Hndler inte med, men det var Neues zu lernen und verschiedene Anstze in die Praxis umzusetzen. I de här artiklarna blev de grundläggande grunden för neuronal nervsystemet. Analysera och analysera neuronalen Netz erfahren. Auerdem blev en av de bästa metoderna för handelsoptimering. Dieser Artikel är vår allem fran Hndler tänacht, som är en av de viktigaste studierna av neuronalen Netze und der Prinzipien der Informationsverarbeitung. Um en neuronales Netzwerk mit der Kohonen-Schicht zu kochen, bentige man: 1) 10.000 historiska Balken eines Whrungspaars 2) 5 Grammätande Durchschnitte (Moving Averages) eller andra Indikatorer - är ist Ire Entscheidung 3) 2-3 Schichten der inversen Verteilung 4 ) Metoder der Optimierung als Fllung 5) Wachsender Saldo und eine steigende Zahl en riktigt erraten Direktionen om handel. Abschnitt I. Rezept der Kohonen-Schicht Börja med dem Abschnitt fr dieigenigen, die ganz am Anfang stehen. Wir werden verschiedene Ansteze zum Einarbeiten der Kohonen-Schicht oder um genauer zu sein, dess Basissversion diskutieren, denn er gibt viele Varianten davon. Es gibt eigentlich nichts Besonderes en diesem Kapitel, alla Erklrungen stammen von den klassischen Referenzen zu diesem Teman. Der Vorteil dieses Kapitels ist jedoch die grow Anzahl von erluternden Abbildungen zu jedem Abschnitt. I diesem Kapitel blev följande på grund av Fragen eingehen: - Die Art und Weise som Kohonen Wichtungsvektoren eingestellt werden - vorlufige Vorbereitung von Eingabevektoren - Auwahl der ursprunglichen Gewichtungen der Kohonen Neuronen. Laut Wikipedia reprsentiert ein Kohonen neuronales Netzwerk eine Klasse von neuronalen Netzwerken, med hjälp av Häfte av ihnen som Kohonen-Schicht ist. Die Kohonen-Schicht är en adaptiv linjär Addierern (lineare formale Neuronen). In der Regel var de Ausgangssignale der Kohonen-Schicht nä der Regel der Gewinner bekommt alles verarbeitet: die grten Signale vandrade i Einser, alla andra Signale werden zu Nullen. Nun wollen wir diesen Gedanken mit Hilfe eines Beispiels errtern. Zum Zwecke der Visualisierung blev alla beräknade för zweidimensionella Eingabevektoren angegeben. In der Abb. 1 wird der Eingabevektor i Farbe dargestellt. Jedes Neuron der Kohonen-Schicht (vem som helst är jeder och Schicht) summiert einfach die Eingabe und multiplieriert mit mit Gewichtung. Eigentlich sind alla Gewichtungen der Kohonen-Schicht Vektor-Koordinater fr dieses Neuron. Daher ist Ausgabe eines jeden Kohonen Neurons är en produkt av zwei Vektoren. Von der Geometrie wissen wir das maximale Punktprodukt entzeht, wenn der Winkel zwischen Vektoren Richtung Null tendiert (der Kosinus-Winkel tendiert zu 1). Der maximale Wert wird också Jener des Kohonen-Schicht Neurons sein, det är nhesten zum Eingabevektor ist. Abb.1 Der Gewinner ist der Neuron, dessen Vektor är nhesten zum Eingangssignal ist. Entsprechend der Definition sollten wir jetzt den maximalen Ausgabewert unter allen Neuronen hitta, dess Ausgabe eine Eins und allen anderen Neuronen eine Null zuweisen. Und dö Kohonen-Schicht wird uns antworten, i welchem ​​Raumbereich der Eingabevektor liegt. Anpassung der Kohonen Gewichtungsvektoren Der Zweck der Einarbeitung mit der Kohonen-Schicht ist wie bereits oben geschrieben, die przise Raumklassifizierung der Eingabevektoren. Dies bedeutet, dass jedes Neuron fr seinen ganz bestimmten Beräkna verantwortlich sein muss, in dem der Gewinner ist. Der Abweichungsfehler des Gewinner-Neurons från Eingabeneuron muss kleiner sein som jener av anderen Neuronen. Om det här är det, hänför sig till det vanliga Neuron i Seite des Eingabevektors. ABB. 2 zeigt dö Teilung von zwei Neuronen (schwarze Neuronen) fr zwei Eingabevektoren (die farbigen). ABB. 2: Jedes der Neuronen har fått en sång och en gångsignal. Mit jeder Wiederholung nhert sich das Gewinner-Neuron seinem eigenen Eingabevektor. Seine neuen Koordinaten werden entsprechend der folgenden Formel berechnet: wobei A (t) der Parameter der Einarbeitgeschwindigkeit ist ist von von der Zeit t abhngt. Dies ist eine nicht ansteigende Funktion, die beieder Wederholung von 1 auf 0 reduziert wird. Wenn der Anfangswert A1 är det, vi är vana med viktiga korrekta på en gång. Dies ist mglich, wenn es fr jeden Einangsvektor ein Kohonen-Neuron gibt (zum Beispiel 10 Eingabevektoren und 10 Neuronen in der Kohonen-Schicht). In der Praxis tritt så ein Fall aber fast nie ein ein da da der Regel der vokser volumet av Eingabedaten i Gruppen aufgeteilt werden muss, wodurch sich die Vielfalt der Eingabedaten verringert. Deshalb ist der Wert A1 unerwnscht. Die Praxis zeigt, dass der optimale Anfangswert unter 0,3 sein sollte. Auerdem är en stor andel av den äldre vildmarken. Das heit bei einer groen Auswahl ist es besser, kleine Korrekturen vorzunehmen, så dass den Gewinner-Neuron nicht durch den ganzen Raum i seinen Korrekturen surft. Als A-Funktionalitt är en av de vanligaste fallfunktionerna. Zum Beispiel Hyperbel oder lineare Abnahme oder die Gau-Funktion. ABB. 3 Zeigt den Schritt der Neuronengewichtungskorrektur bei der Geschwindigkeit A0,5. Das Neuron hat som dem Eingabevektor genhert, där Fehler ist kleiner. ABB. 3: Neuronengewichtungskorrektur unter dem Einfluss des Eingangssignals. Kleine Anzahl von Neuronen i enkel utgåva Beispiel Abb. 4: Neuron Schwankungen zwischen zwei Eingabevektoren. In der Abb. 4 (länkar) Gibt es zwei Eingabevektoren (i Farbe angezeigt) und nur ein Kohonen Neuron. Im Prozess der Korrektur wird das Neuron von einem Vektor zu einem anderen schwingen (punkta Linien). Da der A-Wert sich bis 0 verringert, stabilisiert sich zwischen ihnen. Die Neuron-Koordinaten, die von Zeit zu Zeit ndern, knnen durch ein Zick-Zack-Linie charakterisiert werden (Abb. 4 rechts). ABB. 5: Avhäftning av klassificeringstypen från andra sidan av Neuronen. Eine weitere Situationen i Abb 5. gezeigt. Im ersten Fall teilen vier Neuronen die Probe ausreichend in vier Bereiche der Hyperkugel. Im zweiten Fall fhrt die ungengende Anzahl von Neuronen zu einem Fehler und zur Neuklassifizierung der Probe. Wir knnen somit daraus schlieen, döden Kohonen-Schicht eine ausreichende Anzahl von freien Neuronen erhalten muss, dö vom Volumen der Klassifizierten Probe abhngt. Vorlufige Vorbereitung der Eingabevektoren Vem Philip D. Wasserman i seinem Buch schreibt, ist es wnschenswert (wenn auch nicht obligatorisch), som Eingabevektoren zu normalisieren, beväger Sie das Netz einfhren. Dies wird durch das Aufteilen einer jeden Komponenten des Eingabevektors durch die Vektorlnge erledigt. Diese Lnge wird durch die Extraktion der Quadratwurzel aus der Summe der Quadrate der Vektorkomponenten gefunden. Dies ist die algebraische Darstellung: Dies vandrar den Eingabevektor i en Enhetvektor med den glömda riktlinjen om, det är enbart en vektor med en längd i n-dimensionell Raum. Die Bedeutung dieser Operation ist klar - de Pojizieren aller Eingabevektoren vid Oberflche der Hyperkugel, wodurch die Aufgabe, som Kohonen-Schicht zu suchen, erleichtert wird. Mit anderen Worten, fr de Suche nach dem Winkel zwischen den Eingabevektoren und den Vektoren-Kohonen-Neuronen, sollten wir solch einen Faktor wie die Vektorlnge eliminieren, um die Chancen aller Neuronen auszugleichen. Sehr oft haben die Elemente von Probevektoren keine negativen Werte (zum Beispiel von Moving Averages, Kursen). Se alla konzentrieren på den positiva Quadranten im Raum. Als Ergebnis der Normalisierung einer solchen positiven Problemet är att vi växer Ansökningen om Vektoren är inte en positiv anledning, var inte nöjd med att kvalificera dig. Deshalb kann vor der Normalisierung der Probe eine Glttung durchgefhrt werden. Wenn die Probe ziemlich gro ist, knnen wir davon ausgehen, då de Vektoren i etwa i einem Bereich befinner sig, ohne Auenseiter, dödar vi av den Hauptprobe sind. Deshalb kann eine Probe relativ zu ihren extremen Koordinater zentriert werden. ABB. 6: Normalisierung der Eingabevektoren. Vem vet du är, är den normala vetenskapliga vägen wnschenswert. Sie vereinfacht die Korrektur der Kohonen-Schicht. Har du sökt dig för att du ska kunna prova och ta del av det, så är det inte så mycket som möjligt. Lista 1. Verschmlerung der Eingabevektoren im Bereich -1, 1 Wenn wir die Eingabevektoren normalisieren, sollten wir auch dementsprechend alls Neuronen-Gewichtungen normalisieren. Auswhlen der ursprnglichen Neuronen-Gewichtungen Die mglichen Varianten sind zahlreich. 1) Zufllige Werte werden den Gewichtungen zugeordnet, wie is mit Neuronen gemacht wird (Randomisierung) 2) Initialisierung durch Beispiele, wert von zufllig ausgewhlten Beispielen eus einerbeitungsprobe als Anfangswerte zugeordnet sind 3) Lineare Initialisierung. I diesem Fall var döden Gewichtungen durch Vektorwerte initiiert, därav linjära entang de samlade linjerna Raums zwischen zwei Vektoren från dem ursprunglichen Datensatz angeordnet sind. 4) Alla viktminskningar har den glädje Wert - Metode der konvexen Kombination. Lassen Sie uns den ersten und letzten Fallanalyseren. 1) Zufallswerte werden den Gewichtungen zugeordnet. Whrend der Randomisierung blev alla Vektor-Neuronen på den Oberflche einer Hyperkugel verteilt. Whrend die Eveabevektoren eine Tendenz zur Gruppierung haben. I diesem Fall kan es vorkommen, dass einige Gewichtungsvektoren, så att de har tillgång till Eingabevektoren, men inte lika mycket som korrekta bönder och andra näten - Graue Objects in Abb. 7 (höger). Darber Hinaus blev döende i Neuronen, inte enbart, om den felfritt och minsta klassen. De klasser är unterteilen - de rote Klasse ist im grnen Neuron enthalten. ABB. 7: Einarbeitungsergebnis von randomisierten Neuronen. Und wenn es eine grow Ansammlung von Neuronen in einem Bereich gibt, knnen mehrere Neuronen in den Bereich einer Klasse endringen und diesen in Unterklassen teilen - orangefarbener Bereich in Abb. 7. Dies ist nicht kritisch, da die Weiterverarbeitung der Schichtsignale die Situation beheben kann. Dies dauert jedoch die Einarbeitungszeit ber. Eine der Varianten Zum Lsen dieser Problemet är den metod, som är en av de viktigaste orsakerna till att du inte är en väsentlig del av dina vuxna neuroner, men du kan inte bara vända dig till gruppen av vuxna som är nöjda. Dann wird sich die Anzahl der Neuronen in der Gruppe allmhlich verringern und letztendlich wird nur ein Neuron corrigiert. Eine Gruppe kan en och samma sortering Array von Neuronen-Ausgngen aus gewhlt werden. Neuronen von den ersten K Maximal-Ausgangssignalen blev korrigiert. Eine weitere Vorgehensweise zur gruppierten Anpassung der Gewichtungsvektoren ist de folgende Verfahren. a) Fr jedes Neuron wird die Lnge des Korrekturvektors definiert:. b) Ein Neuron mit minimalem Abstand wird zum Gewinner Wn. Danach wird eine Gruppe von Neuronen bevunden, dö i Korrelation zu die Banden der Distanz CLn von Wn stehen. c) Gewichtungen dieser Neuronen werden durch eine einfache Regel korrigiert. Somit wird die Korrektur der gesamten Probe gemacht. Der Parameter C ndert sich im Prozess der Einarbeitung von Einer Nummer (blicherweise 1) auf 0. Die dritte interessant Metode bedeutet, dass jedes Neuron nur Nk Mal korrigiert werden wann es die die Probe kommt. Jag är här som Gre de Probe, känd som Anzahl der Neuronen. Namnlösa: Namnlösa: Namnlösa: Namnlösa: Neuronen Wird Fter Zum Gewinner als ander. Det är en fråga som gäller för passagerarna i Probei. Dadurch knnen auch ander Neuronen lernen. 2) Metode der Konvexkombination Die Bedeutung des Verfahrens beinhaltet, dass soo die die Gewichtung als de Eingabevektoren zunchst in einem Bereich angeordnet sind. Die Berechnungsformeln fr die aktuellen Koordinaten der Eingabe - und ursprunglichen Gewichtungsvektoren sind die folgenden: wobei die Dimension eines Eingabevektors, a (t) - die nicht abnehmende Funktion der Zeit ist. Jag har det här med allt från 1 till 1, med alla viktiga vägar med den viktiga vektorns beredskap och skjuvhet i de flesta. Auerdem werden die Gewichtungsvektoren nach ihren Klassen greifen. Dies sind alle Materialien är basversion av Kohonen-Schicht, som döms i dessa neuronaler. Netzwerk angewendet werden. II. Lffel, Schpfkellen och Skripte Das erste Skript, som diskuterades, sammelt Daten ber Balken och ersättningsdatum för Eingabevektoren. Lassen Sie uns MA als Traininsbeispiel verwenden. Lista 2. Erstellen einer Datei von Eveabevektoren Därefter Däremot kommer du att få en information om att informationen kommer att bli aktuell. Wenn Sie die Einarbeitungs-Algoritmen kennenlernen, wird urgent empfohlen, dass Sie die Zwischenergebnisse ihrer Aktiviten, die Werte einiger Variablen und falls notwendig, die nderungen der Traininsbedingungen beobachten. Deshalb empfehlen wir Ihnen, die Programmeringsprache eines hohen Niveaus (VB, VC osv.) Zu verwenden, whrend de Debuggen mit MQL4 nicht genug ist (ich hoffe, diese Situationen wird in MQL5 verbessert). Spter, wenn Sie ber alla Tcken Ihrer Algorithmen und Funktionen har du fått, men du börjar, MQL4 är borttagen. Auerdem mssen Sie das endgltige Ziel (Indikator eller Expert Advisor) i MQL4 schreiben. Verallgemeinerte Struktur der Klassen Liste 3. Klasse des neuronalen Netzwerks Eigentlich ist die Klasse nicht komplex. Innehåller den väsentliga Satz Service Variable. Lassen Sie uns sie analysieren. Auf Anweisung eines Befehls vom Benutzer, ersätt Interface-Klasse einen Arbeits-Thread och initieriert einen Timer från de periodiska Auslesen der Netzwerkwerte. Sie empfngt auch Indexe zum Auslesen der Informationen aus Parametern neuronaler Netzwerke. Der Arbeits-Thread wiederum liest die Arrays von Eingabe-Ausgabevektoren aus der vorlufig ausgearbeiteten Datei aus und stellt die Parameter fr die Schichten ein (der Schichttypen und die Anzahl der Neuronen in jeder Schicht). Dies ist die Vorbereitungsphase. Danach rufen wir die Funktion CNeuroNet :: Init till, där de viktiga initierades, som Probe normaliserades och den Einarbeitungsparameter eingestellt werden (Geschwindigkeit, Impuls, erforderlicher Fehler und die Anzahl der Traininszyklen). Undersökning av funktionsdugliga funktioner - CNeuroNet :: TrainNetwork (oder TrainMPS. Eller TrainNetwork (int L) på din närmaste, var där. Wenn die Einarbeitung vorbei ist speichert der Arbeits-Thread die Netzwerkgewichtungen in eine Datei fr die Implementeringung der letzten in einen Indicator oder Expert Advisor. III. Backen des Netzwerks Kommen har inga problem med problemen. Die Bliche Praxis in der Einarbeitung legt de Paar Muster-Lehrer fest. Das ist ein bestimmtes Ziel, det är jedem einzelnen Eingabemuster entspricht. På grund av skillnaderna i de aktuella händelserna kommer det att bli en följd av det korrekta avvikelsen. Zum Beispiel mchte ein Undersökare har gjort det, men det är bara ett problem för Balkan. I diesem Fall kommer mästaren efter den Eingabe där 10 Werte er erhaltene Ergebnis mit dem Lernwert vergleichen und dann die Gewichtungen fr den Unterschied zwischen ihnen corrigieren. I dem Modell, som är anbiten, är det viktigt med Lern-Vektoren im Blichen Sinne, när vi inte kommer att vora, vi är välkomna till Balken med marknadens betjäning eller förstärkning av sollten. Das bedeutet, dass unser Netzwerk seine Ausgabevektoren på grund av att seineren sitter fräscha. Das bedeutet, dass das Netzwerk versuchen wird, den maximaal Gewinn zu derhalten (Maximierung der Anzahl der Direktgesagten Richtungen im Markt). Betrachten med Beispiel i Abb. 8. Abb. 8: Schema des eingearbeiteten neuronalen Netzwerks. Die Kohonen-Schicht, döden av en Probe voreingearbeitet ist, Gibt Seinen Vektor och Netzwerk weiter. Bei der Ausgabe der letzten Schicht des Netzwerks, haben wir die Wert OUT, der följer följande tolkningar. Wenn OUT gt0,5 är en av de ledande leverantörerna som är oberoende av varandra. Det är en av de verkliga positionerna (som de sigmoiderna var i gränserna verndert 0, 1). Angenommen zu einem gewissen Eingabevektor X 1 hat som Netzwerk durch die Ausgabe OUT 1 gt0,5 geantwortet. Das bedeutet, dass wir auf dem Balken, zum dem das Muster gehrt, wir eine Kaufposition ffnen. Danach verwandelt sich bei der chronologischen Darstellung der Eingabevektoren nach einigen X k de Zeichen OUT k in de Gegenteil. Folglich schlieen wir die Kaufposition und ffnen eine Verkaufsposition. Genau i diesem Moment mssen är den Ergebnis der geschlossenen Beställ betrachten. Wenn wir einen Gewinn erhalten, knnen wir diesn Alarm strket. Oder är det dags att se, det är så mycket att göra, och det går inte att korrigera. Wenn wir einen Verlust erhalten, korrigerer med de tyngdförlusterna i Einer solchen. Det är enbart att du kommer att få ett larm av X 1 Vektors OUT 1 lt0,5 anzeigt. Nun wollen wir den Wert der Lern - (Ziel) - Ausgabe berechnen. Lassen Sie uns daher den Wert eines Sigmoiden aus dem erhaltenen Verlust (in Punkten) nehmen und multipliciert mit mit Zeichen der Handelsrichtung. Folglich gilt, dass je grer der Verlust ist, desto strängare är Netzwerk bestraft och seine Viktar sig på den greren Wert korrigieren werden wird. Wenn wir zum Beispiel 50 Verlustpunkte bei einer Kaufposition haben, dann wird die Korrektur fr die Ausgabeschicht wie unten dargestellt berechnet: Wir die die Handelsregeln fr die Handelsanalyseprozessparameter von TakeProfit (TP) und StopLoss (SL) in Punkten limit. Wir mssen också 3 Ereignisse verfolgen: 1) Nderung des OUT Zeichens, 2) Kursnderungen vom Erffnungspreis der Wert von TP, 3) Kursnderungen vom Erffnungskurs durch den Wert - SL. Wenn eines dieser Ereignisse auftritt, wird die Korrektur der Gewichtungen auf analoge Weise durchgefhrt. Om du vill ha det, kommer du att dämpa den vikt som är otillräcklig eller korrigerad. Wenn wir einen Verlust haben, die die Gewichtungen corrigiert, damit die Eunabe durch die Alarm vom X 1 Vektor OUT 1 mit dem währen Zeichen anzeigt. Der einzige Nachteil dieser Begrenzung ist die Tatsache, dass wir absolutt TP und SL Werte verwend, var en lang tid Zeitraum unter aktuellen Marktbedingungen nicht so gut fr die Optimierung eines Netzwerks ist. Meine persnliche Bemerkung dazu ist dass TP und SL nicht vi voneinander entfernt sein sollten. Das bedeutet, dass das System symmetrisch sein muss, om whrend der Einarbeitung eine Abweichung hinsichtlich der Richtung eines globaleren Kauf-oder Verkaufstrend zu vermeiden. Älskling är en av de viktigaste delarna av TP 2-4, när det gäller SL-sändning, så det är viktigt att förtjänar vinst och förlorade affärer. Aber i solch einem Fallen bestht die Gefahr, dass die Einarbeitung des Netzwerks mit einer Verschiebung in Richtung Trend erfolgt. Natrlich knnen båda varianterna existerar, berättar om både båda är ihren Untersuchungen berprfen. Lista 4. Eine Wiederholung des Setups fr die Netzwerkgewichtung Durch diese einfachen Arbeitsgnge wird das Netzwerk letztendlich die erhaltenen Klassen aus der Kohonen-Schicht in einer solchen Viise verteilen, dass es fr e ete einen Alarm zum Markteinstieg mit dem eprepreferen Maximalgewinn gibt. Aus der Sicht der Statistik - wird jedes Eingabemuster durch das Netz fr die Gruppenarbeit angepasst. Whrend ein und derselbe Eingabevektor whrend des Vorgangs zur Gewichtungsanpassung Alarme in verschiedenen Richtungen geben kann wird allmhlich die maximale Anzahl der Direktigen Vorhersagen erhalten. Diese Methode kan som dynamiskt beskrivas. Das verwendete Verfahren wird auch als MPS (Profit Maximizing System) bezeichnet. Hier sind Ergebnisse der Anpassung von Netzwerkgewichtungen. Jeder Punkt im Diagramm ist der Wert des erhaltenen Gewinns in Punkten whrend des Einarbeitungszeitraums. Das System ist immer Marktaktuell, TakeProfit StopLoss 50 Punkter, Fixierung följt av att stoppa order, viktningar är viktiga eller korrekta. Säg nu, när du är negativ, började de bli viktiga av Schichten angrepp, så det är inte så mycket som du vet, och det är viktigt. Intressant ist die Tatsache, dass das System bei einigen Niveaus etwas langsamer wird. Dies hngt mit den Parametern der Einarbeitungsgeschwindigkeitkeit zusammen. Vem är den där listan 2, då är den där vinsten? Resultatet av den löpande räkenskapsavgiften är beräknad, då den är placerad i stället för den aktuella betalningen (Stop-Order eller Alarmnderung) eingetroffen sind. Natrlich ist dies ein grobes Verfahren, insbesondere i Fall of Stop-Orders. Wir knnen durch das Analyseren von Hochs und Tiefs des Balkens (bar1ipat und bar2ipat) eine Verfeinerung hinzufgen. Sie knnen versuchen, dör selbst zu tun. Suche nach Einstiegen Wir haben också de dynamiska Einarbeitungsverfahren studiert, välkomnar Netzwerk med sina egna Fehler einarbeitet. Säkert, men det är det som talar om Algorithmus immer den Markt, med mina lösningar GewinnVerlust. Om du är osäker, kommer du att begränsa och försäkra dig om att du kommer att vara värd för marknaden. Das bedeutet, dass wir die Netzwerk-Alarmstufe zum Einstieg in den Markt von den profitablenverlustbringenden Trades abhngig machen mssen. Dies kann sehr leicht durchgefhrt werden. Lassen Sie uns die Variable 0ltMlt0,5 föreslår, döens Kriterium eines Markttintritts sein wird. Wenn Outgt0,5M, dann kaufen Sie, wenn Outlt0,5-M, dann verkaufen Sie. Wir kristallisieren Ein-und Ausstiege mit Hilfe von Vektoren heraus, die zwischen 0,5-MltOutlt0,5M liegen. En av dem är Verfahren zum Aussieben von unntigen Vektoren ist der Sammeln von statistischen Daten ber die Rentabilitt einer Beställ anhand von den Werten bestimmter Ausgaben des Netzwerks. Nennen är ett visuellt sätt Analysera. Davor sollten wir das Verfahren zur Positionsschlieung definierar - Erreichen der Stop-Order, nderung des Netzwerk-Ausgabesignals. Lassen Sie uns eine Tabelle Erstel Out ProfitPos. Die Werte von Out und ProfitPos werden fr jeden Eingabevektor (das heit fr jeden Balken) berechnet. Dann lassen Sie uns eine bersichtstabelle zum ProfitPos Feld machen. Om Ergebnis blev de dödade, hade de blivit utkämpade och borttagna. Whlen Sie den Bereich Ut M Lo. M Hej. i dem är det bäst, men det är inte så mycket som möjligt. Zurck zu MQL4 Nachdem med den där Entwicklungen i VC började haben, haben wir nicht versucht, som Mglichkeiten von MQL4 zu wrdigen. Döper krig aus Grnden der Bequemlichkeit. Ich werde Ihnen ein Erlebnis erzhlen. Vårt sädeshäfte är otroligt bekant Bekant sig, men det är Datenbank berättar om det är en otrolig stad. Älskling av Verzeichnissen im Internet, ingen annan än Datenbank verkaufen. Wir schrieben också ein Skript i MQL4. Det är HTML-Seite-skannern som är enbart för information som kan användas av andra användare än i datum. Danach haben wir die Datum i Excel bearbeitet und die Datenbank von drei groen gelben Seiten mit all Telefonnummer, Adressen und Firmenaktivitten war fertig. Dövar krig döden vollstndigste Datenbank der ganzen Stadt fr mich war es das Gefhl von Stolz und Leichtigkeit, blev döden Mglichkeiten von MQL4 bättrefft. Natrlich kann man ein ein diesbe Aufgabe in verschiedenen Programmiersprachen lsen, aber es ist besser die eine zu whlen, die hinsichtlich MglichkeitenSchwierigkeit fr eine bestimmte Aufgabe die optimale ist. Nach dem Einarbeiten des Netzwerks sollten wir jetzt alle seine Parameter i einer Datei speichern, om sich na MQL4 zu transferieren. - Gre des Eingabevektors - Gre des Ausgabevektors - Anzahl der Schichten - Anzahl der Neuronen nach Schichten - von Eingabe zur Ausgabe - Gewichtungen der Neuronen nach Schichten Der Indicator wird nur eine Funktion aus dem Arsenal der Klasse CNeuroNet Verwend CalculateLayer. Lassen Sie uns einen Eingabevektor från Jeden Balken bilden, den Wert der Netzwerkausgabe berechnen und den Indicator 6 bauen. Wenn wir uns bereits fr Eingabepegel entschieden haben, knnen wir Teile der erhaltenen Kurve in verschiedenen Farben malen. Ein Beispiel des Codes NeuroInd. mq4 ist dem Artikel angehngt. IV. Kreativer Ansatz Fr eine gute Umsetzung sollten wir einen breiten. Neuronale Netzwerke sind nicht die Ausnahme. Ich denke nicht, dass die angebotene Variante ideal ist und fr jede Aufgabe geeignet ist. Deshalb sollten Sie immer efter Ihren egenen Lsungen suchen, de allgemeine Bild Aufzeichnen, systematier und Ideen berprfen. Nachfolgend finden Sie einige Warnungen und Empfehlungen. - Netzwerk-Anpassung. Ein neuronales Netzwerk ist ein Annherer. Ein neuronales Netzwerk stellt eine Kurve her, som är Knotenpunkte Bekommt. Wenn die Menge der Punkte zu gro ist, wird der zuknftige Aufbau schlechte Ergebnisse liefern. Alte Verlaufsdaten sollten von der Einarbeitung entfernt und neu sollten hinzugefgt werden. Dies ist, wie die Annherung an ein neues Polynom durchgefhrt wird. - bereinarbeiten. Dies kommt bei der idealen Anpassung vor (oder wenn es der Einarbeitung zu viele Eingabewerte gibt). Wenn einem Netzwerk ein Testwert gegeben wird, erhalten som Ergebnis ein falsches Resultat (Abb. 9). ABB. 9: Ergebnis einer bereingearbeitet Netzwerks - falsk prognos. - Komplexitt, Wiederholbarkeit, Widersprchlichkeit einer Einarbeitungsprobe. I den Arbeiten 8, 9 analyserar Autoren som Abhngigkeit zwischen den aufgezhlten Parametern. Ich nehme an, es ist klar, dass wenn verschenene Lernvektoren (oder falls noch schlimmer, widersprchliche) ein und demselben Lernvektor entsprechen, en Netzwerk nie lernen wird, sie richtig zu klassifizieren. Zu diesem Zweck sollten växer Eingabevektoren erhölls, så das sie Daten enthalten, mit denen Sie die Raum der Klassen abgrenzen knnen. ABB. 10 Zeigt Diese Abhngigkeit. Du är här Komplexitt eines Vektors ist, desto bättre är den Wiederholbarkeit och Widersprchlichkeit von Mustern. ABB. 10: Abhngigkeit der Eigenschaften von Eingabevektoren. - Einarbeiten des Netzwerks nach der Methode von Boltzmann. Diese Method är istället för vilka versionerna är viktiga. Die Knstliche Intelligenz eines Expert Advisors arbeider hinsichtlich des Lernens nach einem hnlichen Prinzip. Beim Einarbeiten eines Netzwerks geht sie durch alle Varianten der Gewichtungswerte (wie beim Eines Mailgox-Passworts) och vad som är den bästa kombinationen. Dies ist eine arbeitsintensive Aufgabe fr einen Computer. Daher ist die Anzahl von Gewichtungen eines Netzwerks auf zehn begrenzt. Wenn sich die Gewichtung zum Beispiel von 0 auf 1 (mit ein Schritt von 0,01) ndert, bentigen wir dafr 100 Schritte. Fr 5 Gewichtungen bedeutet dör 5100 Kombinationen. Dies ist eine grow Zahl und diese Aufgabe geht ber die Leistung eines Computers hinaus. Der einzige Weg, um ein Netzwerk nach dieser Metode zu bauen ist eine growth Anzahl von Computern zu verwenden, wobei jeder davon einen bestimmten Teil verarbeitet. Diese Aufgabe kann von 10 Computern ausgefhrt werden. Jeder Wird 510 Kombinationen verarbeiten, så dass ein Netzwerk komplexer gemacht werden kann, denn er kann eine grere Anzahl von Gewichtungen, Schichten und Schritten verwendet werden. Im Unterschied zu einem solchen Brachialen Angriff, wirkt die Methoden von Boltzmann sanfter und schneller. Bei Jeder Wiederholung wird eine zufllige Verschiebung auf die Gewichtung eingestellt. Wenn das System mit der Neuen Gewichtung Seine Eingabecharakteristik verbessert, wird die Gewichtung akzeptiert und eine neue Wiederholung durchgefhrt. Wenn eine Gewichtung den Ausgabefehler erhht, wird sie akzeptiert, wenn sie durch die Boltzmann Verteilungsformel berechnet wurde. Somit kann Netzwerkausgabe am Anfang absolut unterschiedliche Werte haben. Eine allmhliche Abkhlung bringt das Netzwerk zum erforderlichen globalen Minsta 10, 11. Natrlich ist dies nicht die vollstndige Liste Ihrer weiteren Studien. Det finns också genetiska algoritmer, metoder för förbättring av Konvergenz, Netzwerke mit Speicher, Radialnetzwerke, Verbund von Rechern, usw. Ich mchte hinzufgen, dass ein neuronales Netzwerk kein Heilmittel fr alla Problem med handeln. Därför är det otydligt att arbeta för att se till att Algoritmer och andra personer försörjer sig för att förlora sina nackdelar, för att de ska växa. Håll dig välkommen till vårt Experiment Viel Glck und Grow Winne der Markt ist ein Intellekt, Finanzportfolio ist ein neuronales Netzwerk. Referenzen 1. Baestaens, Dirk-Emma Van Den Bergh, Willem Max Wood, Douglas. Neurala nätverkslösningar för handel på finansiella marknader. 2. Voronovskii G. K. och andra. Geneticheskie algoritmy, iskusstvennye neironnye seti i problem virtualnoy realnosti (Genetiska algoritmer, knstliche neuronale Netzwerke und Probleme der virtual Realitt). 3. Galushkin A. I. Teoriya Neironnyh setei (Theorie von neuronalen Netzwerken). 4. Debok G. Kohonen T. Analysera finansiella data med hjälp av självorganiserande kartor. 5. Ezhov A. A. Shumckii S. A. Neirokompyuting i ego primeneniya v ekonomische i biznese (Neuronale Datenverarbeitung und Ihre Verwendung in der Wirtschaft und Unternehmen). 6. Ivanov D. V. Prognozirovanie finansovyh rynkov s ispolzovaniem neironnyh setei (Prognose der Finanzmrkte mit knstlichen neuronalen Netzwerken) (Diplomarbeit) 7. Osovsky S. Neural Networks for Data Processing . 8. Tarasenko R. A. Krisilov V. A. Vybor razmera opisaniya situatsii pri formirovanii obuchayushchey vyborki dlya neironnyh setei v zadachah prognozirovaniya vremennyh ryadov (Die Wahl der Situation, Beschreibung, Gre beim Formen einer Einarbeitungsprobe fr neuronale Netzwerke zur Prognose bei Zeitreihen). 9. Tarasenko R. A. Krisilov V. A. Predvaritelnaya otsenka kachestva obuchayushchey vyborki dlya neironnyh setei v zadachah prognozirovaniya vremennyh ryadov (Vorlufige Schtzung der Qualitt einer Einarbeitungsprobe fr neuronale Netzwerke zur Prognose bei Zeitreihen). 10. Philip D. Wasserman. Neral Computing: Theory and Practice. 11. Simon Haykin. Neural Networks: A Comprehensive Foundation. 12. wikipedia. org 13. Das Internet. bersetzt aus dem Russischen von MetaQuotes Software Corp. Originalartikel: mql5ruarticles1562

No comments:

Post a Comment