Monday, 9 October 2017

Moving Average Neuronales Netzwerk


Neuronales Netz 2 Gleitender Durchschnitt Ein neuronales Netzwerk Expert Advisor basiert auf zwei gleitenden Mittelwerten mit dem Trainingsmodus. Trainieren Sie die Expert Advisor auf ausgewählte Beispiele und machen Sie einen Gewinn im wirklichen Leben. Die EA kann an jedem Instrument und in jedem Zeitrahmen arbeiten. Trading-Algorithmus der EA Zwei gleitende Durchschnitte werden durch den neuronalen Netzwerkkern analysiert, der Befehle zum Kauf oder Verkauf erzeugt. Werden die Werte von zwei Bewegungsdurchschnitten, schnell (FMA) und langsam (SMA), der ersten Schicht zugeführt, auf der zweiten Ebene berechnet sie zwei Neuronen, die für Buy (N Buy) und Sell (N sell) verantwortlich sind Oder Verkauf erfolgt auf der dritten Ebene. Das Blockschaltbild des neuronalen Netzes ist in der Figur gezeigt. Expert Advisor Training Im Trainingsmodus erinnert sich die EA an die Werte der durch den Benutzer markierten gleitenden Durchschnittswerte auf dem Chart des Währungsinstruments. Künftig erkennt es im Normalbetrieb die Werte der gleitenden Mittelwerte. Um die EA-Marke mindestens ein langes und ein kurzes Geschäft auf dem Diagramm zu trainieren. Um einen langen Handel mit dem Kaufen Pfeil anzuzeigen, und für den kurzen Handel verwenden Sie den Verkaufspfeil. Sie können weitere Pfeile auf dem Diagramm platzieren. Je mehr Pfeile, desto länger wird der Prozess der Ausbildung. Das Vorhandensein anderer Objekte auf dem Diagramm außer den Pfeilen ist nicht wünschenswert. Nach dem Training wird der Ordner NN 2MA im gemeinsamen Ordner des Terminals angelegt. Es enthält Datei HHHHHHNN2MA. bin mit den Einstellungen des trainierten neuronalen Netzwerks. XXXXXX im Dateinamen ist der Name des Finanzinstruments. Im Normalbetrieb lädt die EA die Daten aus der Datei. Wenn die Datei nicht gefunden wird, verwendet sie die Standardeinstellungen. Standardmäßig wird das EA bei USDJPY und einem einstündigen Zeitrahmen geschult, die Trades werden 2012 ausgewählt. Für das EA-Training sind folgende Eingabeparameter verantwortlich: Die Anzahl der Gewichte pro Neuron. Entspricht der Länge des MA. Standard - 48. Die Anzahl der Trainingszyklen - Standard 100. Je höher der Wert, desto länger wird der Trainingsprozess sein. In der Testversion ist es 10. Faktor b - der Wert beeinflusst die Geschwindigkeit der Korrektur von Gewichten von Neuronen, wird für die Ausbildung des Netzwerks verwendet. Der Standardwert ist 0,7, muss nicht geändert werden. Lernmodus EA - ermöglicht den Trainingsmodus des EA. Beispiele für das Spezifizieren von Trades zum Trainieren des EA sind in der Figur verfügbar. Die Einstellungen für den Normalmodus Einstellungen für Gleitende Mittelwerte Sie können die Einstellungen für jeden gleitenden Durchschnitt einstellen: den Zeitraum, den Preis, den Berechnungsmodus. Auftragsvolumen - Voreinstellung ist 0,1. Wert von Schlupf in Punkten - Standardwert ist 30. Anzahl der Versuche, eine Position zu öffnen - Standardwert ist 5. Stufe StopLoss in Punkten - Standard ist 0. Level TakeProfit in Punkten - Standard ist 0. Level TrailingStop in Punkten - Standardwert ist 650. Zulassen Geld-Management - Kontrolle der Auftragsgröße, um den Markt zu betreten, aktiviert durch defalt. Wenn der Modus deaktiviert ist, wird die Auftragsgröße aus dem Parameter "Auftragsvolumen" übernommen. Das Volumen der Aufträge als Prozentsatz der Ablagerung - verwendet, um die Auftragsgröße zu kontrollieren, Verzug ist 5 Prozent. Hinzufügen in die geöffnete Position - standardmäßig aktiviert. Wenn es ein Signal gibt, den Markt in Richtung einer offenen Position zu betreten, tritt die EA in den Markt ein. Einstellungen des Neuronalen Netzes Die Anzahl der Gewichte pro Neuron. Entspricht der Länge des MA. Je höher der Wert, desto genauer wird der aktuelle Marktzustand erkannt, reduziert aber die Anzahl der Trades. Je niedriger der Wert, desto weniger genau wird der aktuelle Marktzustand erkannt, aber die Anzahl der Geschäfte steigt. Der Wert der Neuronaktivierung. Der Wert beträgt etwa 0,75 des Wertes Die Anzahl der Gewichte pro Neuron. Je höher der Wert, desto strenger ist die Auswahl von Neuronen für eine Entscheidung. In der Testversion ist es 40. Die Anzahl der Trainingszyklen - Voreinstellung ist 100. Faktor b die Gewichtskorrekturgeschwindigkeit, Voreinstellung ist 0.7. Lernmodus EA der EA-Trainingsmodus. Während des Trainings werden die Maximalwerte der Neuronen in den Kommentaren auf der Tabelle angezeigt. Diese Werte können als Aktivierungswert des Neurons verwendet werden. Ein Beispiel ist in der Figur gezeigt. Kommentare aktivieren - ermöglicht Kommentare auf dem Diagramm. Magie Anzahl der Berater. Pause nach dem Handel in Millisekunden. Standardmäßig ist die EA auf USDJPY H1 auf zwei Trades im Jahr 2012 ausgebildet. Das Ergebnis der Expert Advisor-Tests im Jahr 2013 ist in der Abbildung gezeigt. Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Schichten können ungefähre nichtlineare Funktionen, aber es kann Ungefähr: Ich kann nicht denken, wie es könnte. Es scheint wie eine sehr offensichtliche Beschränkung von neuronalen Netzwerken, die möglicherweise begrenzen, was sie tun kann. Zum Beispiel, aufgrund dieser Einschränkung, neuronale Netze wahrscheinlich nicht richtig passen viele Funktionen in Statistiken wie Exponential Moving Average, oder sogar Varianz verwendet. Apropos gleitenden Durchschnitt, können wiederkehrende neuronale Netze richtig approximieren, dass ich verstehe, wie ein Feedforward neuronales Netzwerk oder sogar ein einziges lineares Neuron einen gleitenden Durchschnitt mit der gleitenden Fenstertechnik ausgeben kann, aber wie würden wiederkehrende neuronale Netze es ohne X Menge von versteckten Schichten tun (Wobei X die gleitende mittlere Größe ist) Auch gehen wir davon aus, dass wir die ursprüngliche Funktion f nicht kennen. Was passiert, um den Durchschnitt der letzten 500 Eingaben zu erhalten, und dann eine 1 ausgeben, wenn seine höher als 3 und 0, wenn seine nicht. Aber für eine Sekunde, so tun wir nicht wissen, dass es eine schwarze Box. Wie würde ein rekurrierendes neuronales Netzwerk annähern, dass wir zuerst wissen müssen, wie viele timesteps es haben sollte, die wir nicht haben. Vielleicht ein LSTM-Netzwerk könnte, aber auch dann, was ist, wenn seine nicht eine einfache gleitende Durchschnitt, seine ein exponentieller gleitender Durchschnitt Ich glaube nicht, sogar LSTM kann es tun. Noch schlimmer noch, was ist, wenn f (x, x1), dass wir versuchen zu lernen, ist einfach Das scheint sehr einfach und unkompliziert. Kann ein neuronales Netzwerk es lernen Ich sehe nicht, wie. Bin ich etwas großes hier fehlt oder sind maschinelle Lernalgorithmen extrem begrenzt Gibt es andere Lerntechniken neben neuronalen Netzwerken, die tatsächlich irgendwelche von diesem tun können Der entscheidende Punkt zu verstehen ist kompakt. Neuronale Netze (wie jede andere Approximationsstruktur wie Polynome, Splines oder Radiale Basisfunktionen) können jede kontinuierliche Funktion nur innerhalb eines kompakten Satzes approximieren. Mit anderen Worten, die Theorie besagt, dass gegeben: dann gibt es ein neuronales Netzwerk, das f (x) mit einem Näherungsfehler kleiner als epsilon approximiert. Überall innerhalb von a, b. Was dein Beispiel von f (x) x 2 betrifft. Ja Sie können es mit einem neuronalen Netzwerk innerhalb eines endlichen Bereiches approximieren: -1,1. 0, 1000. Etc. Um dies zu visualisieren, stellen Sie sich vor, dass Sie f (x) innerhalb -1,1 mit einer Schrittfunktion approximieren. Können Sie es auf Papier tun? Beachten Sie, dass, wenn Sie die Schritte schmal genug, können Sie jede gewünschte Genauigkeit zu erreichen. Die Art und Weise, wie neuronale Netze näherungsweise f (x) sind, unterscheidet sich nicht wesentlich von dieser. Aber auch hier gibt es kein neuronales Netzwerk (oder irgendeine andere Näherungsstruktur) mit einer endlichen Anzahl von Parametern, die f (x) x 2 für alle x in -,, approximieren können. Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Schichten können ungefähre nichtlineare Funktionen, aber es kann approximieren: Die einzige Möglichkeit, kann ich Sinn für diese Frage ist, dass youre reden über Extrapolation. So z. B. Gegeben Trainings-Samples im Bereich -1 lt x lt 1 kann ein neuronales Netzwerk die richtigen Werte für x gt 100 lernen. Ist das, was du meinst Wenn Sie vorher wissen, dass die Funktionen, die Sie zu approximieren versuchen wahrscheinlich niedriger sein werden Polynome (oder jede andere Menge von Funktionen), dann könnten Sie sicher ein neuronales Netzwerk, dass diese Funktionen darstellen können, und extrapolieren x2 überall zu bauen. Wenn Sie dont Vorkenntnisse haben, sind die Dinge ein bisschen schwieriger: Es gibt unendlich viele glatte Funktionen, die x2 im Bereich -1..1 perfekt passen, und theres kein guter Grund, warum wir erwarten würden, dass x2 bessere Vorhersagen als alle anderen geben Funktion. Mit anderen Worten: Wenn wir keine Vorkenntnisse über die Funktion hatten, die versucht wurde, zu lernen, warum sollten wir x - gt x2 lernen wollen. Im Bereich der künstlichen Trainingssets, x2 könnte eine wahrscheinliche Funktion sein, aber in der realen Welt, ist es wahrscheinlich nicht. Um ein Beispiel zu nennen: Nehmen wir an, dass die Temperatur am Montag (t0) 0 ist, am Dienstag ihre 1, am Mittwoch ihre 4. Wir haben keinen Grund zu glauben, dass sich Temperaturen wie niederwertige Polynome verhalten, so dass wir nicht auf diese Daten schließen wollen Dass die Temperatur am nächsten Montag vermutlich um 49 liegen wird. Nehmen wir auch an, dass wir die ursprüngliche Funktion f nicht kennen, die den Durchschnitt der letzten 500 Eingaben erhält und dann eine 1 ausgibt, wenn sie höher als 3 ist und 0 wenn es ist nicht. Aber für eine Sekunde, so tun wir nicht wissen, dass es eine schwarze Box. Wie würde ein rekurrierendes neuronales Netz annähern, dass ich denke, das ist zwei Fragen: Erstens kann ein neuronales Netzwerk diese Funktion darstellen. Gibt es eine Reihe von Gewichten, die genau das Verhalten geben würde Es hängt offensichtlich von der Netzwerk-Architektur, aber ich denke, wir können kommen mit Architekturen, die repräsentieren (oder zumindest näher) kann diese Art von Funktion. Frage 2: Kann man diese Funktion lernen, wenn man genügend Trainingsproben bekommt. Wenn Ihr Lernalgorithmus nicht in einem lokalen Minimum steckt, ist es sicher: Wenn Sie genug Trainingsprogramme haben, gibt jeder Satz von Gewichten, der die Funktion nicht annimmt, einen größeren Trainingsfehler Dass 0, während ein Satz von Gewichten, die die Funktion youre versuchen, lernen zu lernen hat ein Training error0. Wenn Sie also ein globales Optimum finden, muss das Netzwerk der Funktion entsprechen. Der Grund, den ich an x2 dachte. Und einfache oder exponentielle gleitende Durchschnitte vor allem ist, weil es ein gutes Geschäft in der Finanzmarkt-Vorhersage in der technischen Analyse verwendet wird. Ich hatte gehofft, dass ein neuronales Netzwerk könnte potenziell lernen, die Algorithmen und den Handel auf sie basiert, ohne dass sie zuerst hart codieren und geben ihr Ergebnis. Allerdings I39m versuchen, herauszufinden, ob ein neuronales Netzwerk kann sogar eine solche Funktion lernen. Ndash Ich verstehe, wie x2 ist nicht gerade nützlich für die Wettervorhersage, und könnte dazu führen, dass das Netzwerk 49 Grad vorhersagen am nächsten Montag, aber I39m sicher in der Lage, eine Polynom-Funktion lernen könnte nützlich sein Zum Beispiel für die Preisvorhersage von FOREX. Ich verstehe vielleicht eine andere Netzwerkarchitektur als ich im Sinn hätte, aber ich kann keine Architektur kennen, die f (x, x1) xx1 repräsentieren kann. Ich glaube, ich könnte das Wort ungeeignet anstelle von Repräsentanten missbraucht haben, aber ich glaube Ihnen Noch verstanden, was ich versuchte zu sagen, just fine. Sorry ich couldn39t meinen letzten Beitrag in der Zeit bearbeiten. Ndash Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Schichten können ungefähre nichtlineare Funktionen, aber es kann annähern: Ja, es kann. Ich weiß nicht, was Sie denken, dass eine harte Funktion zu approximieren ist, ist es ein sehr einfaches. Bei genügend versteckten Einheiten kann ein neuronales Netzwerk jede beliebige Funktion einer beliebigen Genauigkeit anpassen. Apropos gleitenden Durchschnitt können wiederkehrende neuronale Netze richtig annähern, dass Ja, es kann. Es ist ein wieder ein sehr einfaches Problem, dass Sie zu denken scheint schwierig aus irgendeinem Grund sind Sie nicht teilen. Sie können die triviale Lösung sehen, indem Sie nur den verborgenen Zustand erstellen, der groß genug ist, um die gesamte Geschichte und den Rest des Netzwerks zu enthalten, um den Durchschnitt aus dem wiederkehrenden verborgenen Zustand zu berechnen. Wir müssen zuerst wissen, wie viele timesteps es haben sollte, die wir nicht haben. Das ist ein Parameter-Tuning-Problem, diese wurden zuvor behandelt. Sie können ganz einfach nach weiteren Informationen suchen. Bin ich etwas großes hier fehlt oder sind maschinelle Lernalgorithmen extrem begrenzt Gibt es andere Lerntechniken neben neuronalen Netzwerken, die tatsächlich tun können, eines dieser Ja, scheinen Sie fehlt jedes echte Verständnis von neuronalen Netzwerken. Ihre erste Aussage von Ich verstehe neuronale Netze mit einer beliebigen Anzahl von versteckten Schichten können ungefähre nichtlineare Funktionen, aber es kann annähernd zeigt, dass Sie nicht wirklich verstehen, die Worte, die Sie verwenden. Es gibt eine Vielzahl von Themen, die Sie nicht verstehen oder miteinander verknüpfen können, und niemand wird in der Lage sein, Sie direkt in einem einfachen QampA-Format. Wenn Sie wirklich wollen, zu verstehen, was los ist, nehmen Sie einige Graduate-Kurse in Machine Learning und Neural Networks im Besonderen. Ein guter Ausgangspunkt für diese Videos wäre, wenn Sie bereits das richtige Wissen besitzen. Antwortete am 1. September 14 um 16:37 Dies ist nicht der geeignete Ort zu lehren. Schnappen Sie sich eines der vielen Bücher zum Thema und lesen Sie das. Sie aren39t auch unter Berücksichtigung der Art der Aktivierung Funktion oder dass es mehr als eine Einheit pro Eingang oder dass es viele versteckte Schichten (nicht, dass sie benötigt werden, sondern helfen Verständnis). Ndash Raff. Edward Sep 1 14 um 19:09

No comments:

Post a Comment