Suchergebnisse für Anfrage "gradient-descent"

4 die antwort

Wie implementiere ich einen Minibatch-Gradientenabstieg in Python?

Ich habe gerade angefangen, tiefes Lernen zu lernen. Beim Gefälle steckte ich fest. Ich weiß, wie man einen Batch-Gradientenabstieg implementiert. Ich weiß, wie es funktioniert und wie der Minibatch- und der stochastische Gradientenabstieg ...

4 die antwort

Caffe: Was kann ich tun, wenn nur ein kleiner Stapel in den Speicher passt?

Ich versuche ein sehr großes Modell zu trainieren. Daher kann ich nur eine sehr kleine Stapelgröße in den GPU-Speicher einpassen. Arbeiten mit kleinen Losgrößen führt zu sehrnoisy ...

4 die antwort

Gradientenberechnung für die Softmax-Version des Triplettverlusts

Ich habe versucht, die in @ beschriebene Softmax-Version des Triplettverlusts in Caffe zu implementiere Hoffer und Ailon,Deep Metric Learning mit Triplet Network, ICLR 2015 [http://arxiv.org/pdf/1412.6622v3.pdf]. Ich habe es versucht, aber es ...

TOP-Veröffentlichungen

2 die antwort

Wo kann ich mir die TensorFlow-Hauptschleife für die Gefälleabfahrt ansehen?

(Sorry, wenn das ein bisschen naiv klingt) Ich möchte einen Blick auf das Fleisch des @ werf TensorFlow [https://github.com/tensorflow/tensorflow/blob/deff101b27e2d3d2d0f68417991e9183bdcd3256/tensorflow/python/training/gradient_descent.py] ...

4 die antwort

lgorithmen für den stochastischen Gradientenabstieg im Vergleich zum stochastischen Gradientenabsti

Ich habe versucht, ein FeedForward-Neuronales Netzwerk mit dem Datensatz MNIST Handwritten Digits zu trainieren (enthält 60K-Trainingsbeispiele). Ich habe jedes Mal über @ iteriealle Trainingsbeispiele, Aufführen von Backpropagation für jede ...

4 die antwort

Kostenfunktion in der logistischen Regression ergibt NaN als Ergebnis

Ich implementiere eine logistische Regression mit Batch-Gradientenabstieg. Es gibt zwei Klassen, in die die Eingangsstichproben eingeteilt werden sollen. Die Klassen sind 1 und 0. Während ich die Daten trainiere, benutze ich die ...

8 die antwort

äufige Ursachen von Nans während des Trainin

Ich habe bemerkt, dass ein häufiges Auftreten während des TrainingsNANs wird vorgestellt. ft scheint es, als würden Gewichte in das Innere des Produkts / vollständig verbundene Schichten oder Faltungsschichten gespreng Tritt dies auf, weil ...

4 die antwort

Was ist der Meta-Parameter "weight_decay" in Caffe?

Ein Beispiel anschauen'solver.prototxt' [https://github.com/BVLC/caffe/blob/tutorial/examples/cifar10/cifar10_full_solver.prototxt#L15] , gepostet auf BVLC / caffe git, es gibt einen Trainings-Meta-Parameter weight_decay: 0.04Was bedeutet ...

2 die antwort

Spark mllib sagt seltsame Zahl oder NaN voraus

Ich bin neu in Apache Spark und versuche, mithilfe der maschinellen Lernbibliothek einige Daten vorherzusagen. Mein Datensatz im Moment ist nur etwa 350 Punkte. Hier sind 7 dieser Punkte: "365","4",41401.387,5330569 ...

4 die antwort

Was ist `lr_policy` in Caffe?

Ich versuche nur herauszufinden, wie ich @ verwenden ka Caffe [http://caffe.berkeleyvision.org/]. Dazu habe ich mir einfach die verschiedenen.prototxt Dateien im Beispielordner. Es gibt eine Option, die ich nicht verstehe: # The learning rate ...