Suchergebnisse für Anfrage "deep-learning"

4 die antwort

Die Geschwindigkeit zwischen ImageDataLayer und LMDB-Datenebene

Caffe unterstützt LMDB Data Layer und ImageDataLayer. Das Erstellen einer LMDB-Datenbank aus einem bestimmten Datensatz erfordert einige Zeit und viel Speicherplatz. Im Gegensatz dazu verwendet ImageDataLayer nur eine txt-Datei, was sehr ...

8 die antwort

Verwenden einer vorgefertigten Worteinbettung (word2vec oder Glove) in TensorFlow

Ich habe kürzlich eine interessante Implementierung für @ überprüf Faltungstextklassifizierung [http://www.wildml.com/2015/12/implementing-a-cnn-for-text-classification-in-tensorflow/] . In allen von mir überprüften TensorFlow-Codes werden ...

6 die antwort

Ausgangsform der Entfaltungsschicht mit tf.nn.conv2d_transpose in tensorflow ermitteln

DemzufolgePapie [http://www.matthewzeiler.com/pubs/cvpr2010/cvpr2010.pdf], die Ausgabeform istN + H - 1, N ist die eingegebene Höhe oder Breite,H ist die Höhe oder Breite des Kernels. Dies ist ein offensichtlicher umgekehrter Prozess der Faltung. ...

TOP-Veröffentlichungen

4 die antwort

Einbeziehen von Benutzer-Feedback in ein ML-Modell

Ich habe ein ML-Modell für eine NLP-Klassifizierungsaufgabe (0/1) entwickelt und in der Produktionsumgebung bereitgestellt. Die Vorhersage des Modells wird den Benutzern angezeigt, und die Benutzer haben die Möglichkeit, eine Rückmeldung zu geben ...

4 die antwort

Datenerweiterungstechniken für kleine Bilddatensätze?

Zurzeit trainiere ich kleine Logo-Datensätze, ähnlich wie Flickrlogos-32 [http://www.multimedia-computing.de/flickrlogos/] mit tiefen CNNs. Für das Training größerer Netzwerke benötige ich mehr Datensätze und nutze daher Augmentation. Das Beste, ...

4 die antwort

Gradientenberechnung für die Softmax-Version des Triplettverlusts

Ich habe versucht, die in @ beschriebene Softmax-Version des Triplettverlusts in Caffe zu implementiere Hoffer und Ailon,Deep Metric Learning mit Triplet Network, ICLR 2015 [http://arxiv.org/pdf/1412.6622v3.pdf]. Ich habe es versucht, aber es ...

10 die antwort

LSTM gefolgt von Mean Pooling

Ich benutze Keras 1.0. Mein Problem ist identisch mit diesem So implementieren Sie einen Mean Pooling-Layer in Keras [https://stackoverflow.com/questions/35355528]), aber die Antwort dort scheint mir nicht ausreichend zu sein. Ich möchte dieses ...

8 die antwort

Loss Clipping im Tensor Flow (auf DeepMind's DQN)

Ich versuche meine eigene Implementierung des DQN-Papiers von Deepmind im Tensor Flow und habe Probleme mit dem Abschneiden der Verlustfunktion. Hier ist ein Auszug aus dem Naturpapier, der den Verlustausschnitt beschreibt: Wir fanden es auch ...

12 die antwort

Wie wende ich Gradientenbeschneidung in TensorFlow an?

Unter Berücksichtigung derexample code [https://github.com/aymericdamien/TensorFlow-Examples/blob/master/examples/3%20-%20Neural%20Networks/recurrent_network.py] . Ich möchte wissen, wie Gradienten-Clipping in diesem Netzwerk auf dem ...

2 die antwort

Caffe Schnappschüsse: .solverstate vs .caffemodel

Beim Trainieren eines Netzwerks werden die Snapshots aller N Iterationen in zwei Formen zusammengeführt. Eine ist die .solverstate-Datei, von der ich annehme, dass sie genau so klingt, wie sie den Zustand der Verlustfunktionen und -gradienten ...