Suchergebnisse für Anfrage "deep-learning"
Die Geschwindigkeit zwischen ImageDataLayer und LMDB-Datenebene
Caffe unterstützt LMDB Data Layer und ImageDataLayer. Das Erstellen einer LMDB-Datenbank aus einem bestimmten Datensatz erfordert einige Zeit und viel Speicherplatz. Im Gegensatz dazu verwendet ImageDataLayer nur eine txt-Datei, was sehr ...
Verwenden einer vorgefertigten Worteinbettung (word2vec oder Glove) in TensorFlow
Ich habe kürzlich eine interessante Implementierung für @ überprüf Faltungstextklassifizierung [http://www.wildml.com/2015/12/implementing-a-cnn-for-text-classification-in-tensorflow/] . In allen von mir überprüften TensorFlow-Codes werden ...
Einbeziehen von Benutzer-Feedback in ein ML-Modell
Ich habe ein ML-Modell für eine NLP-Klassifizierungsaufgabe (0/1) entwickelt und in der Produktionsumgebung bereitgestellt. Die Vorhersage des Modells wird den Benutzern angezeigt, und die Benutzer haben die Möglichkeit, eine Rückmeldung zu geben ...
Ausgangsform der Entfaltungsschicht mit tf.nn.conv2d_transpose in tensorflow ermitteln
DemzufolgePapie [http://www.matthewzeiler.com/pubs/cvpr2010/cvpr2010.pdf], die Ausgabeform istN + H - 1, N ist die eingegebene Höhe oder Breite,H ist die Höhe oder Breite des Kernels. Dies ist ein offensichtlicher umgekehrter Prozess der Faltung. ...
Datenerweiterungstechniken für kleine Bilddatensätze?
Zurzeit trainiere ich kleine Logo-Datensätze, ähnlich wie Flickrlogos-32 [http://www.multimedia-computing.de/flickrlogos/] mit tiefen CNNs. Für das Training größerer Netzwerke benötige ich mehr Datensätze und nutze daher Augmentation. Das Beste, ...
Gradientenberechnung für die Softmax-Version des Triplettverlusts
Ich habe versucht, die in @ beschriebene Softmax-Version des Triplettverlusts in Caffe zu implementiere Hoffer und Ailon,Deep Metric Learning mit Triplet Network, ICLR 2015 [http://arxiv.org/pdf/1412.6622v3.pdf]. Ich habe es versucht, aber es ...
LSTM gefolgt von Mean Pooling
Ich benutze Keras 1.0. Mein Problem ist identisch mit diesem So implementieren Sie einen Mean Pooling-Layer in Keras [https://stackoverflow.com/questions/35355528]), aber die Antwort dort scheint mir nicht ausreichend zu sein. Ich möchte dieses ...
Loss Clipping im Tensor Flow (auf DeepMind's DQN)
Ich versuche meine eigene Implementierung des DQN-Papiers von Deepmind im Tensor Flow und habe Probleme mit dem Abschneiden der Verlustfunktion. Hier ist ein Auszug aus dem Naturpapier, der den Verlustausschnitt beschreibt: Wir fanden es auch ...
Caffe Schnappschüsse: .solverstate vs .caffemodel
Beim Trainieren eines Netzwerks werden die Snapshots aller N Iterationen in zwei Formen zusammengeführt. Eine ist die .solverstate-Datei, von der ich annehme, dass sie genau so klingt, wie sie den Zustand der Verlustfunktionen und -gradienten ...
Was ist der Unterschied zwischen Deep Learning und traditionellem maschinellem Lernen über ein künstliches neuronales Netzwerk?
Können Sie eine kurze Erklärung der Unterschiede zwischenTiefes Lerne [https://developer.nvidia.com/deep-learning] und traditionelles maschinelles Lernen mit neuronalen Netzen? Wie viele Ebenen sind erforderlich, um ein neuronales Netzwerk "tief" ...