Wyniki wyszukiwania dla "machine-learning"

2 odpowiedź

Jak mogę uzyskać najwyższe terminy częstotliwości z wektorów TD-idf, dla każdego pliku w nauce scikit?

Próbuję uzyskać najwyższe terminy częstotliwości z wektorów w nauczaniu scikit. Z przykładu Można to zrobić za pomocą tego dla każdej kategorii, ale chcę go ...

4 odpowiedź

Open Network Neural Network Library [zamknięte]

Szukam biblioteki sieci neuronowej o otwartym kodzie źródłowym. Do tej pory przyjrzałem się FANN, WEKA i OpenNN. Czy inni, na których powinienem patrzeć? Kry...

2 odpowiedź

Dlaczego normalizacja wektorowa może poprawić dokładność grupowania i klasyfikacji?

1 odpowiedź

Czy scikit-learn nadaje się do zadań dużych zbiorów danych?

Pracuję nad zadaniem TREC polegającym na wykorzystaniu technik uczenia maszynowego, w których zestaw danych składa się z ponad 5 terabajtów dokumentów internetowych, z których planowane jest wydobycie wektorów woreczków słów.scikit-learn ma ...

2 odpowiedź

Losowe lasy - szacunki prawdopodobieństwa (+ scikit-learn specific)

Interesuje mnie zrozumienie, w jaki sposób szacunki prawdopodobieństwa są obliczane przez losowe lasy, zarówno ogólnie, jak i konkretnie w bibliotece Pythona...

1 odpowiedź

Jak znaleźć precyzję, wycofanie, dokładność za pomocą SVM?

2 odpowiedź

Czy ktoś może zasugerować dobrą normalizację oświetlenia dla uwierzytelniania twarzy. Próbowałem podstawowych alg, takich jak DoG, LBP, ..?

2 odpowiedź

Nauka Weka na linii poleceń

Jestem całkiem nowy w Weka i jeszcze bardziej nowy w Weka w linii poleceń. Uważam, że dokumentacja jest słaba i staram się znaleźć kilka rzeczy do zrobienia....

1 odpowiedź

Wielowymiarowa (wielomianowa) najlepsza krzywa dopasowania w Pythonie?

Jak obliczyć linię najlepszego dopasowania w pytonie, a następnie narysować ją na wykresie rozrzutu w matplotlib?Obliczyłem liniową linię najlepszego dopasow...

2 odpowiedź

Jak mogę zmniejszyć wykorzystanie pamięci przez Scikit-Learn Vectorizer?

TFIDFVectorizer zajmuje tak dużo pamięci, wektoryzacja 470 MB 100k dokumentów zajmuje ponad 6 GB, jeśli przejdziemy do 21 milionów dokumentów, nie zmieści to...