Suchergebnisse für Anfrage "k-means"

10 die antwort

Python sklearn-KM bedeutet, wie die Werte im Cluster abgerufen werden.

Ich verwende das KMeans-Paket sklearn.cluster. Wenn ich nach Abschluss des Clusters wissen möchte, welche Werte zu einer Gruppe zusammengefasst wurden, wie kann ich das tun? Say Ich hatte 100 Datenpunkte und KMeans gab mir 5 Cluster. Jetzt ...

8 die antwort

Error in do_one (nmeth): NA / NaN / Inf im fremden Funktionsaufruf (arg 1)

Ich habe eine Datentabelle ("Norm"), die numerische - zumindest soweit ich sie sehen kann - normalisierte Werte der folgenden Form enthält: Wenn ich ausführe k <- kmeans(norm,center=3) Ich erhalte folgenden Fehler: Error in do_one(nmeth) : ...

2 die antwort

Plotten der Grenzen der Clusterzone in Python mit dem scikit package

Hier ist mein einfaches Beispiel für den Umgang mit Datenclustern in Attributen 3 (x, y, value). Jedes Sample repräsentiert seine Position (x, y) und seine zugehörige Variable. Mein Code wurde hier gepostet: x = np.arange(100,200,1) y = ...

TOP-Veröffentlichungen

2 die antwort

Wie füge ich k-means vorhergesagte Cluster in einer Spalte zu einem Datenrahmen in Python hinzu?

Haben Sie eine Frage zu kmeans-Clustering in Python. So habe ich die Analyse so gemacht: from sklearn.cluster import KMeans km = KMeans(n_clusters=12, random_state=1) new = data._get_numeric_data().dropna(axis=1) ...

2 die antwort

Spark :: KMeans ruft takeSample () zweimal auf?

Ich habe viele Daten und habe mit Partitionen der Kardinalität [20k, 200k +] experimentiert. Ich nenne es so: from pyspark.mllib.clustering import KMeans, KMeansModel C0 = KMeans.train(first, 8192, initializationMode='random', ...

2 die antwort

Unausgeglichener Faktor von KMeans?

Edit: Die Antwort auf diese Frage wird ausführlich diskutiert in:Sum in Spark schlecht gegangen [https://stackoverflow.com/questions/39627773/sum-in-spark-gone-bad] ImCompute Kosten von ...

2 die antwort

Compute Kosten von Kmeans

Ich benutze diesesModel [https://github.com/yahoo/lopq/blob/master/python/lopq/model.py], was nicht von mir geschrieben wurde. Um die Zentroide vorherzusagen, musste ich dies tun: model = cPickle.load(open("/tmp/model_centroids_128d_pkl.lopq")) ...

4 die antwort

Ist Spark's KMeans nicht in der Lage mit BigData umzugehen?

KMeans hat mehrere Parameter für seinAusbildun [http://spark.apache.org/docs/latest/api/python/pyspark.mllib.html?highlight=kmeans#pyspark.mllib.clustering.KMeans.train] , wobei der Initialisierungsmodus auf kmeans || voreingestellt ist. Das ...