Suchergebnisse für Anfrage "k-means"
Python sklearn-KM bedeutet, wie die Werte im Cluster abgerufen werden.
Ich verwende das KMeans-Paket sklearn.cluster. Wenn ich nach Abschluss des Clusters wissen möchte, welche Werte zu einer Gruppe zusammengefasst wurden, wie kann ich das tun? Say Ich hatte 100 Datenpunkte und KMeans gab mir 5 Cluster. Jetzt ...
Error in do_one (nmeth): NA / NaN / Inf im fremden Funktionsaufruf (arg 1)
Ich habe eine Datentabelle ("Norm"), die numerische - zumindest soweit ich sie sehen kann - normalisierte Werte der folgenden Form enthält: Wenn ich ausführe k <- kmeans(norm,center=3) Ich erhalte folgenden Fehler: Error in do_one(nmeth) : ...
Plotten der Grenzen der Clusterzone in Python mit dem scikit package
Hier ist mein einfaches Beispiel für den Umgang mit Datenclustern in Attributen 3 (x, y, value). Jedes Sample repräsentiert seine Position (x, y) und seine zugehörige Variable. Mein Code wurde hier gepostet: x = np.arange(100,200,1) y = ...
Wie füge ich k-means vorhergesagte Cluster in einer Spalte zu einem Datenrahmen in Python hinzu?
Haben Sie eine Frage zu kmeans-Clustering in Python. So habe ich die Analyse so gemacht: from sklearn.cluster import KMeans km = KMeans(n_clusters=12, random_state=1) new = data._get_numeric_data().dropna(axis=1) ...
Spark :: KMeans ruft takeSample () zweimal auf?
Ich habe viele Daten und habe mit Partitionen der Kardinalität [20k, 200k +] experimentiert. Ich nenne es so: from pyspark.mllib.clustering import KMeans, KMeansModel C0 = KMeans.train(first, 8192, initializationMode='random', ...
Unausgeglichener Faktor von KMeans?
Edit: Die Antwort auf diese Frage wird ausführlich diskutiert in:Sum in Spark schlecht gegangen [https://stackoverflow.com/questions/39627773/sum-in-spark-gone-bad] ImCompute Kosten von ...
Compute Kosten von Kmeans
Ich benutze diesesModel [https://github.com/yahoo/lopq/blob/master/python/lopq/model.py], was nicht von mir geschrieben wurde. Um die Zentroide vorherzusagen, musste ich dies tun: model = cPickle.load(open("/tmp/model_centroids_128d_pkl.lopq")) ...
Ist Spark's KMeans nicht in der Lage mit BigData umzugehen?
KMeans hat mehrere Parameter für seinAusbildun [http://spark.apache.org/docs/latest/api/python/pyspark.mllib.html?highlight=kmeans#pyspark.mllib.clustering.KMeans.train] , wobei der Initialisierungsmodus auf kmeans || voreingestellt ist. Das ...