¿Scikit-learn utilizará GPU?

Implementación de lectura de scikit-learn en tensroflow:http://learningtensorflow.com/lesson6/ y scikit-learn:http://scikit-learn.org/stable/modules/generated/sklearn.cluster.KMeans.html Estoy luchando por decidir qué implementación usar.

scikit-learn se instala como parte del contenedor docker de tensorflow, por lo que puede usar cualquier implementación.

Razón para usar scikit-learn:

scikit-learn contiene menos placa de caldera que la implementación de tensorflow.

Razón para usar el tensorflow:

Si se ejecuta en Nvidia GPU, el algoritmo se ejecutará en paralelo, ¿no estoy seguro de si scikit-learn utilizará todas las GPU disponibles?

Leyendohttps://www.quora.com/What-are-the-main-differences-between-TensorFlow-and-SciKit-Learn

TensorFlow es más de bajo nivel; Básicamente, los ladrillos de Lego que lo ayudan a implementar algoritmos de aprendizaje automático, mientras que scikit-learn le ofrece algoritmos estándar, por ejemplo, algoritmos de clasificación como SVM, bosques aleatorios, regresión logística y muchos, muchos más. TensorFlow realmente brilla si desea implementar algoritmos de aprendizaje profundo, ya que le permite aprovechar las GPU para una capacitación más eficiente.

Esta declaración refuerza mi afirmación de que "scikit-learn contiene menos placa de caldera que la implementación de tensorflow", pero también sugiere que scikit-learn no utilizará todas las GPU disponibles.

Respuestas a la pregunta(1)

Su respuesta a la pregunta