O scikit-learn utiliza a GPU?
Lendo a implementação do scikit-learn no tensroflow:http://learningtensorflow.com/lesson6/ e scikit-learn:http://scikit-learn.org/stable/modules/generated/sklearn.cluster.KMeans.html Estou lutando para decidir qual implementação usar.
O scikit-learn é instalado como parte do contêiner do docker tensorflow, para que você possa usar qualquer implementação.
Razão para usar o scikit-learn:
O scikit-learn contém menos placas da caldeira que a implementação do tensorflow.
Razão para usar o tensorflow:
Se rodando na GPU Nvidia, o algoritmo será executado em paralelo, não tenho certeza se o scikit-learn utilizará todas as GPU disponíveis?
Lendohttps://www.quora.com/What-are-the-main-differences-between-TensorFlow-and-SciKit-Learn
O TensorFlow é de nível mais baixo; basicamente, os tijolos Lego que ajudam você a implementar algoritmos de aprendizado de máquina, enquanto o scikit-learn oferece algoritmos prontos para uso, por exemplo, algoritmos de classificação como SVMs, florestas aleatórias, regressão logística e muitos, muitos mais. O TensorFlow realmente brilha se você deseja implementar algoritmos de aprendizado profundo, pois permite tirar proveito das GPUs para um treinamento mais eficiente.
Esta declaração reforça minha afirmação de que "o scikit-learn contém menos placas de aquecimento do que a implementação do tensorflow", mas também sugere que o scikit-learn não utilizará todas as GPUs disponíveis?