Inferência Java Multi-GPU do Tensorflow
Eu tenho um servidor com várias GPUs e quero usá-las totalmente durante a inferência de modelo em um aplicativo java. Por padrão, o tensorflow utiliza todas as GPUs disponíveis, mas usa apenas a primeira.
Posso pensar em três opções para superar esse problema:
Restrinja a visibilidade do dispositivo no nível do processo, ou seja, usandoCUDA_VISIBLE_DEVICES
variável de ambiente.
Isso exigiria que eu executasse várias instâncias do aplicativo java e distribuísse o tráfego entre elas. Não é essa ideia tentadora.
Inicie várias sessões em um único aplicativo e tente atribuir um dispositivo a cada uma delas viaConfigProto
:
public class DistributedPredictor {
private Predictor[] nested;
private int[] counters;
// ...
public DistributedPredictor(String modelPath, int numDevices, int numThreadsPerDevice) {
nested = new Predictor[numDevices];
counters = new int[numDevices];
for (int i = 0; i < nested.length; i++) {
nested[i] = new Predictor(modelPath, i, numDevices, numThreadsPerDevice);
}
}
public Prediction predict(Data data) {
int i = acquirePredictorIndex();
Prediction result = nested[i].predict(data);
releasePredictorIndex(i);
return result;
}
private synchronized int acquirePredictorIndex() {
int i = argmin(counters);
counters[i] += 1;
return i;
}
private synchronized void releasePredictorIndex(int i) {
counters[i] -= 1;
}
}
public class Predictor {
private Session session;
public Predictor(String modelPath, int deviceIdx, int numDevices, int numThreadsPerDevice) {
GPUOptions gpuOptions = GPUOptions.newBuilder()
.setVisibleDeviceList("" + deviceIdx)
.setAllowGrowth(true)
.build();
ConfigProto config = ConfigProto.newBuilder()
.setGpuOptions(gpuOptions)
.setInterOpParallelismThreads(numDevices * numThreadsPerDevice)
.build();
byte[] graphDef = Files.readAllBytes(Paths.get(modelPath));
Graph graph = new Graph();
graph.importGraphDef(graphDef);
this.session = new Session(graph, config.toByteArray());
}
public Prediction predict(Data data) {
// ...
}
}
Essa abordagem parece funcionar bem à primeira vista. No entanto, as sessões ocasionalmente ignoramsetVisibleDeviceList
opção e todos vão para o primeiro dispositivo causando falha de falta de memória.
Construa o modelo de forma multitorre em python usandotf.device()
especificação. No lado do java, dê diferentesPredictor
s torres diferentes dentro de uma sessão compartilhada.
Parece complicado e linguisticamente errado para mim.
ATUALIZAR: Como o @ash propôs, há ainda outra opção:
Atribua um dispositivo apropriado para cada operação do gráfico existente, modificando sua definição (graphDef
)
Para fazer isso, pode-se adaptar o código do método 2:
public class Predictor {
private Session session;
public Predictor(String modelPath, int deviceIdx, int numDevices, int numThreadsPerDevice) {
byte[] graphDef = Files.readAllBytes(Paths.get(modelPath));
graphDef = setGraphDefDevice(graphDef, deviceIdx)
Graph graph = new Graph();
graph.importGraphDef(graphDef);
ConfigProto config = ConfigProto.newBuilder()
.setAllowSoftPlacement(true)
.build();
this.session = new Session(graph, config.toByteArray());
}
private static byte[] setGraphDefDevice(byte[] graphDef, int deviceIdx) throws InvalidProtocolBufferException {
String deviceString = String.format("/gpu:%d", deviceIdx);
GraphDef.Builder builder = GraphDef.parseFrom(graphDef).toBuilder();
for (int i = 0; i < builder.getNodeCount(); i++) {
builder.getNodeBuilder(i).setDevice(deviceString);
}
return builder.build().toByteArray();
}
public Prediction predict(Data data) {
// ...
}
}
Assim como outras abordagens mencionadas, essa não me liberta da distribuição manual de dados entre os dispositivos. Mas pelo menos funciona de forma estável e é comparativamente fácil de implementar. No geral, isso parece uma técnica (quase) normal.
Existe uma maneira elegante de fazer uma coisa tão básica com a API java tensorflow? Todas as idéias seriam apreciadas.