Inferência Java Multi-GPU do Tensorflow

Eu tenho um servidor com várias GPUs e quero usá-las totalmente durante a inferência de modelo em um aplicativo java. Por padrão, o tensorflow utiliza todas as GPUs disponíveis, mas usa apenas a primeira.

Posso pensar em três opções para superar esse problema:

Restrinja a visibilidade do dispositivo no nível do processo, ou seja, usandoCUDA_VISIBLE_DEVICES variável de ambiente.

Isso exigiria que eu executasse várias instâncias do aplicativo java e distribuísse o tráfego entre elas. Não é essa ideia tentadora.

Inicie várias sessões em um único aplicativo e tente atribuir um dispositivo a cada uma delas viaConfigProto:

public class DistributedPredictor {

    private Predictor[] nested;
    private int[] counters;

    // ...

    public DistributedPredictor(String modelPath, int numDevices, int numThreadsPerDevice) {
        nested = new Predictor[numDevices];
        counters = new int[numDevices];

        for (int i = 0; i < nested.length; i++) {
            nested[i] = new Predictor(modelPath, i, numDevices, numThreadsPerDevice);
        }
    }

    public Prediction predict(Data data) {
        int i = acquirePredictorIndex();
        Prediction result = nested[i].predict(data);
        releasePredictorIndex(i);
        return result;
    }

    private synchronized int acquirePredictorIndex() {
        int i = argmin(counters);
        counters[i] += 1;
        return i;
    }

    private synchronized void releasePredictorIndex(int i) {
        counters[i] -= 1;
    }
}


public class Predictor {

    private Session session;

    public Predictor(String modelPath, int deviceIdx, int numDevices, int numThreadsPerDevice) {

        GPUOptions gpuOptions = GPUOptions.newBuilder()
                .setVisibleDeviceList("" + deviceIdx)
                .setAllowGrowth(true)
                .build();

        ConfigProto config = ConfigProto.newBuilder()
                .setGpuOptions(gpuOptions)
                .setInterOpParallelismThreads(numDevices * numThreadsPerDevice)
                .build();

        byte[] graphDef = Files.readAllBytes(Paths.get(modelPath));
        Graph graph = new Graph();
        graph.importGraphDef(graphDef);

        this.session = new Session(graph, config.toByteArray());
    }

    public Prediction predict(Data data) {
        // ...
    }
}

Essa abordagem parece funcionar bem à primeira vista. No entanto, as sessões ocasionalmente ignoramsetVisibleDeviceList&nbsp;opção e todos vão para o primeiro dispositivo causando falha de falta de memória.

Construa o modelo de forma multitorre em python usandotf.device()&nbsp;especificação. No lado do java, dê diferentesPredictors torres diferentes dentro de uma sessão compartilhada.

Parece complicado e linguisticamente errado para mim.

ATUALIZAR:&nbsp;Como o @ash propôs, há ainda outra opção:

Atribua um dispositivo apropriado para cada operação do gráfico existente, modificando sua definição (graphDef)

Para fazer isso, pode-se adaptar o código do método 2:

public class Predictor {

    private Session session;

    public Predictor(String modelPath, int deviceIdx, int numDevices, int numThreadsPerDevice) {

        byte[] graphDef = Files.readAllBytes(Paths.get(modelPath));
        graphDef = setGraphDefDevice(graphDef, deviceIdx)

        Graph graph = new Graph();
        graph.importGraphDef(graphDef);

        ConfigProto config = ConfigProto.newBuilder()
                .setAllowSoftPlacement(true)
                .build();

        this.session = new Session(graph, config.toByteArray());
    }

    private static byte[] setGraphDefDevice(byte[] graphDef, int deviceIdx) throws InvalidProtocolBufferException {
        String deviceString = String.format("/gpu:%d", deviceIdx);

        GraphDef.Builder builder = GraphDef.parseFrom(graphDef).toBuilder();
        for (int i = 0; i < builder.getNodeCount(); i++) {
            builder.getNodeBuilder(i).setDevice(deviceString);
        }
        return builder.build().toByteArray();
    }

    public Prediction predict(Data data) {
        // ...
    }
}

Assim como outras abordagens mencionadas, essa não me liberta da distribuição manual de dados entre os dispositivos. Mas pelo menos funciona de forma estável e é comparativamente fácil de implementar. No geral, isso parece uma técnica (quase) normal.

Existe uma maneira elegante de fazer uma coisa tão básica com a API java tensorflow? Todas as idéias seriam apreciadas.