Кодирование H.264 с камеры с помощью Android MediaCodec

Я пытаюсь заставить это работать на Android 4.1 (используя обновленный планшет Asus Transformer). БлагодаряAlex»ответ на мой предыдущий вопросЯ уже смог записать некоторые необработанные данные H.264 в файл, но этот файл можно воспроизводить только сffplay -f h264и кажется, чтоs потерял всю информацию о частоте кадров (чрезвычайно быстрое воспроизведение). Также цветовое пространство выглядит некорректно (например, с помощью камеры 'по умолчанию на энкодересторона).

public class AvcEncoder {

private MediaCodec mediaCodec;
private BufferedOutputStream outputStream;

public AvcEncoder() { 
    File f = new File(Environment.getExternalStorageDirectory(), "Download/video_encoded.264");
    touch (f);
    try {
        outputStream = new BufferedOutputStream(new FileOutputStream(f));
        Log.i("AvcEncoder", "outputStream initialized");
    } catch (Exception e){ 
        e.printStackTrace();
    }

    mediaCodec = MediaCodec.createEncoderByType("video/avc");
    MediaFormat mediaFormat = MediaFormat.createVideoFormat("video/avc", 320, 240);
    mediaFormat.setInteger(MediaFormat.KEY_BIT_RATE, 125000);
    mediaFormat.setInteger(MediaFormat.KEY_FRAME_RATE, 15);
    mediaFormat.setInteger(MediaFormat.KEY_COLOR_FORMAT, MediaCodecInfo.CodecCapabilities.COLOR_FormatYUV420Planar);
    mediaFormat.setInteger(MediaFormat.KEY_I_FRAME_INTERVAL, 5);
    mediaCodec.configure(mediaFormat, null, null, MediaCodec.CONFIGURE_FLAG_ENCODE);
    mediaCodec.start();
}

public void close() {
    try {
        mediaCodec.stop();
        mediaCodec.release();
        outputStream.flush();
        outputStream.close();
    } catch (Exception e){ 
        e.printStackTrace();
    }
}

// called from Camera.setPreviewCallbackWithBuffer(...) in other class
public void offerEncoder(byte[] input) {
    try {
        ByteBuffer[] inputBuffers = mediaCodec.getInputBuffers();
        ByteBuffer[] outputBuffers = mediaCodec.getOutputBuffers();
        int inputBufferIndex = mediaCodec.dequeueInputBuffer(-1);
        if (inputBufferIndex >= 0) {
            ByteBuffer inputBuffer = inputBuffers[inputBufferIndex];
            inputBuffer.clear();
            inputBuffer.put(input);
            mediaCodec.queueInputBuffer(inputBufferIndex, 0, input.length, 0, 0);
        }

        MediaCodec.BufferInfo bufferInfo = new MediaCodec.BufferInfo();
        int outputBufferIndex = mediaCodec.dequeueOutputBuffer(bufferInfo,0);
        while (outputBufferIndex >= 0) {
            ByteBuffer outputBuffer = outputBuffers[outputBufferIndex];
            byte[] outData = new byte[bufferInfo.size];
            outputBuffer.get(outData);
            outputStream.write(outData, 0, outData.length);
            Log.i("AvcEncoder", outData.length + " bytes written");

            mediaCodec.releaseOutputBuffer(outputBufferIndex, false);
            outputBufferIndex = mediaCodec.dequeueOutputBuffer(bufferInfo, 0);

        }
    } catch (Throwable t) {
        t.printStackTrace();
    }

}

Изменение типа кодировщика на "видео / mp4" по-видимому, решает проблему частоты кадров, но поскольку основная цель заключается в создании службы потоковой передачи, это не является хорошим решением.

Я знаю, что я бросил немного Алекса код с учетом SPS и PPS NALU 's, но я надеялся, что в этом нет необходимости, поскольку эта информация также поступает отoutData и я предположил, что кодировщик отформатирует это правильно. Если это не так, как мне организовать различные типы NALU?в моем файле / потоке?

Итак, что мне здесь не хватает, чтобы создать действующий рабочий поток H.264? И какие настройки я должен использовать, чтобы соответствовать между камерой 'Цветовое пространство и кодировщикцветовое пространство?

У меня такое ощущение, что это скорее вопрос, связанный с H.264, чем тема Android / MediaCodec. Или я все еще не правильно использую MediaCodec API?

Спасибо заранее.

Ответы на вопрос(5)

Ваш ответ на вопрос