Стратегии улучшения производительности для ВМ / интерпретатора?

Я написал простую виртуальную машину на C, используя простой переключатель команд, без какого-либо декодирования инструкций, но производительность ужасна.

Для простых арифметических операций виртуальная машина примерно в 4000 раз медленнее, чем собственный код C для тех же операций. Я проверил с группой массивов длиной 10 миллионов, первый из которых состоит из программных инструкций, случайных + - * / операций, 2 массивов, содержащих случайные целые числа, а третий массив является целевым хранилищем операций.

Я ожидал, что арифметическая производительность упадет в 3-4 раза, так что 4000х действительно поразили меня. Даже самые медленные интерпретируемые языки обеспечивают более высокую производительность. Так в чем же проблема с моим подходом и как я могу улучшить производительность, не прибегая к JIT-компиляции для машинного кода?

Реализация ... в основном самая простая, которую я мог придумать:

begin:
    {
        switch (*(op+(c++)))
        {
        case 0:
            add(in1+c, in2+c, out+c); goto begin;

        case 1:
            sub(in1+c, in2+c, out+c); goto begin;

        case 2:
            mul(in1+c, in2+c, out+c); goto begin;

        case 3:
            div(in1+c, in2+c, out+c); goto begin;

        case 4:
            cout << "end of program" << endl;
            goto end;

        default:
            cout << "ERROR!!!" << endl;

        }
    }

end:

ОБНОВИТЬ: Я играл с длиной программы, когда я заметил, что QElapsedTimer, который я использовал, чтобы профиль был фактически сломан. Теперь я использую функцию clock () и в соответствии с ней вычисленное goto фактически работает наравне с нативным кодом, может быть, чуть ниже. Это законный результат ??? Вот полный источник (я знаю, это ужасно, в конце концов, это просто для тестирования):

#include <QtGlobal>
#include <iostream>
#include <stdio.h>
#include <ctime>

using namespace std;

#define LENGTH 70000000

void add(int & a, int & b, int & r) {r = a * b;}
void sub(int & a, int & b, int & r) {r = a - b;}
void mul(int & a, int & b, int & r) {r = a * b;}
void div(int & a, int & b, int & r) {r = a / b;}

int main()
{
    char * op = new char[LENGTH];
    int * in1 = new int[LENGTH];
    int * in2 = new int[LENGTH];
    int * out = new int[LENGTH];

    for (int i = 0; i < LENGTH; ++i)
    {
        *(op+i) = i % 4;
        *(in1+i) = qrand();
        *(in2+i) = qrand()+1;
    }

    *(op+LENGTH-1) = 4; // end of program


    long long  sClock, fClock;


    unsigned int c = 0;
    sClock = clock();

    cout << "Program begins" << endl;

    static void* table[] = {
        &&do_add,
        &&do_sub,
        &&do_mul,
        &&do_div,
        &&do_end,
        &&do_err,
        &&do_fin};

#define jump() goto *table[op[c++]]

    jump();
do_add:
    add(in1[c], in2[c], out[c]); jump();
do_sub:
    sub(in1[c], in2[c], out[c]); jump();
do_mul:
    mul(in1[c], in2[c], out[c]); jump();
do_div:
    div(in1[c], in2[c], out[c]); jump();
do_end:
    cout << "end of program" << endl; goto *table[6];
do_err:
    cout << "ERROR!!!" << endl; goto *table[6];
do_fin:

    fClock = clock();
    cout << fClock - sClock << endl;

    delete [] op;
    delete [] in1;
    delete [] in2;
    delete [] out;

    in1 = new int[LENGTH];
    in2 = new int[LENGTH];
    out = new int[LENGTH];

    for (int i = 0; i < LENGTH; ++i)
    {
        *(in1+i) = qrand();
        *(in2+i) = qrand()+1;
    }

    cout << "Native begins" << endl;

    sClock = clock();

    for (int i = 0; i < LENGTH; i += 4)
    {

        *(out+i) = *(in1+i) + *(in2+i);
        *(out+i+1) = *(in1+i+1) - *(in2+i+1);
        *(out+i+2) = *(in1+i+2) * *(in2+i+2);
        *(out+i+3) = *(in1+i+3) / *(in2+i+3);
    }

    fClock = clock();
    cout << fClock - sClock << endl;

    delete [] in1;
    delete [] in2;
    delete [] out;

    return 0;
}

Ответы на вопрос(1)

Ваш ответ на вопрос