Por que a multiplicação de matrizes é mais rápida com numpy do que com ctypes no Python?
Eu estava tentando descobrir o caminho mais rápido para fazer a multiplicação de matrizes e tentei 3 maneiras diferentes:
Implementação pura em python: não há surpresas aqui.Implementação Numpy usandonumpy.dot(a, b)
Interface com C usandoctypes
módulo em Python.Este é o código C que é transformado em uma biblioteca compartilhada:
<code>#include <stdio.h> #include <stdlib.h> void matmult(float* a, float* b, float* c, int n) { int i = 0; int j = 0; int k = 0; /*float* c = malloc(nay * sizeof(float));*/ for (i = 0; i < n; i++) { for (j = 0; j < n; j++) { int sub = 0; for (k = 0; k < n; k++) { sub = sub + a[i * n + k] * b[k * n + j]; } c[i * n + j] = sub; } } return ; } </code>
E o código Python que chama isso:
<code>def C_mat_mult(a, b): libmatmult = ctypes.CDLL("./matmult.so") dima = len(a) * len(a) dimb = len(b) * len(b) array_a = ctypes.c_float * dima array_b = ctypes.c_float * dimb array_c = ctypes.c_float * dima suma = array_a() sumb = array_b() sumc = array_c() inda = 0 for i in range(0, len(a)): for j in range(0, len(a[i])): suma[inda] = a[i][j] inda = inda + 1 indb = 0 for i in range(0, len(b)): for j in range(0, len(b[i])): sumb[indb] = b[i][j] indb = indb + 1 libmatmult.matmult(ctypes.byref(suma), ctypes.byref(sumb), ctypes.byref(sumc), 2); res = numpy.zeros([len(a), len(a)]) indc = 0 for i in range(0, len(sumc)): res[indc][i % len(a)] = sumc[i] if i % len(a) == len(a) - 1: indc = indc + 1 return res </code>
Eu apostaria que a versão usando C teria sido mais rápida ... e eu teria perdido! Abaixo está meu benchmark que parece mostrar que eu fiz isso incorretamente, ou quenumpy
é estupidamente rápido:
Eu gostaria de entender porque onumpy
versão é mais rápida que actypes
versão, eu nem estou falando sobre a implementação do Python puro, uma vez que é meio óbvio.