Aprimoramento de velocidade em grandes pandas read_csv com índice de data / hora

Eu tenho arquivos enormes que se parecem com isso:

05/31 / 2012,15: 30: 00.029,1306,25,1, E, 0, 1306,25

05/31 / 2012,15: 30: 00.029,1306.25,8, E, 0, 1306,25

Eu posso lê-los facilmente usando o seguinte:

  pd.read_csv(gzip.open("myfile.gz"), header=None,names=
  ["date","time","price","size","type","zero","empty","last"], parse_dates=[[0,1]])

Existe alguma maneira de analisar eficientemente datas como essa nos timestamps dos pandas? Se não, existe algum guia para escrever uma função cython que possa ser passada para date_parser =?

Eu tentei escrever minha própria função parser e ainda demora muito para o projeto em que estou trabalhando.

questionAnswers(3)

yourAnswerToTheQuestion