Inserir grande quantidade de dados no BigQuery por meio da biblioteca bigquery-python

Eu tenho arquivos csv grandes e arquivos excel, onde os leio e crio o script de criação de tabela necessário dinamicamente, dependendo dos campos e tipos que ele possui. Em seguida, insira os dados na tabela criada.

eu liesta e entendeu que eu deveria enviá-los comjobs.insert() ao invés detabledata.insertAll() para grande quantidade de dados.

É assim que eu o chamo (funciona para arquivos menores e não grandes).

result  = client.push_rows(datasetname,table_name,insertObject) # insertObject is a list of dictionaries

Quando eu uso as bibliotecaspush_rows dá esse erro no windows.

[Errno 10054] An existing connection was forcibly closed by the remote host

e isso no ubuntu.

[Errno 32] Broken pipe

Então, quando eu passeiBigQuery-Python código que usatable_data.insertAll().

Como posso fazer isso com esta biblioteca? Sei que podemos fazer o upload pelo armazenamento do Google, mas preciso disso com o método de upload direto.

questionAnswers(1)

yourAnswerToTheQuestion