put_records () принимает только ключевые аргументы в Kinesis boto3 Python API

from __future__ import print_function # Python 2/3 compatibility
import boto3
import json
import decimal

#kinesis = boto3.resource('kinesis', region_name='eu-west-1')
client = boto3.client('kinesis')
with open("questions.json") as json_file:
    questions = json.load(json_file)
    Records = []
    count = 0
    for question in questions:
        value1 = question['value']
        if value1 is None:
            value1 = '0'
        record = { 'StreamName':'LoadtestKinesis', 'Data':b'question','PartitionKey':'value1' }
        Records.append(record)
        count +=1
        if count == 500:
            response = client.put_records(Records)
            Records = []

Это мой скрипт на python для загрузки массива json-файлов впоток кинезис где я объединяю 500 записей для использованияput_records функция Но я получаю ошибку:put_records() only accepts keyword arguments , Как мне пройтисписок записей к этому методу? Каждая запись являетсяJSON с ключом раздела.

Образец Json:

[{
        "air_date": "2004-12-31",
        "answer": "FDDDe",
        "category": "AACC",
        "question": "'No. 2: 1912 Olympian; football star at Carlisle Indian School; 6 MLB seasons with the Reds, Giants & Braves'",
        "round": "DDSSS!",
        "show_number": "233",
        "value": "$200"
    }]

Ответы на вопрос(2)

    from __future__ import print_function # Python 2/3 compatibility
    import boto3
    import json
    import decimal
    import time


    def putdatatokinesis(RecordKinesis):
        start = time.clock()
        response = client.put_records(Records=RecordKinesis, StreamName='LoadtestKinesis')
        print ("Time taken to process" +  len(Records) + " is " +time.clock() - start)
        return response
client = boto3.client('kinesis')
firehoseclient = boto3.client('firehose')
with open("questions.json") as json_file:
    questions = json.load(json_file)
    Records = []
    RecordKinesis = []
    count = 0
    for question in questions:
        value1 = question['value']
        if value1 is None:
            value1 = '0'
        recordkinesis = { 'Data':b'question','PartitionKey':value1 }
        RecordKinesis.append(recordkinesis)
        Records.append(record)
        count +=1
        if count == 500:
            putdatatokinesis(RecordKinesis)
            Records = []
            RecordKinesis = []

идея состоит в том, чтобы передать аргумент Records в качестве ключевого аргумента.

ок записей, а затем добавить идентификатор потока.

Формат таков:

{
   "Records": [ 
      { 
         "Data": blob,
         "ExplicitHashKey": "string",
         "PartitionKey": "string"
      },
      {
         "Data": "another record",
         "ExplicitHashKey": "string",
         "PartitionKey": "string"
      }
   ],
   "StreamName": "string"
}

УвидетьKinesis Docs для получения дополнительной информации.

 vageli27 мая 2016 г., 20:21
@AnshumanRanjanyou все еще может выполнять пакетную обработку записей. Вам просто нужно немного изменить свой код.
 Anshuman Ranjan27 мая 2016 г., 16:28
Что, если у меня есть миллионы записей, я не могу записать каждую запись вручную в Записи? Я искал, чтобы зацикливаться и добавлять каждую запись в список. Kinesis имеет лучшую производительность - 500 записей в партии, поэтому мне нужен способ добавить 500 записей одновременно

Ваш ответ на вопрос