Pickle File слишком большой для загрузки
Проблема, которая у меня возникла, заключается в том, что у меня есть очень большой файл pickle (2,6 Гб), который я пытаюсь открыть, но каждый раз, когда я делаю это, я получаю ошибку памяти. Теперь я понимаю, что должен был использовать базу данных для хранения всей информации, но сейчас уже слишком поздно. Файл pickle содержит даты и текст из отчета Конгресса США, который был просканирован из Интернета (на его запуск ушло около 2 недель). Есть ли какой-нибудь способ получить доступ к информации, которую я выгружал в файл pickle постепенно, или как преобразовать файл pickle в базу данных sql или что-то еще, что я могу открыть без повторного ввода всех данных. Я действительно не хочу тратить еще 2 недели на повторное сканирование записи конгресса и внесение данных в базу данных.
Большое спасибо за вашу помощь
РЕДАКТИРОВАТЬ*
код для того, как объект засолен:
def save_objects(objects):
with open('objects.pkl', 'wb') as output:
pickle.dump(objects, output, pickle.HIGHEST_PROTOCOL)
def Main():
Links()
file = open("datafile.txt", "w")
objects=[]
with open('links2.txt', 'rb') as infile:
for link in infile:
print link
title,text,date=Get_full_text(link)
article=Doccument(title,date,text)
if text != None:
write_to_text(date,text)
objects.append(article)
save_objects(objects)
Это программа с ошибкой:
def Main():
file= open('objects1.pkl', 'rb')
object = pickle.load(file)