Pickle File слишком большой для загрузки

Проблема, которая у меня возникла, заключается в том, что у меня есть очень большой файл pickle (2,6 Гб), который я пытаюсь открыть, но каждый раз, когда я делаю это, я получаю ошибку памяти. Теперь я понимаю, что должен был использовать базу данных для хранения всей информации, но сейчас уже слишком поздно. Файл pickle содержит даты и текст из отчета Конгресса США, который был просканирован из Интернета (на его запуск ушло около 2 недель). Есть ли какой-нибудь способ получить доступ к информации, которую я выгружал в файл pickle постепенно, или как преобразовать файл pickle в базу данных sql или что-то еще, что я могу открыть без повторного ввода всех данных. Я действительно не хочу тратить еще 2 недели на повторное сканирование записи конгресса и внесение данных в базу данных.

Большое спасибо за вашу помощь

РЕДАКТИРОВАТЬ*

код для того, как объект засолен:

def save_objects(objects): 
    with open('objects.pkl', 'wb') as output: 
        pickle.dump(objects, output, pickle.HIGHEST_PROTOCOL)

def Main():   
    Links()
    file = open("datafile.txt", "w")
    objects=[]
    with open('links2.txt', 'rb') as infile:
        for link in infile: 
            print link
            title,text,date=Get_full_text(link)
            article=Doccument(title,date,text)
            if text != None:
                write_to_text(date,text)
                objects.append(article)
                save_objects(objects)

Это программа с ошибкой:

def Main():
    file= open('objects1.pkl', 'rb') 
    object = pickle.load(file)

Ответы на вопрос(2)

Ваш ответ на вопрос