Результаты поиска по запросу "amazon-s3"
Использование GZIP с html-страницами из Amazon S3
Кто-нибудь знает какие-либо проблемы с обслуживанием сжатых HTML-страниц с помощью Amazon S3. У меня есть необходимость минимизировать размер файлов наших HT...
PySpark: выкладывать один файл при записи вместо нескольких файлов деталей
Есть ли способ запретить PySpark создавать несколько небольших файлов при записи DataFrame в файл JSON?Если я бегу:
использование лямбда-функций для распаковки архивов в S3 - это действительно sloooooow
Моя компания загружает большие архивные файлы на S3 и теперь хочет, чтобы они были разархивированы на S3. Я написал лямбда-функцию, основанную на распаковке,...
Amazon S3: SDK или REST API [закрыто]
Я должен использовать Amazon S3 для загрузки статического содержимого программным способом на Java. Когда я начал читать, я обнаружил, что это можно сделать либо через их SDK (оболочку через REST API), либо через REST API. На сайте Amazon AWS ...
Задать заголовок Expires для существующего объекта S3 с помощью AWS Java SDK
Я обновляю существующие объекты в корзине Amazon S3, чтобы установить некоторые метаданные. Я хотел бы установить HTTPExpires заголовок для каждого объекта для лучшей обработки клиентов HTTP / 1.0. Мы используемAWS Java SDK ...
Можно ли получить содержимое файла S3, не загружая его с помощью boto3?
Я работаю над процессом выгрузки файлов из
Какие крупные сайты используют Amazon EC2 [закрыто]
Я ищу примеры крупных сайтов, которые размещены на Amazon EC2 / S3 / Cloudfront / и т.д.Я работал в компании, где у нас был сайт, который посещал 500 тыс. Ун...
Возможно ли прочитать файл из S3 в Google App Engine, используя boto?
Я хочу манипулировать маринованным объектом python, хранящимся в S3 в песочнице Google App Engine. Я использую предложение в Ботодокументация:
S3 boto list keys иногда возвращает ключ каталога
Я заметил разницу между возвратами из API Бото в зависимости от местоположения ведра. У меня есть следующий код: con = S3Connection(AWS_ACCESS_KEY_ID, AWS_SECRET_ACCESS_KEY) bucket = con.get_bucket(S3_BUCKET_NAME) keys = bucket.list(path) for ...