Результаты поиска по запросу "amazon-s3"

1 ответ

 объект как следовать:

аюсь написать утилиту, используя aws-java-sdk (1.11.230). Я могу написать файл с SSE-KMS с помощью PutObjectRequest следующим образом: PutObjectRequest putRequest = new PutObjectRequest(existingBucketName, keyName, file) ...

1 ответ

+1 Я новичок в Data Pipeline, и это помогло мне понять, как настроить задание для извлечения данных из Redshift в RDS.

аюсь создать задание для извлечения данных из Redshift и записи тех же данных в корзины S3. До сих пор я исследовал AWS Glue, но Glue не способен запускать пользовательские sql на красное смещение. Я знаю, что мы можем запускать команды выгрузки ...

1 ответ

Надеюсь, что это кому-нибудь поможет.

ользую AWS Credentials * для подключения к своему AWS S3. final AmazonS3 s3 = new AmazonS3Client( new AWSStaticCredentialsProvider(new BasicAWSCredentials("accessKey*", ...

ТОП публикаций

1 ответ

Хороший вопрос, я перенес инициализацию клиента s3 за пределы лямбда-обработчика

то я хочу сделать: Пользователь загружает CSV-файл в корзину AWS S3.После загрузки файла S3 Bucket вызывает лямбда-функцию, которую я создал.Моя лямбда-функция читает содержимое файла csv, а затем отправляет электронное письмо с содержанием ...

2 ответа

stackoverflow.com/questions/48670551/...

раняю свой вывод данных в формате spark в виде csv-файла в scala с разделами. Вот как я это делаю вдирижабль. val sqlContext = new org.apache.spark.sql.SQLContext(sc) import sqlContext.implicits._ import org.apache.spark.{ SparkConf, ...

3 ответа

Вам нужно сгенерировать предварительно назначенный URL-адрес из клиента S3, и вы можете передать этот URL-адрес Пикассо. Этот URL будет общедоступным и будет иметь срок действия.

аюсь загрузить изображение, хранящееся в aws S3, в свое приложение для Android с помощью Picasso, но получаю пустое изображение без ошибок в моем logcat и ничего от общего отладки вокруг соответствующих строк кода. У нас есть частный доступ ...

1 ответ

Вышеупомянутое решение работает. Один вопрос: если у меня есть подпапка S3 с несколькими папками, в которых записывается «прогон данных», а название папки - число, как мне выбрать только 3 самых верхних числа (таким образом, все «прогоны данных») не импортируются). например, подпапка содержит папки 1000, 1005, 1050, 1101 и 1060. Я хочу выбрать только 1050, 1101 и 1060 (самые высокие 3 числа). Есть ли хитрость для этого?

вожу анализ больших данных с помощью PySpark. Я могу импортировать все файлы CSV, хранящиеся в определенной папке определенного сегмента, используя следующую команду: df = ...

1 ответ

Счастливого взлома!

дал федеративную идентичностьВключеноНеаутентифицированный доступк нему с флажкомСоздал роль, связанную с этой личностью и дал ейДоступ администраторатак что он должен иметь все разрешенияЗатем я добавляю этот код для загрузки файлов в AWS S3, он ...

0 ответов

Вариант 2

ался настроить вход в систему для веб-приложения, которое позволяет клиентам просматривать данные, размещенные на S3, и обнаружил, что AWS Cognito имеет размещенный ...

1 ответ

@himanshuIIITian Отличная идея. Сделаю

аюсь загрузить данные из корзины Amazon AWS S3, находясь в оболочке Spark. Я ознакомился со следующими ресурсами: Разбор файлов из Amazon S3 с помощью Apache ...