Resultados de la búsqueda a petición "amazon-s3"

2 la respuesta

La zona alojada de Amazon AWS Route 53 no funciona

Así que he movido mi dominio a Amazon Route 53 y he creado una nueva zona alojada con todos los registros correctos, pero cuando voy a mi dominio, me da el error 'marcar tcp: busque verticeinteractive.co.uk en 8.8.4.4:53: mal comportamiento del ...

1 la respuesta

El códec utf8 'no puede decodificar el byte 0x89 en la posición 15: byte de inicio no válido

Esta es una vista para mi proyecto en el que estoy tratando de subir imágenes desde mi sistema local a s3 usando boto. class ImageList(generics.ListCreateAPIView): queryset = Image.objects.all() serializer_class = ImageSerializer def post(self , ...

2 la respuesta

Obtenga todos los cubos s3 con un prefijo

Actualmente tenemos varios cubos con un prefijo de aplicación y un sufijo de región, p. Nombres de cubo myapp-us-east-1myapp-us-west-1¿Hay alguna forma de encontrar todos los cubos con un prefijo determinado? ¿Hay algo como: s3 = ...

3 la respuesta

Paquete de implementación de Maven y carga a AWS-Lambda

Tengo problemas para cargar el paquete de implementación de Maven en Amazon s3. Desde Eclipse, puedo generar el archivo .jar con éxito, sin embargo, tengo problemas para cargarlo en el servidor. Aquí está mi código Java: package ...

13 la respuesta

AWS CLI S3 Se produjo un error de cliente (403) al llamar a la operación HeadObject: Prohibido

Estoy tratando de configurar una AMI de Amazon Linux (ami-f0091d91) y tengo un script que ejecuta un comando de copia para copiar desde un bucket de S3. aws --debug s3 cp s3://aws-codedeploy-us-west-2/latest/codedeploy-agent.noarch.rpm .Este ...

5 la respuesta

PySpark utilizando roles de IAM para acceder a S3

Me pregunto si PySpark admite el acceso S3 utilizando roles de IAM. Específicamente, tengo una restricción comercial en la que tengo que asumir un rol de AWS para acceder a un grupo determinado. Esto está bien cuando uso boto (ya que es parte de ...

3 la respuesta

PySpark: escupe un solo archivo al escribir en lugar de varios archivos de pieza

¿Hay alguna manera de evitar que PySpark cree varios archivos pequeños al escribir un DataFrame en un archivo JSON? Si corro: df.write.format('json').save('myfile.json')o df1.write.json('myfile.json')crea la carpeta llamadamyfile y dentro de ...

3 la respuesta

Cómo usar AWS CLI para copiar solo archivos en el depósito S3 que coinciden con un patrón de cadena determinado

Estoy usando la AWS CLI para copiar archivos de un depósito S3 a mi máquina R usando un comando como el siguiente: system( "aws s3 cp s3://my_bucket_location/ ~/my_r_location/ --recursive --exclude '*' --include '*trans*' --region us-east-1" ...

2 la respuesta

Descargue el archivo de AWS S3 con Python

Estoy tratando de descargar un archivo del bucket de Amazon S3 a mi local usando el siguiente código, pero aparece un error que dice "No se pueden ubicar las credenciales" A continuación se muestra el código que he escrito: from boto3.session ...

3 la respuesta

¿Cómo puedo leer desde S3 en pyspark ejecutándose en modo local?

Estoy usando PyCharm 2018.1 usando Python 3.4 con Spark 2.3 instalado a través de pip en un virtualenv. No hay instalación de hadoop en el host local, por lo que no hay instalación de Spark (por lo tanto, no SPARK_HOME, HADOOP_HOME, ...