Suchergebnisse für Anfrage "amazon-s3"
Wie skaliere ich eine Java-App mit einer REST-API und einer Datenbank?
Ich habe eine typische zustandslose Java-Anwendung, die eine REST-API bereitstellt und Aktualisierungen (CRUD) in einer Postgresql-Datenbank durchführt. Jedoch wächst die Anzahl der Kunden und ich habe das Bedürfnis, Erhöhen Sie die Redundanz, ...
Trigger S3 Ereignis erstellen
Ich verwende S3 Ereignisse erstellen, um AWS-Lambdas auszulösen. Wenn meine Verarbeitung fehlschlägt, möchte ich etwas zaubern und dann das "Ereignis" erneut auslösen, um meine weitere Verarbeitung zu starten. Bisher ist die einzige Option, die ...
AWS Lambda wird durch PUT zum S3-Bucket in einem separaten Konto ausgelöst
Ich versuche, eine Lambda-Funktion auszulösen, die bei einem Update auf einen S3-Bucket ausgeführt wird. Der S3-Eimer, den ich versuche, um den Lambda auszulösen, befindet sich in einem separaten AWS-Konto. Der Ansatz, den ich ausprobiert ...
Zugriff verweigert, wenn die PutObject-Operation mit Bucket-Level-Berechtigung aufgerufen wird
Ich folgte dem Beispiel aufhttp: //docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_examples.html#iam-policy-example-s [http://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_examples.html#iam-policy-example-s3] , um einem ...
Wie verwende ich AWS CLI, um nur Dateien im S3-Bucket zu kopieren, die einem bestimmten Zeichenfolgenmuster entsprechen?
Ich benutze die AWS-CLI, um Dateien von einem S3-Bucket auf meine R-Maschine zu kopieren. Verwenden Sie dazu den folgenden Befehl: system( "aws s3 cp s3://my_bucket_location/ ~/my_r_location/ --recursive --exclude '*' --include '*trans*' ...
PySpark mit IAM-Rollen für den Zugriff auf S3
Ich frage mich, ob PySpark den S3-Zugriff mithilfe von IAM-Rollen unterstützt. Insbesondere habe ich eine geschäftliche Einschränkung, bei der ich eine AWS-Rolle übernehmen muss, um auf einen bestimmten Bereich zuzugreifen. Dies ist in Ordnung, ...
PySpark: Einzelne Datei beim Schreiben ausspucken anstatt mehrere Teiledateien
Gibt es eine Möglichkeit zu verhindern, dass PySpark beim Schreiben eines DataFrame in eine JSON-Datei mehrere kleine Dateien erstellt? Wenn ich laufe: df.write.format('json').save('myfile.json')ode df1.write.json('myfile.json')it erstellt ...
AWS CLI S3 Beim Aufrufen der HeadObject-Operation ist ein Clientfehler (403) aufgetreten: Forbidden
Ich versuche, ein Amazon Linux-AMI (ami-f0091d91) einzurichten und habe ein Skript, das einen Kopierbefehl zum Kopieren aus einem S3-Bucket ausführt. aws --debug s3 cp s3://aws-codedeploy-us-west-2/latest/codedeploy-agent.noarch.rpm .Dieses ...
Maven Deployment-Paket und Upload auf AWS-Lambda
Ich habe Probleme beim Hochladen des Maven-Bereitstellungspakets auf Amazon s3. Von Eclipse kann ich die JAR-Datei erfolgreich generieren, es treten jedoch Probleme beim Hochladen auf den Server auf. Hier ist mein Java-Code: package ...
Holen Sie sich alle S3-Eimer mit einem Präfix
erzeit haben wir mehrere Buckets mit einem Anwendungspräfix und einem Regionssuffix, z. Bucket-Namen myapp-us-east-1 myapp-us-west-1 Gibt es eine Möglichkeit, alle Eimer mit einem bestimmten Präfix zu finden? Gibt es so etwas wie: s3 = ...