Objektspeicher für Roving Edge Infrastructure

Beschreibt die Verwaltung von Objektspeicheraufgaben, einschließlich derer für Buckets und Objekte, auf Ihren Roving Edge Infrastructure-Geräten.

In diesem Abschnitt werden die folgenden auf dem Gerät verfügbaren Roving Edge Infrastructure-Services im Zusammenhang mit Object Storage beschrieben:

Performance- und Verwendungsschwellenwerte

Wir empfehlen Ihnen, Ihre Speicherschwellenwerte unter 80% zu halten. Die Aufrechterhaltung dieses Levels ist wichtig, um die Performance zu optimieren, insbesondere für intensive Schreibvorgänge. Wenn die Roving Edge Infrastructure-Gerätekapazität 80% beträgt, übertragen Sie Daten an Ihren OCI-Mandanten, bis die Speicherebene unter 80% fällt, um einen optimalen Betrieb der Services zu erreichen.

Überwachen Sie regelmäßig den verfügbaren Speicherplatz für alle Ihre Roving Edge Infrastructure-Geräte. Siehe Roving Edge Infrastructure-Geräte überwachen.

Amazon S3-Kompatibilität-API

Mit der Amazon S3-Kompatibilität-API können Kunden weiterhin ihre vorhandenen Amazon S3-Tools (wie z.B. SDK-Clients) verwenden. Außerdem können sie für die Arbeit mit Object Storage minimale Änderungen an ihren Anwendungen vornehmen. Die Amazon S3-Kompatibilitäts-API und die Object Storage-Datasets sind deckungsgleich. Wenn Daten mit der Amazon S3-Kompatibilitäts-API in Object Storage geschrieben werden, können Sie die Daten mit der nativen Object Storage-API zurücklesen und umgekehrt.

Unterschiede zwischen der Object Storage-API und der Amazon S3-Kompatibilität-API

Der von Oracle Cloud Infrastructure bereitgestellte Object Storage-Service und Amazon S3 verwenden ähnliche Konzepte und Begriffe. In beiden Fällen werden Daten als Objekte in Buckets gespeichert. Die Unterschiede bestehen in der Implementierung von Features und Tools für die Arbeit mit Objekten.

Im Folgenden werden die Unterschiede zwischen den beiden Speichertechnologien behandelt:

  • Fächer

    Amazon S3 verwendet keine Compartments. Standardmäßig werden Buckets, die mit der Amazon S3-Kompatibilität-API oder der Swift-API erstellt werden, im Root-Compartment des Oracle Cloud Infrastructure-Mandanten erstellt. Stattdessen können Sie ein anderes Compartment für die Amazon S3-Kompatibilitäts-API oder die Swift-API zum Erstellen von Buckets festlegen.

  • Globaler Bucket-Namespace

    Object Storage verwendet keinen globalen Bucket-Namespace. Stattdessen dient der Namespace als Container der obersten Ebene für alle Bucket und Objekte. Beim Erstellen des Accounts wird jedem Mandanten ein eindeutiger, vom System generierter und unveränderbarer Namespace zugewiesen. Der Namespace gilt für alle Compartments in einer Region. Sie kontrollieren die Bucket-Namen, diese müssen jedoch innerhalb eines Namespace eindeutig sein. Während der Namespace regionsspezifisch ist, ist der Namespace-Name selbst in allen Regionen identisch. Sie können einen Bucket mit dem Namen MyBucket in US West (Phoenix) und einen Bucket mit dem Namen MyBucket in Germany Central (Frankfurt) verwenden.

  • Verschlüsselung

    Object Storage Service verschlüsselt standardmäßig alle Daten im Ruhezustand. Die Verschlüsselung kann mit der API nicht aktiviert oder deaktiviert werden.

  • Access Control-Listen (ACLs) auf Objektebene

    Oracle Cloud Infrastructure verwendet keine ACLs für Objekte. Stattdessen muss ein Administrator Gruppen , Compartments und Policys einrichten, die den Zugriffstyp sowie den Zugriff der Benutzer auf Services und Ressourcen steuern. Beispiel: Die Policys steuern, wer Benutzer und Gruppen erstellen, Buckets erstellen, Objekte herunterladen und Object Storage-bezogene Policys und Regeln verwalten kann.

Weitere Informationen finden Sie unter Überblick über Object Storage.

Zugriff auf Oracle Cloud Infrastructure einrichten

Um den Zugriff einer Amazon S3-Anwendung auf Object Storage zu aktivieren, müssen Sie den Zugriff auf Oracle Cloud Infrastructure einrichten und Ihre Anwendung ändern.

  1. Registrieren Sie sich für Oracle Cloud Infrastructure, und rufen Sie einen eindeutigen Namespace ab.

  2. Jeder Benutzer der Amazon S3-Kompatibilität-API mit Object Storage muss berechtigt sein, mit dem Service zu arbeiten. Wenn Sie nicht sicher sind, ob Sie über die Berechtigung verfügen, wenden Sie sich an den Administrator. Grundlegende Informationen zu Policys finden Sie unter Funktionsweise von Policys. Policys, die die Verwendung von Object Storage aktivieren, finden Sie unter Allgemeine Policys und in der Policy-Referenz.

  3. Verwenden Sie einen vorhandenen Schlüssel, oder erstellen Sie einen Customer Secret Key. Ein Kunden-Secret-Key besteht aus einem Zugriffsschlüssel-/Secret-Key-Paar. Das Erstellen und Verwenden dieser Schlüssel wird im folgenden Abschnitt zum Einrichten der Konfigurationsdatei S3 beschrieben.

Konfigurationsdatei S3 einrichten

Object Storage auf Roving Edge Infrastructure unterstützt das Amazon-Tool S3cmd zusätzlich zur Unterstützung der Oracle Cloud Infrastructure-Befehlszeilenschnittstelle. Für die Unterstützung des Amazon-S3cmd-Tools müssen Sie die Konfigurationsdatei S3 einrichten, unterstützen aber auch S3cmd.

Sie können s3cmd von der folgenden Site herunterladen:

https://s3tools.org/download

Unter Macintosh und Linux heißt die Konfigurationsdatei s3cmd .s3cfg und befindet sich im Home-Verzeichnis. Beispiel:

/home/username/($HOME)

Unter Windows erhält die Konfigurationsdatei s3cmd den Namen s3cmd.ini und befindet sich in %USERPROFILE% -> Application Data. Dies ist in der Regel der Fall:

c:\users\username\AppData\Roaming\s3cmd.ini

Weitere Details finden Sie unter: https://s3tools.org/kb/item14.htm

Das folgende Beispiel zeigt den Inhalt der Konfigurationsdatei S3cmd:

[default]
access_key = 9aa40ec9-bec3-4fab-9e5a-3584a5979d48
access_token =
add_encoding_exts =
add_headers =
bucket_location = US
cache_file =
ca_certs_file = <Full path to the bundle.pem file>
check_ssl_hostname = False
default_mime_type = binary/octet-stream
delay_updates = False
delete_after = False
delete_after_fetch = False
delete_removed = False
dry_run = False
enable_multipart = True
encoding = UTF-8
encrypt = False
expiry_date =
expiry_days =
expiry_prefix =
follow_symlinks = False
force = False
get_continue = False
gpg_command = /usr/bin/gpg
gpg_decrypt = %(gpg_command)s -d --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_encrypt = %(gpg_command)s -c --verbose --no-use-agent --batch --yes --passphrase-fd %(passphrase_fd)s -o %(output_file)s %(input_file)s
gpg_passphrase =
guess_mime_type = True
host_base = <rover_node_ip>:8019
host_bucket = <rover_node_ip>:8019
human_readable_sizes = False
ignore_failed_copy = False
invalidate_default_index_on_cf = False
invalidate_default_index_root_on_cf = True
invalidate_on_cf = False
list_md5 = False
log_target_prefix =
max_delete = -1
mime_type =
multipart_chunk_size_mb = 15
preserve_attrs = True
progress_meter = True
proxy_host =
proxy_port = 0
put_continue = False
recursive = False
recv_chunk = 4096
reduced_redundancy = False
restore_days = 1
secret_key = <Your secret key, see below>
send_chunk = 4096
server_side_encryption = False
skip_existing = False
socket_timeout = 300
urlencoding_mode = normal
use_https = True
use_mime_magic = True
verbosity = WARNING
website_endpoint = https://<rover_node_ip>:8015
website_error =

So richten Sie die Konfigurationsdatei S3cmd für die Verwendung mit Roving Edge Infrastructure ein:

  1. Aktualisieren Sie das Feld access_key:

    1. Melden Sie sich bei der Roving Edge Infrastructure Device-Konsole des entsprechenden Geräts an.

    2. Öffnen Sie das Navigationsmenü, und wählen Sie Identity Management > Benutzer aus. Die Seite Benutzer wird angezeigt. Alle Benutzer werden tabellarisch aufgelistet.

    3. Wählen Sie den Benutzer aus, dessen Zugriffsschlüssel Sie in der Konfigurationsdatei S3cmd verwenden möchten. Die Seite Details des Benutzers wird angezeigt.

    4. Wählen Sie unter Ressourcen die Option Kunden-Secret-Keys. Die Seite Kunden-Secret-Keys wird angezeigt. Alle Kunden-Secret-Keys werden tabellarisch aufgelistet.

    5. Kopieren Sie den Zugriffsschlüssel, und fügen Sie ihn in den Wert im Feld access_key in der Konfigurationsdatei s3cmd ein.

  2. Aktualisieren Sie das Feld ca_certs_file: Geben Sie den vollständigen Pfad der Datei bundle.pem ein. Beispiel:

    /Users/user_name/.oci/bundle.pem

    Wenn Sie die ca certs-Datei nicht haben, laden Sie sie mit dem folgenden Befehl herunter:

    echo -n | openssl s_client -showcerts -connect rover_node_IP:8015 | 
    sed -ne '/-BEGIN CERTIFICATE-/,/-END CERTIFICATE-/p' > bundle.pem
  3. Legen Sie im Feld check_ssl_hostname den Wert false fest.

  4. Aktualisieren Sie das Feld host_base: Geben Sie die rover_node_IP:8019 ein.

  5. Aktualisieren Sie das Feld host_bucket: Geben Sie die rover_node_IP:8019 ein.

  6. Aktualisieren Sie das Feld secret_key:

    1. Melden Sie sich bei der Roving Edge Infrastructure Device-Konsole des entsprechenden Geräts an.

    2. Öffnen Sie das Navigationsmenü, und wählen Sie Identity Management > Benutzer aus. Die Seite Benutzer wird angezeigt. Alle Benutzer werden tabellarisch aufgelistet.

    3. Wählen Sie den Benutzer aus, dessen Secret Key Sie in der Konfigurationsdatei S3cmd verwenden möchten. Die Seite Details des Benutzers wird angezeigt.

    4. Wählen Sie unter Ressourcen die Option Kunden-Secret-Keys. Die Seite Kunden-Secret-Keys wird angezeigt. Alle Kunden-Secret-Keys werden tabellarisch aufgelistet.

    5. Wählen Sie Secret Key generieren aus. Der generierte Secret Key wird im Dialogfeld Secret Key generieren angezeigt. Gleichzeitig generiert Oracle den Zugriffsschlüssel, der mit dem Secret Key kombiniert wird. Der neu generierte Kunden-Secret-Key wird der Liste der Kunden-Secret-Keys hinzugefügt.

    6. Kopieren Sie den Schlüssel, und fügen Sie ihn in den Feldwert secret_key in der Konfigurationsdatei s3cmd ein.

  7. Speichern und schließen Sie die Konfigurationsdatei s3cmd.

Unterstützung für die Amazon S3-Kompatibilität

Unterstützung für die Amazon S3-Kompatibilitäts-API wird auf Bucket- und Objektebene bereitgestellt.

Bucket-APIs

Folgende Bucket-APIs werden unterstützt:

Objekt-APIs

Folgende Objekte werden unterstützt:

APIs für Multipart-Uploads

Folgende APIs für Multipart-Uploads werden unterstützt:

SSE-C-Unterstützung

Über optionale API-Header können Sie einen eigenen 256-Bit-AES-Verschlüsselungsschlüssel angeben, mit dem Objekte verschlüsselt und entschlüsselt werden, die in Object Storage hochgeladen und daraus heruntergeladen werden.

Wenn Sie Ihre eigenen Schlüssel für serverseitige Verschlüsselung verwenden möchten, geben Sie die folgenden drei Anforderungsheader mit den Verschlüsselungsschlüsselinformationen an:

Header Beschreibung Unterstützte APIs
x-amz-server-side-encryption-customer-algorithm Gibt "AES256" als Verschlüsselungsalgorithmus an.

GetObject

HeadObject

PutObject

InitiateMultipartUpload

UploadPart

x-amz-server-side-encryption-customer-key Gibt den base64-codierten 256-Bit-Verschlüsselungsschlüssel an, mit dem die Daten verschlüsselt oder verschlüsselt werden sollen.
x-amz-server-side-encryption-customer-key-md5 Gibt den base64-codierten 128-Bit-MD5-Digest der Verschlüsselung an. Mit diesem Wert wird die Integrität des Verschlüsselungsschlüssels überprüft.

Object Storage verfügt über eindeutige APIs zum Kopieren von Objekten und Teilen. Amazon S3 verwendet die folgenden Header in PutObject und UploadPart, um Kopiervorgänge zu bestimmen. Um ein Quelobjekt zu kopieren, das mit einem SSE-C-Schlüssel verschlüsselt ist, müssen Sie diese drei Header angeben, damit Object Storage das Objekt verschlüsseln kann.

Header Beschreibung Unterstützte APIs
x-amz-copy-source-server-side-encryption-customer-algorithm Gibt "AES256" als Verschlüsselungsalgorithmus an, mit dem das Quellobjekt entschlüsselt werden soll.

PutObject

UploadPart

x-amz-copy-source-server-side-encryption-customer-key Gibt den von base64-codierten 256-Bit-Verschlüsselungsschlüssel an, mit dem das Quellobjekt entschlüsselt werden soll.
x-amz-copy-source-server-side-encryption-customer-key-md5 Gibt den base64-codierten 128-Bit-MD5-Digest des Verschlüsselungsschlüssels an, mit dem das Quellobjekt entschlüsselt wird.

Unterstützung für Verschlüsselung mit eigenen Schlüsseln in Vault

Über optionale API-Header können Sie einen eigenen Verschlüsselungsschlüssel in Vault angeben, mit dem Objekte verschlüsselt werden, die in Object Storage hochgeladen werden.

Wenn Sie Ihre eigenen Schlüssel in Vault für serverseitige Verschlüsselung verwenden möchten, geben Sie den folgenden Anforderungsheader mit der OCID des Schlüssels in Vault an:

Header Beschreibung Unterstützte APIs
x-amz-server-side-encryption-aws-kms-key-id OCID eines vorhandenen Schlüssels in Vault zur Verschlüsselung des Objekts.

PutObject

InitiateMultipartUpload

UploadPart

Unterstützte Amazon S3-Client

Sie können verschiedene Clientanwendungen für die Kommunikation mit den Amazon S3-fähigen Endpunkten von Object Storage konfigurieren. Dieses Thema enthält einige Konfigurationsbeispiele für unterstützte Amazon S3-Clients. Prüfen Sie die Voraussetzungen unter Zugriff auf Oracle Cloud Infrastructure einrichten.

AWS-SDK für Java

Das Repository des AWS-SDK für Java, der Dateidownload und Dokumentationslinks sind auf GitHub verfügbar: https://github.com/AWS/AWS-SDK-java.

Im folgenden Beispiel wird das AWS-SDK für Java für die Verwendung von Object Storage konfiguriert:


                // Put the Access Key and Secret Key here
                
AWSCredentialsProvider credentials = new AWSStaticCredentialsProvider(new BasicAWSCredentials(
 "gQ4+YC530sBa8qZI6WcbUbtH8oar0exampleuniqueID",
 "7fa22331ebe62bf4605dc9a42aaeexampleuniqueID"))));

// Your namespace
String namespace = "rover-namespace";

// The region to connect to
String region = "us-ashburn-1";

// Create an S3 client pointing at the region
String endpoint = String.format("%s.compat.objectstorage.%s.oraclecloud.com",namespace,region);
AwsClientBuilder.EndpointConfiguration endpointConfiguration = new AwsClientBuilder.EndpointConfiguration(endpoint, region);
AmazonS3 client = AmazonS3Client.builder()
 .standard()
 .withCredentials(credentials)
 .withEndpointConfiguration(endpointConfiguration)
 .disableChunkedEncoding()
 .enablePathStyleAccess()
 .build();

AWS SDK für Javascript

Das Repository des AWS-SDK für JavaScript, Dokumentationslinks und Installationsanweisungen sind auf GitHub verfügbar: https://github.com/AWS/AWS-SDK-js.

Im Folgenden finden Sie ein Beispiel für die Konfiguration des AWS-SDK für Javascript für die Verwendung von Object Storage

s3 = new AWS.S3({
  region: 'us-ashburn-1',
  endpoint: 'https://' + rover-namespace + '.compat.objectstorage.us-ashburn-1.oraclecloud.com',
  accessKeyId: 'gQ4+YC530sBa8qZI6WcbUbtH8oar0exampleuniqueID',
  secretAccessKey: '7fa22331ebe62bf4605dc9a42aaeexampleuniqueID',
  s3ForcePathStyle: true,
  signatureVersion: 'v4',
});

AWS-SDK für Python (Boto3)

Das Repository des AWS SDK für Python (Boto3), Dokumentationslinks und Installationsanweisungen sind auf GitHub verfügbar: https://github.com/boto/boto3.

Im folgenden Beispiel wird beschrieben, wie Sie das AWS-SDK für Python zur Verwendung von Object Storage konfigurieren:

import boto3
  
s3 = boto3.resource(
    's3',
    aws_access_key_id="gQ4+YC530sBa8qZI6WcbUbtH8oar0exampleuniqueID",
    aws_secret_access_key="7fa22331ebe62bf4605dc9a42aaeexampleuniqueID",
    region_name="us-phoenix-1", # Region name here that matches the endpoint
    endpoint_url="https://rover-namespace.compat.objectstorage.us-phoenix-1.oraclecloud.com" # Include your rover-namespace in the URL
)
  
# Print out the bucket names
for bucket in s3.buckets.all():
    print bucket.name

Objektspeicher-Buckets mit s3fs mounten

Mit s3fs können Linux und macOS Object Storage als Dateisystem mounten. Das s3fs-Repository, Dokumentationslinks, Installationsanweisungen und Beispiele sind unter GitHub verfügbar: https://github.com/s3fs-fuse/s3fs-fuse.

s3fs ist nicht für alle Anwendungen geeignet. Es gelten die folgenden Einschränkungen:

  • Object Storage-Services weisen im Vergleich zu lokalen Dateisystemen eine hohe Latenz für Zeit bis zum ersten Byte auf, und es ist kein zufälliger Schreibzugriff vorhanden. s3fs erreicht den besten Durchsatz für Workloads, die nur große Dateien lesen.

  • Sie können eine Datei nicht teilweise aktualisieren. Wenn Sie also ein Byte ändern, muss die gesamte Datei hochgeladen werden.

  • Zufällige Schreibvorgänge oder Anhänge an Dateien erfordern ein Neuschreiben der gesamten Datei.

  • s3fs unterstützt keine Teildownloads. Wenn Sie nur ein Byte einer Datei lesen möchten, müssen Sie die gesamte Datei herunterladen.

  • s3fs unterstützt keine serverseitigen Dateikopien. Kopierte Dateien müssen zuerst auf den Client heruntergeladen und dann in den neuen Speicherort hochgeladen werden.

  • Metadatenvorgänge wie das Auflisten von Verzeichnissen haben aufgrund der Netzwerklatenz eine schlechte Performance.

  • s3fs unterstützt keine Hardlinks oder die atomaren Namen von Dateien oder Verzeichnissen.

  • s3fs bietet keine Koordination zwischen mehreren Clients, die denselben Bucket mounten.

So hängen Sie einen Object Storage-Bucket als Dateisystem ein:

  1. Befolgen Sie die auf GitHub bereitgestellten Installationsanweisungen: https://github.com/s3fs-fuse/s3fs-fuse.

    Wenn Sie die Installation mit einem vordefinierten Package nicht durchführen können, befolgen Sie die Kompilierungsanweisungen hier: https://github.com/s3fs-fuse/s3fs-fuse/blob/master/COMPILATION.md.

  2. Prüfen und führen Sie die Voraussetzungen unter Zugriff auf Oracle Cloud Infrastructure einrichten aus. Sie benötigen ein Zugriffsschlüssel-/Secret Key-paar und eine korrekte IAM-Policy, mit der Sie einen Bucket als Dateisystem mounten können. Beispiel:
    Allow group s3fsAdmins to manage object-family in tenancy
  3. Geben Sie Ihre Zugangsdaten für das Zugriffsschlüssel-/Secret-Key-Paar in eine ${HOME}/.passwd-s3fs-Zugangsdatendatei ein:

    cat ${HOME}/.passwd-s3fs
    access_key:secret_key

    Beispiel:

    cat ${HOME}/.passwd-s3fs
    gQ4+YC530sBa8qZI6WcbUbtH8oar0exampleuniqueID:7fa22331ebe62bf4605dc9a42aaeexampleuniqueID

    Legen Sie dann nur noch die Eigentümerberechtigungen für die Zugangsdaten-Datei fest:

    chmod 600 ${HOME}/.passwd-s3fs
  4. Erstellen Sie einen Mount Point, um einen Object Storage-Bucket zu mounten:
    mkdir /path/to/local_directory_name
    s3fs bucket_name local_directory_name -o passwd_file=${HOME}/.passwd-s3fs 
    -o url=https://rover-namespace.compat.objectstorage.region_ID.oraclecloud.com 
    -o use_path_request_style -o kernel_cache -o multipart_size=128 -o parallel_count=50 -o multireq_max=100 -o max_background=1000 
    [-o endpoint=region_ID]

    Wobei:

    • bucket_name ist der Name des Bucket, den Sie einhängen möchten.

    • local_directory_name ist der Name des lokalen Verzeichnisses, in dem Sie den Bucket mounten möchten.

    • namespace_name ist der eindeutige, vom System generierte, dem Mandanten beim Erstellen des Accounts zugewiesene Name. Sie können den Namespace-Namen über die Befehlszeilenschnittstelle (CLI) oder über die Konsole abrufen. Weitere Informationen finden Sie unter Object Storage-Namespaces.

    • region_ID ist die ID der Region, in der sich der Bucket befindet. Weitere Informationen finden Sie unter Regionen und Verfügbarkeitsdomänen.

    • endpoint: Wenn Sie einen Bucket mounten möchten, der in Ihrer Hauptregion erstellt wurde, müssen Sie nicht den Parameter endpoint angeben. Wenn Sie einen Bucket mounten möchten, der in einer anderen Region erstellt wurde, müssen Sie den Parameter endpoint angeben.

  5. Wenn Sie den Bucket beim Systemstart mit s3fs automatisch als Dateisystem mounten möchten, fügen Sie Folgendes zur Datei /etc/fstab hinzu:

    bucket_name /path/to/local_directory_name fuse.
    s3fs use_path_request_style,passwd_file=/root/.s3fs-password,url=https://rover-namespace.
    compat.objectstorage.region_ID.oraclecloud.com,endpoint=region_ID 
    kernel_cache,multipart_size=128,parallel_count=50,multireq_max=100,max_background=1000,_netdev
  6. Um den s3fs-Bucket zu prüfen, führen Sie den Befehl df -h aus. Die Ausgabe zeigt den neuen Mountpunkt für den Bucket an. Navigieren Sie zu dem neuen Mount Point, und führen Sie den Befehl ls aus, um alle Objekte im Bucket aufzulisten.

So beheben Sie Fehler beim Mounten eines Object Storage-Buckets

  • Wenn Autorisierungsfehler auftreten, prüfen Sie Ihre IAM-Policys, und stellen Sie sicher, dass Sie einen Bucket als Dateisystem bereitstellen können. Beispiel:
    Allow group s3fsAdmins to manage object-family in tenancy
  • Wenn Sie versuchen, einen Bucket zu mounten, der in einer anderen Region als Ihrer Hauptregion erstellt wurde, müssen Sie diese andere Region sowohl in url als auch in endpoint angeben.
  • Wenn Sie einen Bucket als Root-Benutzer mounten, können andere Benutzer Objekte im Bucket nicht auflisten oder darauf zugreifen, es sei denn, Sie fügen -o allow_other dem s3fs-Befehl hinzu oder allow_other den /etc/fstab-Mountoptionen. Sie können auch bestimmte UID- und GID-Parameter angeben, um Benutzerzugriffsdetails festzulegen.
  • Wenn Sie die Lösungen zur Fehlerbehebung geprüft haben und sich an den Support wenden müssen, führen Sie den Mountbefehl erneut im DEBUG-Modus aus, um weitere Fehlerdetails zu erhalten. Fügen Sie den folgenden Befehl am Ende hinzu, und speichern Sie die Ausgabe:
    -o dbglevel=info -f -o curldbg
Um einen Object Storage-Bucket von einem Dateisystem auszuhängen, führen Sie den folgenden Befehl aus, und geben Sie den Einhängepunkt an:
umount /path/to/local_directory_name