Schritt 1: Dokumente zu Amazon S3 hinzufügen - Amazon Kendra

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Schritt 1: Dokumente zu Amazon S3 hinzufügen

Bevor Sie einen Amazon Comprehend-Entitätsanalyseauftrag für Ihren Datensatz ausführen, erstellen Sie einen Amazon S3 S3-Bucket, um die Daten, Metadaten und die Amazon Comprehend Comprehend-Entitätsanalyseausgabe zu hosten.

Der Beispieldatensatz wird heruntergeladen

Bevor Amazon Comprehend einen Entitätsanalyseauftrag für Ihre Daten ausführen kann, müssen Sie den Datensatz herunterladen, extrahieren und in einen S3-Bucket hochladen.

  1. Laden Sie den Ordner tutorial-dataset.zip auf Ihr Gerät herunter.

  2. Extrahieren tutorial-dataset Sie den Ordner, um auf den data Ordner zuzugreifen.

  1. Um das herunterzuladentutorial-dataset, führen Sie den folgenden Befehl in einem Terminalfenster aus:

    Linux
    curl -o path/tutorial-dataset.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/tutorial-dataset.zip

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu dem Speicherort, in dem Sie den ZIP-Ordner speichern möchten.

    macOS
    curl -o path/tutorial-dataset.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/tutorial-dataset.zip

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu dem Speicherort, in dem Sie den ZIP-Ordner speichern möchten.

    Windows
    curl -o path/tutorial-dataset.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/tutorial-dataset.zip

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu dem Speicherort, in dem Sie den ZIP-Ordner speichern möchten.

  2. Um die Daten aus dem ZIP-Ordner zu extrahieren, führen Sie den folgenden Befehl im Terminalfenster aus:

    Linux
    unzip path/tutorial-dataset.zip -d path/

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrem gespeicherten ZIP-Ordner.

    macOS
    unzip path/tutorial-dataset.zip -d path/

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrem gespeicherten ZIP-Ordner.

    Windows
    tar -xf path/tutorial-dataset.zip -C path/

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrem gespeicherten ZIP-Ordner.

Am Ende dieses Schritts sollten Sie die extrahierten Dateien in einem dekomprimierten Ordner namens haben. tutorial-dataset Dieser Ordner enthält eine README Datei mit einer Apache 2.0-Open-Source-Zuordnung und einen Ordner namens, der den Datensatz für dieses Tutorial data enthält. Der Datensatz besteht aus 100 Dateien mit .story Erweiterungen.

Erstellung eines Amazon S3-Buckets

Nachdem Sie den Beispieldatenordner heruntergeladen und extrahiert haben, speichern Sie ihn in einem Amazon S3 S3-Bucket.

Wichtig

Der Name eines Amazon S3 S3-Buckets muss für alle eindeutig sein AWS.

  1. Melden Sie sich bei der an AWS Management Console und öffnen Sie die Amazon S3 S3-Konsole unter https://console.aws.amazon.com/s3/.

  2. Wählen Sie unter Buckets die Option Create Bucket aus.

  3. Geben Sie für Bucket name einen eindeutigen Namen ein.

  4. Wählen Sie unter Region die AWS Region aus, in der Sie den Bucket erstellen möchten.

    Anmerkung

    Sie müssen eine Region wählen, die sowohl Amazon Comprehend als auch Amazon Kendra unterstützt. Sie können die Region eines Buckets nicht ändern, nachdem Sie ihn erstellt haben.

  5. Behalten Sie die Standardeinstellungen für die Einstellung „Öffentlichen Zugriff blockieren“ für diesen Bucket, die Bucket-Versionierung und die Tags bei.

  6. Wählen Sie für Standardverschlüsselung die Option Deaktivieren aus.

  7. Behalten Sie die Standardeinstellungen für die erweiterten Einstellungen bei.

  8. Überprüfen Sie Ihre Bucket-Konfiguration und wählen Sie dann Create Bucket aus.

  1. Um einen S3-Bucket zu erstellen, verwenden Sie den Befehl create-bucket im: AWS CLI

    Linux
    aws s3api create-bucket \ --bucket amzn-s3-demo-bucket \ --region aws-region \ --create-bucket-configuration LocationConstraint=aws-region

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name,

    • aws-region ist die Region, in der Sie Ihren Bucket erstellen möchten.

    macOS
    aws s3api create-bucket \ --bucket amzn-s3-demo-bucket \ --region aws-region \ --create-bucket-configuration LocationConstraint=aws-region

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name,

    • aws-region ist die Region, in der Sie Ihren Bucket erstellen möchten.

    Windows
    aws s3api create-bucket ^ --bucket amzn-s3-demo-bucket ^ --region aws-region ^ --create-bucket-configuration LocationConstraint=aws-region

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name,

    • aws-region ist die Region, in der Sie Ihren Bucket erstellen möchten.

    Anmerkung

    Sie müssen eine Region wählen, die sowohl Amazon Comprehend als auch Amazon Kendra unterstützt. Sie können die Region eines Buckets nicht ändern, nachdem Sie ihn erstellt haben.

  2. Verwenden Sie den Befehl list, um sicherzustellen, dass Ihr Bucket erfolgreich erstellt wurde:

    Linux
    aws s3 ls
    macOS
    aws s3 ls
    Windows
    aws s3 ls

Daten- und Metadatenordner in Ihrem S3-Bucket erstellen

Nachdem Sie Ihren S3-Bucket erstellt haben, erstellen Sie darin Daten- und Metadatenordner.

  1. Öffnen Sie die Amazon S3 S3-Konsole unter https://console.aws.amazon.com/s3/.

  2. Klicken Sie unter Buckets in der Buckets-Liste auf den Namen Ihres Buckets.

  3. Wählen Sie auf der Registerkarte Objekte die Option Ordner erstellen aus.

  4. Geben Sie für den neuen Ordnernamen eindata.

  5. Wählen Sie für die Verschlüsselungseinstellungen die Option Deaktivieren.

  6. Wählen Sie Create folder.

  7. Wiederholen Sie die Schritte 3 bis 6, um einen weiteren Ordner zum Speichern der Amazon Kendra-Metadaten zu erstellen, und benennen Sie den in Schritt 4 metadata erstellten Ordner.

  1. Um den data Ordner in Ihrem S3-Bucket zu erstellen, verwenden Sie den Befehl put-object im: AWS CLI

    Linux
    aws s3api put-object \ --bucket amzn-s3-demo-bucket \ --key data/

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

    macOS
    aws s3api put-object \ --bucket amzn-s3-demo-bucket \ --key data/

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

    Windows
    aws s3api put-object ^ --bucket amzn-s3-demo-bucket ^ --key data/

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

  2. Um den metadata Ordner in Ihrem S3-Bucket zu erstellen, verwenden Sie den Befehl put-object im: AWS CLI

    Linux
    aws s3api put-object \ --bucket amzn-s3-demo-bucket \ --key metadata/

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

    macOS
    aws s3api put-object \ --bucket amzn-s3-demo-bucket \ --key metadata/

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

    Windows
    aws s3api put-object ^ --bucket amzn-s3-demo-bucket ^ --key metadata/

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

  3. Um sicherzustellen, dass Ihre Ordner erfolgreich erstellt wurden, überprüfen Sie den Inhalt Ihres Buckets mit dem Befehl list:

    Linux
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

    macOS
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

    Windows
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

Die Eingabedaten werden hochgeladen

Nachdem Sie Ihre Daten- und Metadatenordner erstellt haben, laden Sie den Beispieldatensatz in den data Ordner hoch.

  1. Öffnen Sie die Amazon S3 S3-Konsole unter https://console.aws.amazon.com/s3/.

  2. Klicken Sie in Buckets in der Buckets-Liste auf den Namen Ihres Buckets und dann auf. data

  3. Wählen Sie Hochladen und dann Dateien hinzufügen.

  4. Navigieren Sie im Dialogfeld zu dem data Ordner innerhalb des tutorial-dataset Ordners auf Ihrem lokalen Gerät, wählen Sie alle Dateien aus und wählen Sie dann Öffnen.

  5. Behalten Sie die Standardeinstellungen für Ziel, Berechtigungen und Eigenschaften bei.

  6. Klicken Sie auf Hochladen.

  1. Um die Beispieldaten in den data Ordner hochzuladen, verwenden Sie den Befehl copy im AWS CLI:

    Linux
    aws s3 cp path/tutorial-dataset/data s3://amzn-s3-demo-bucket/data/ --recursive

    Wobei gilt:

    • path/ ist der Dateipfad zu dem tutorial-dataset Ordner auf Ihrem Gerät,

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

    macOS
    aws s3 cp path/tutorial-dataset/data s3://amzn-s3-demo-bucket/data/ --recursive

    Wobei gilt:

    • path/ ist der Dateipfad zu dem Ordner auf Ihrem Gerät, tutorial-dataset

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

    Windows
    aws s3 cp path/tutorial-dataset/data s3://amzn-s3-demo-bucket/data/ --recursive

    Wobei gilt:

    • path/ ist der Dateipfad zu dem Ordner auf Ihrem Gerät, tutorial-dataset

    • amzn-s3-demo-bucket ist Ihr Bucket-Name.

  2. Um sicherzustellen, dass Ihre Datensatzdateien erfolgreich in Ihren data Ordner hochgeladen wurden, verwenden Sie den Befehl list im: AWS CLI

    Linux
    aws s3 ls s3://amzn-s3-demo-bucket/data/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    macOS
    aws s3 ls s3://amzn-s3-demo-bucket/data/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    Windows
    aws s3 ls s3://amzn-s3-demo-bucket/data/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

Am Ende dieses Schritts haben Sie einen S3-Bucket, in dem Ihr Datensatz gespeichert ist, und einen leeren data metadata Ordner, in dem Ihre Amazon Kendra Kendra-Metadaten gespeichert werden.