Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Schritt 3: Formatieren der Entitätsanalyseausgabe als Amazon Kendra Kendra-Metadaten - Amazon Kendra

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Schritt 3: Formatieren der Entitätsanalyseausgabe als Amazon Kendra Kendra-Metadaten

Um die von Amazon Comprehend extrahierten Entitäten in das für einen Amazon Kendra Kendra-Index erforderliche Metadatenformat zu konvertieren, führen Sie ein Python-3-Skript aus. Die Ergebnisse der Konvertierung werden in dem metadata Ordner in Ihrem Amazon S3 S3-Bucket gespeichert.

Weitere Informationen zum Format und zur Struktur Amazon Kendra Kendra-Metadaten finden Sie unter S3-Dokumentmetadaten.

Herunterladen und Extrahieren der Amazon Comprehend Comprehend-Ausgabe

Um die Ausgabe der Amazon Comprehend Comprehend-Entitätsanalyse zu formatieren, müssen Sie zuerst das Amazon output.tar.gz Comprehend-Entitätsanalysearchiv herunterladen und die Entitätsanalysedatei extrahieren.

  1. Navigieren Sie im Navigationsbereich der Amazon Comprehend Comprehend-Konsole zu Analysis-Jobs.

  2. Wählen Sie Ihren Analysejob für Entitäten aus. data-entities-analysis

  3. Wählen Sie unter Ausgabe den Link aus, der neben Speicherort der Ausgabedaten angezeigt wird. Dadurch werden Sie zum output.tar.gz Archiv in Ihrem S3-Bucket weitergeleitet.

  4. Wählen Sie auf der Registerkarte „Übersicht“ die Option Herunterladen aus.

    Tipp

    Die Ausgabe aller Amazon Comprehend Comprehend-Analyseaufträge hat denselben Namen. Wenn Sie Ihr Archiv umbenennen, können Sie es leichter nachverfolgen.

  5. Dekomprimieren und extrahieren Sie die heruntergeladene Amazon Comprehend Comprehend-Datei auf Ihr Gerät.

  1. Navigieren Sie im Navigationsbereich der Amazon Comprehend Comprehend-Konsole zu Analysis-Jobs.

  2. Wählen Sie Ihren Analysejob für Entitäten aus. data-entities-analysis

  3. Wählen Sie unter Ausgabe den Link aus, der neben Speicherort der Ausgabedaten angezeigt wird. Dadurch werden Sie zum output.tar.gz Archiv in Ihrem S3-Bucket weitergeleitet.

  4. Wählen Sie auf der Registerkarte „Übersicht“ die Option Herunterladen aus.

    Tipp

    Die Ausgabe aller Amazon Comprehend Comprehend-Analyseaufträge hat denselben Namen. Wenn Sie Ihr Archiv umbenennen, können Sie es leichter nachverfolgen.

  5. Dekomprimieren und extrahieren Sie die heruntergeladene Amazon Comprehend Comprehend-Datei auf Ihr Gerät.

  1. Verwenden Sie den folgenden Befehl, um auf den Namen des automatisch generierten Amazon Comprehend Comprehend-Ordners in Ihrem S3-Bucket zuzugreifen, der die Ergebnisse des Entitätsanalysejobs enthält: describe-entities-detection-job

    Linux
    aws comprehend describe-entities-detection-job \ --job-id entities-job-id \ --region aws-region

    Wobei gilt:

    macOS
    aws comprehend describe-entities-detection-job \ --job-id entities-job-id \ --region aws-region

    Wobei gilt:

    Windows
    aws comprehend describe-entities-detection-job ^ --job-id entities-job-id ^ --region aws-region

    Wobei gilt:

  2. Kopieren und speichern Sie den S3Uri Wert aus dem OutputDataConfig Objekt in der Stellenbeschreibung Ihrer Entität wie comprehend-S3uri in einem Texteditor.

    Anmerkung

    Der S3Uri Wert hat ein ähnliches Format wie s3://amzn-s3-demo-bucket/.../output/output.tar.gz.

  3. Verwenden Sie den Befehl copy, um das Ausgabearchiv der Entitäten herunterzuladen:

    Linux
    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Wobei gilt:

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz ist der S3Uri Wert, unter dem Sie gespeichert habencomprehend-S3uri,

    • path/ ist das lokale Verzeichnis, in dem Sie die Ausgabe speichern möchten.

    macOS
    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Wobei gilt:

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz ist der S3Uri Wert, unter dem Sie gespeichert habencomprehend-S3uri,

    • path/ ist das lokale Verzeichnis, in dem Sie die Ausgabe speichern möchten.

    Windows
    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Wobei gilt:

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz ist der S3Uri Wert, unter dem Sie gespeichert habencomprehend-S3uri,

    • path/ ist das lokale Verzeichnis, in dem Sie die Ausgabe speichern möchten.

  4. Um die Ausgabe der Entitäten zu extrahieren, führen Sie den folgenden Befehl in einem Terminalfenster aus:

    Linux
    tar -xf path/output.tar.gz -C path/

    Wobei gilt:

    • path/ ist der Dateipfad zum heruntergeladenen output.tar.gz Archiv auf Ihrem lokalen Gerät.

    macOS
    tar -xf path/output.tar.gz -C path/

    Wobei gilt:

    • path/ ist der Dateipfad zum heruntergeladenen output.tar.gz Archiv auf Ihrem lokalen Gerät.

    Windows
    tar -xf path/output.tar.gz -C path/

    Wobei gilt:

    • path/ ist der Dateipfad zum heruntergeladenen output.tar.gz Archiv auf Ihrem lokalen Gerät.

  1. Verwenden Sie den folgenden Befehl, um auf den Namen des automatisch generierten Amazon Comprehend Comprehend-Ordners in Ihrem S3-Bucket zuzugreifen, der die Ergebnisse des Entitätsanalysejobs enthält: describe-entities-detection-job

    Linux
    aws comprehend describe-entities-detection-job \ --job-id entities-job-id \ --region aws-region

    Wobei gilt:

    macOS
    aws comprehend describe-entities-detection-job \ --job-id entities-job-id \ --region aws-region

    Wobei gilt:

    Windows
    aws comprehend describe-entities-detection-job ^ --job-id entities-job-id ^ --region aws-region

    Wobei gilt:

    aws comprehend describe-entities-detection-job \ --job-id entities-job-id \ --region aws-region

    Wobei gilt:

  2. Kopieren und speichern Sie den S3Uri Wert aus dem OutputDataConfig Objekt in der Stellenbeschreibung Ihrer Entität wie comprehend-S3uri in einem Texteditor.

    Anmerkung

    Der S3Uri Wert hat ein ähnliches Format wie s3://amzn-s3-demo-bucket/.../output/output.tar.gz.

  3. Verwenden Sie den Befehl copy, um das Ausgabearchiv der Entitäten herunterzuladen:

    Linux
    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Wobei gilt:

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz ist der S3Uri Wert, unter dem Sie gespeichert habencomprehend-S3uri,

    • path/ ist das lokale Verzeichnis, in dem Sie die Ausgabe speichern möchten.

    macOS
    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Wobei gilt:

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz ist der S3Uri Wert, unter dem Sie gespeichert habencomprehend-S3uri,

    • path/ ist das lokale Verzeichnis, in dem Sie die Ausgabe speichern möchten.

    Windows
    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Wobei gilt:

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz ist der S3Uri Wert, unter dem Sie gespeichert habencomprehend-S3uri,

    • path/ ist das lokale Verzeichnis, in dem Sie die Ausgabe speichern möchten.

    aws s3 cp s3://amzn-s3-demo-bucket/.../output/output.tar.gz path/output.tar.gz

    Wobei gilt:

    • s3://amzn-s3-demo-bucket/.../output/output.tar.gz ist der S3Uri Wert, unter dem Sie gespeichert habencomprehend-S3uri,

    • path/ ist das lokale Verzeichnis, in dem Sie die Ausgabe speichern möchten.

  4. Um die Ausgabe der Entitäten zu extrahieren, führen Sie den folgenden Befehl in einem Terminalfenster aus:

    Linux
    tar -xf path/output.tar.gz -C path/

    Wobei gilt:

    • path/ ist der Dateipfad zum heruntergeladenen output.tar.gz Archiv auf Ihrem lokalen Gerät.

    macOS
    tar -xf path/output.tar.gz -C path/

    Wobei gilt:

    • path/ ist der Dateipfad zum heruntergeladenen output.tar.gz Archiv auf Ihrem lokalen Gerät.

    Windows
    tar -xf path/output.tar.gz -C path/

    Wobei gilt:

    • path/ ist der Dateipfad zum heruntergeladenen output.tar.gz Archiv auf Ihrem lokalen Gerät.

    tar -xf path/output.tar.gz -C path/

    Wobei gilt:

    • path/ ist der Dateipfad zum heruntergeladenen output.tar.gz Archiv auf Ihrem lokalen Gerät.

Am Ende dieses Schritts sollten Sie auf Ihrem Gerät eine Datei output mit einer Liste der von Amazon Comprehend identifizierten Entitäten haben.

Die Ausgabe in den S3-Bucket hochladen

Nachdem Sie die Amazon Comprehend Comprehend-Entitätsanalysedatei heruntergeladen und extrahiert haben, laden Sie die extrahierte output Datei in Ihren Amazon S3 S3-Bucket hoch.

  1. Öffnen Sie die Amazon S3 S3-Konsole unter https://console.aws.amazon.com/s3/.

  2. Klicken Sie in Buckets auf den Namen Ihres Buckets und wählen Sie dann Upload.

  3. Wählen Sie unter Dateien und Ordner die Option Dateien hinzufügen aus.

  4. Navigieren Sie im Dialogfeld zu Ihrer extrahierten output Datei auf Ihrem Gerät, wählen Sie sie aus und wählen Sie Öffnen.

  5. Behalten Sie die Standardeinstellungen für „Ziel“, „Berechtigungen“ und „Eigenschaften“ bei.

  6. Klicken Sie auf Hochladen.

  1. Öffnen Sie die Amazon S3 S3-Konsole unter https://console.aws.amazon.com/s3/.

  2. Klicken Sie in Buckets auf den Namen Ihres Buckets und wählen Sie dann Upload.

  3. Wählen Sie unter Dateien und Ordner die Option Dateien hinzufügen aus.

  4. Navigieren Sie im Dialogfeld zu Ihrer extrahierten output Datei auf Ihrem Gerät, wählen Sie sie aus und wählen Sie Öffnen.

  5. Behalten Sie die Standardeinstellungen für „Ziel“, „Berechtigungen“ und „Eigenschaften“ bei.

  6. Klicken Sie auf Hochladen.

  1. Verwenden Sie den Befehl copy, um die extrahierte output Datei in Ihren Bucket hochzuladen:

    Linux
    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrer extrahierten output Datei,

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    macOS
    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrer entpackten Datei, output

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    Windows
    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrer entpackten Datei, output

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

  2. Um sicherzustellen, dass die output Datei erfolgreich in Ihren S3-Bucket hochgeladen wurde, überprüfen Sie ihren Inhalt mit dem Befehl list:

    Linux
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    macOS
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    Windows
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

  1. Verwenden Sie den Befehl copy, um die extrahierte output Datei in Ihren Bucket hochzuladen:

    Linux
    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrer extrahierten output Datei,

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    macOS
    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrer entpackten Datei, output

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    Windows
    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrer entpackten Datei, output

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    aws s3 cp path/output s3://amzn-s3-demo-bucket/output

    Wobei gilt:

    • path/ ist der lokale Dateipfad zu Ihrer extrahierten output Datei,

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

  2. Um sicherzustellen, dass die output Datei erfolgreich in Ihren S3-Bucket hochgeladen wurde, überprüfen Sie ihren Inhalt mit dem Befehl list:

    Linux
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    macOS
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    Windows
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

Konvertierung der Ausgabe in das Amazon Kendra Kendra-Metadatenformat

Um die Amazon Comprehend-Ausgabe in Amazon Kendra-Metadaten zu konvertieren, führen Sie ein Python-3-Skript aus. Wenn Sie die Konsole verwenden, verwenden Sie AWS CloudShell für diesen Schritt.

  1. Laden Sie die komprimierte Datei converter.py.zip auf Ihr Gerät herunter.

  2. Extrahieren Sie die Python-3-Dateiconverter.py.

  3. Melden Sie sich bei der AWS Management Console an und stellen Sie sicher, dass Ihre AWS Region auf dieselbe Region wie Ihr S3-Bucket und Ihr Amazon Comprehend Comprehend-Analysejob eingestellt ist.

  4. Wählen Sie das AWS CloudShell Symbol oder geben Sie AWS CloudShellin das Suchfeld in der oberen Navigationsleiste ein, um eine Umgebung aufzurufen.

    Anmerkung

    Beim ersten AWS CloudShell Start in einem neuen Browserfenster wird ein Begrüßungsfenster mit einer Liste der wichtigsten Funktionen angezeigt. Die Shell ist bereit für die Interaktion, nachdem Sie dieses Fenster geschlossen haben und die Befehlszeile angezeigt wird.

  5. Nachdem das Terminal vorbereitet ist, wählen Sie im Navigationsbereich Aktionen und dann im Menü Datei hochladen aus.

  6. Wählen Sie in dem sich öffnenden Dialogfeld Datei auswählen und wählen Sie dann die heruntergeladene Python 3-Datei converter.py von Ihrem Gerät aus. Klicken Sie auf Hochladen.

  7. Geben Sie in der AWS CloudShell Umgebung den folgenden Befehl ein:

    python3 converter.py
  8. Wenn Sie von der Shell-Schnittstelle aufgefordert werden, den Namen Ihres S3-Buckets einzugeben, geben Sie den Namen Ihres S3-Buckets ein und drücken Sie die Eingabetaste.

  9. Wenn Sie von der Shell-Schnittstelle aufgefordert werden, den vollständigen Dateipfad zu Ihrer Comprehend-Ausgabedatei einzugeben, geben Sie die Eingabetaste ein und drücken Sie die Eingabetaste. output

  10. Wenn Sie von der Shell-Schnittstelle aufgefordert werden, den vollständigen Dateipfad zu Ihrem Metadatenordner einzugeben, geben Sie die Eingabetaste ein und drücken Sie die Eingabetaste. metadata/

Wichtig

Damit die Metadaten korrekt formatiert werden, müssen die Eingabewerte in den Schritten 8 bis 10 exakt sein.

  1. Laden Sie die komprimierte Datei converter.py.zip auf Ihr Gerät herunter.

  2. Extrahieren Sie die Python-3-Dateiconverter.py.

  3. Melden Sie sich bei der AWS Management Console an und stellen Sie sicher, dass Ihre AWS Region auf dieselbe Region wie Ihr S3-Bucket und Ihr Amazon Comprehend Comprehend-Analysejob eingestellt ist.

  4. Wählen Sie das AWS CloudShell Symbol oder geben Sie AWS CloudShellin das Suchfeld in der oberen Navigationsleiste ein, um eine Umgebung aufzurufen.

    Anmerkung

    Beim ersten AWS CloudShell Start in einem neuen Browserfenster wird ein Begrüßungsfenster mit einer Liste der wichtigsten Funktionen angezeigt. Die Shell ist bereit für die Interaktion, nachdem Sie dieses Fenster geschlossen haben und die Befehlszeile angezeigt wird.

  5. Nachdem das Terminal vorbereitet ist, wählen Sie im Navigationsbereich Aktionen und dann im Menü Datei hochladen aus.

  6. Wählen Sie in dem sich öffnenden Dialogfeld Datei auswählen und wählen Sie dann die heruntergeladene Python 3-Datei converter.py von Ihrem Gerät aus. Klicken Sie auf Hochladen.

  7. Geben Sie in der AWS CloudShell Umgebung den folgenden Befehl ein:

    python3 converter.py
  8. Wenn Sie von der Shell-Schnittstelle aufgefordert werden, den Namen Ihres S3-Buckets einzugeben, geben Sie den Namen Ihres S3-Buckets ein und drücken Sie die Eingabetaste.

  9. Wenn Sie von der Shell-Schnittstelle aufgefordert werden, den vollständigen Dateipfad zu Ihrer Comprehend-Ausgabedatei einzugeben, geben Sie die Eingabetaste ein und drücken Sie die Eingabetaste. output

  10. Wenn Sie von der Shell-Schnittstelle aufgefordert werden, den vollständigen Dateipfad zu Ihrem Metadatenordner einzugeben, geben Sie die Eingabetaste ein und drücken Sie die Eingabetaste. metadata/

Wichtig

Damit die Metadaten korrekt formatiert werden, müssen die Eingabewerte in den Schritten 8 bis 10 exakt sein.

  1. Um die Python-3-Datei herunterzuladenconverter.py, führen Sie den folgenden Befehl in einem Terminalfenster aus:

    Linux
    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Wobei gilt:

    • path/ ist der Dateipfad zu dem Speicherort, in dem Sie die komprimierte Datei speichern möchten.

    macOS
    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Wobei gilt:

    • path/ ist der Dateipfad zu dem Speicherort, in dem Sie die komprimierte Datei speichern möchten.

    Windows
    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Wobei gilt:

    • path/ ist der Dateipfad zu dem Speicherort, in dem Sie die komprimierte Datei speichern möchten.

  2. Um die Python-3-Datei zu extrahieren, führen Sie den folgenden Befehl im Terminalfenster aus:

    Linux
    unzip path/converter.py.zip -d path/

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrer gespeicherten Datei. converter.py.zip

    macOS
    unzip path/converter.py.zip -d path/

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrem gespeicherten. converter.py.zip

    Windows
    tar -xf path/converter.py.zip -C path/

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrem gespeicherten. converter.py.zip

  3. Stellen Sie sicher, dass Boto3 auf Ihrem Gerät installiert ist, indem Sie den folgenden Befehl ausführen.

    Linux
    pip3 show boto3
    macOS
    pip3 show boto3
    Windows
    pip3 show boto3
    Anmerkung

    Wenn Sie Boto3 nicht installiert haben, führen Sie es auspip3 install boto3, um es zu installieren.

  4. Führen Sie den folgenden Befehl aus, um das Python 3-Skript zum Konvertieren der output Datei auszuführen.

    Linux
    python path/converter.py

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrer gespeicherten Datei. converter.py.zip

    macOS
    python path/converter.py

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrem gespeicherten. converter.py.zip

    Windows
    python path/converter.py

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrem gespeicherten. converter.py.zip

  5. Wenn Sie AWS CLI dazu aufgefordert werdenEnter the name of your S3 bucket, geben Sie den Namen Ihres S3-Buckets ein und drücken Sie die Eingabetaste.

  6. Wenn Sie AWS CLI dazu aufgefordert werdenEnter the full filepath to your Comprehend output file, geben Sie die Eingabetaste ein output und drücken Sie die Eingabetaste.

  7. Wenn Sie AWS CLI dazu aufgefordert werdenEnter the full filepath to your metadata folder, geben Sie die Eingabetaste ein metadata/ und drücken Sie die Eingabetaste.

Wichtig

Damit die Metadaten korrekt formatiert werden, müssen die Eingabewerte in den Schritten 5 bis 7 exakt sein.

  1. Um die Python-3-Datei herunterzuladenconverter.py, führen Sie den folgenden Befehl in einem Terminalfenster aus:

    Linux
    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Wobei gilt:

    • path/ ist der Dateipfad zu dem Speicherort, in dem Sie die komprimierte Datei speichern möchten.

    macOS
    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Wobei gilt:

    • path/ ist der Dateipfad zu dem Speicherort, in dem Sie die komprimierte Datei speichern möchten.

    Windows
    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Wobei gilt:

    • path/ ist der Dateipfad zu dem Speicherort, in dem Sie die komprimierte Datei speichern möchten.

    curl -o path/converter.py.zip https://docs.aws.amazon.com/kendra/latest/dg/samples/converter.py.zip

    Wobei gilt:

    • path/ ist der Dateipfad zu dem Speicherort, in dem Sie die komprimierte Datei speichern möchten.

  2. Um die Python-3-Datei zu extrahieren, führen Sie den folgenden Befehl im Terminalfenster aus:

    Linux
    unzip path/converter.py.zip -d path/

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrer gespeicherten Datei. converter.py.zip

    macOS
    unzip path/converter.py.zip -d path/

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrem gespeicherten. converter.py.zip

    Windows
    tar -xf path/converter.py.zip -C path/

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrem gespeicherten. converter.py.zip

    unzip path/converter.py.zip -d path/

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrer gespeicherten Datei. converter.py.zip

  3. Stellen Sie sicher, dass Boto3 auf Ihrem Gerät installiert ist, indem Sie den folgenden Befehl ausführen.

    Linux
    pip3 show boto3
    macOS
    pip3 show boto3
    Windows
    pip3 show boto3
    pip3 show boto3
    Anmerkung

    Wenn Sie Boto3 nicht installiert haben, führen Sie es auspip3 install boto3, um es zu installieren.

  4. Führen Sie den folgenden Befehl aus, um das Python 3-Skript zum Konvertieren der output Datei auszuführen.

    Linux
    python path/converter.py

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrer gespeicherten Datei. converter.py.zip

    macOS
    python path/converter.py

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrem gespeicherten. converter.py.zip

    Windows
    python path/converter.py

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrem gespeicherten. converter.py.zip

    python path/converter.py

    Wobei gilt:

    • path/ ist der Dateipfad zu Ihrer gespeicherten Datei. converter.py.zip

  5. Wenn Sie AWS CLI dazu aufgefordert werdenEnter the name of your S3 bucket, geben Sie den Namen Ihres S3-Buckets ein und drücken Sie die Eingabetaste.

  6. Wenn Sie AWS CLI dazu aufgefordert werdenEnter the full filepath to your Comprehend output file, geben Sie die Eingabetaste ein output und drücken Sie die Eingabetaste.

  7. Wenn Sie AWS CLI dazu aufgefordert werdenEnter the full filepath to your metadata folder, geben Sie die Eingabetaste ein metadata/ und drücken Sie die Eingabetaste.

Wichtig

Damit die Metadaten korrekt formatiert werden, müssen die Eingabewerte in den Schritten 5 bis 7 exakt sein.

Am Ende dieses Schritts werden die formatierten Metadaten in dem metadata Ordner in Ihrem S3-Bucket abgelegt.

Ihren Amazon S3 S3-Bucket aufräumen

Da der Amazon Kendra Kendra-Index alle in einem Bucket gespeicherten Dateien synchronisiert, empfehlen wir Ihnen, Ihren Amazon S3 S3-Bucket zu bereinigen, um redundante Suchergebnisse zu vermeiden.

  1. Öffnen Sie die Amazon S3 S3-Konsole unter https://console.aws.amazon.com/s3/.

  2. Wählen Sie in Buckets Ihren Bucket aus und wählen Sie dann den Amazon Comprehend Entity Analysis-Ausgabeordner, die Amazon Comprehend Entity Analysis-Datei und die extrahierte Amazon .temp Comprehend-Datei aus. output

  3. Wählen Sie auf der Registerkarte „Übersicht“ die Option Löschen aus.

  4. Wählen Sie unter Objekte löschen die Option Objekte dauerhaft löschen? und geben Sie permanently delete in das Texteingabefeld ein.

  5. Wählen Sie Delete objects (Objekte löschen).

  1. Öffnen Sie die Amazon S3 S3-Konsole unter https://console.aws.amazon.com/s3/.

  2. Wählen Sie in Buckets Ihren Bucket aus und wählen Sie dann den Amazon Comprehend Entity Analysis-Ausgabeordner, die Amazon Comprehend Entity Analysis-Datei und die extrahierte Amazon .temp Comprehend-Datei aus. output

  3. Wählen Sie auf der Registerkarte „Übersicht“ die Option Löschen aus.

  4. Wählen Sie unter Objekte löschen die Option Objekte dauerhaft löschen? und geben Sie permanently delete in das Texteingabefeld ein.

  5. Wählen Sie Delete objects (Objekte löschen).

  1. Um alle Dateien und Ordner in Ihrem S3-Bucket mit Ausnahme der metadata Ordner data und zu löschen, verwenden Sie den Befehl remove im AWS CLI:

    Linux
    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    macOS
    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    Windows
    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

  2. Um sicherzustellen, dass die Objekte erfolgreich aus Ihrem S3-Bucket gelöscht wurden, überprüfen Sie dessen Inhalt mit dem Befehl list:

    Linux
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    macOS
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    Windows
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

  1. Um alle Dateien und Ordner in Ihrem S3-Bucket mit Ausnahme der metadata Ordner data und zu löschen, verwenden Sie den Befehl remove im AWS CLI:

    Linux
    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    macOS
    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    Windows
    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    aws s3 rm s3://amzn-s3-demo-bucket/ --recursive --exclude "data/*" --exclude "metadata/*"

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

  2. Um sicherzustellen, dass die Objekte erfolgreich aus Ihrem S3-Bucket gelöscht wurden, überprüfen Sie dessen Inhalt mit dem Befehl list:

    Linux
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    macOS
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    Windows
    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

    aws s3 ls s3://amzn-s3-demo-bucket/

    Wobei gilt:

    • amzn-s3-demo-bucket ist der Name Ihres S3-Buckets.

Am Ende dieses Schritts haben Sie die Analyseausgabe der Amazon Comprehend Comprehend-Entitäten in Amazon Kendra Kendra-Metadaten konvertiert. Sie sind jetzt bereit, einen Amazon Kendra Kendra-Index zu erstellen.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.