Configurazione delle proprietà del lavoro per i lavori della shell Python in AWS Glue - AWS Glue

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Configurazione delle proprietà del lavoro per i lavori della shell Python in AWS Glue

Puoi utilizzare un processo shell di Python per eseguire gli script di Python come una shell in AWS Glue. Con un job di shell Python, puoi eseguire script compatibili con Python 3.6 o Python 3.9.

Limitazioni

Tieni presente le seguenti limitazioni dei processi shell Python:

  • Non è possibile utilizzare i segnalibri nei processi di shell di Python.

  • Non puoi impacchettare alcuna libreria Python come .egg file in Python 3.9+. Utilizza invece .whl.

  • Per via di una limitazione sulle copie temporanee dei dati di S3, l'opzione --extra-files non può essere utilizzata.

Definire le proprietà del processo per i processi shell di Python

Queste sezioni descrivono la definizione delle proprietà del lavoro nella AWS Glue Studio o l'utilizzo della AWS CLI.

AWS Glue Studio

Quando definisci il processo della shell Python in AWS Glue Studio, fornisci alcune delle seguenti proprietà:

Ruolo IAM

Specificate il ruolo AWS Identity and Access Management (IAM) utilizzato per l'autorizzazione alle risorse utilizzate per eseguire il processo e accedere agli archivi dati. Per ulteriori informazioni sulle autorizzazioni per l'esecuzione di processi in AWS Glue, consulta Gestione delle identità e degli accessi per AWS Glue.

Type

Scegli Python shell (Shell di Python) per eseguire uno script Python con il comando di processo denominato pythonshell.

Versione di Python

Scegli la versione di Python. La versione predefinita è Python 3.9. Le versioni valide sono Python 3.6 e Python 3.9.

Carica librerie di analisi comuni (scelta consigliata)

Scegli questa opzione per includere le librerie comuni per Python 3.9 nella shell Python.

Se le tue librerie sono personalizzate o sono in conflitto con quelle preinstallate, puoi scegliere di non installare librerie comuni. Tuttavia, oltre alle librerie comuni puoi installare librerie aggiuntive.

Quando selezioni questa opzione, l'opzione library-set è impostata su analytics. Quando deselezioni questa opzione, l'opzione library-set è impostata su none.

Nome file e percorso dello script

Il codice nello script definisce la logica procedurale del processo. Puoi fornire il nome e la posizione dello script in Amazon Simple Storage Service (Amazon S3). Conferma che non esiste un file con lo stesso nome della directory di script nel percorso. Per ulteriori informazioni sull'uso degli script, consulta AWS Glue guida alla programmazione.

Script

Il codice nello script definisce la logica procedurale del processo. Puoi codificare lo script in Python 3.6 o Python 3.9. Puoi modificare uno script in AWS Glue Studio.

Unità di elaborazione dati (DPU)

Il numero massimo di unità di elaborazione dei dati AWS Glue (DPU) che può essere allocato quando viene eseguito il processo. Una DPU è una misura relativa della potenza di elaborazione ed è costituita da 4 vCPU di capacità di elaborazione e 16 GB di memoria. Per ulteriori informazioni, consultare Prezzi di AWS Glue.

Puoi impostare il valore su 0,0625 o 1. Il valore predefinito è 0.0625. In entrambi i casi, il disco locale per l'istanza sarà di 20 GB.

CLI

Puoi anche creare un job della shell Python usando AWS CLI, come nell'esempio seguente.

aws glue create-job --name python-job-cli --role Glue_DefaultRole --command '{"Name" : "pythonshell", "PythonVersion": "3.9", "ScriptLocation" : "s3://DOC-EXAMPLE-BUCKET/scriptname.py"}' --max-capacity 0.0625
Nota

Non è necessario specificare la versione di AWS Glue poiché il parametro --glue-version non si applica ai lavori di AWS Glue shell. Qualsiasi versione specificata verrà ignorata.

Lavori che crei con l' AWS CLI impostazione predefinita di Python 3. Le versioni valide di Python sono 3 (corrispondenti a 3.6) e 3.9. Per specificare Python 3.6, aggiungi questa tupla al parametro --command: "PythonVersion":"3"

Per specificare Python 3.9, aggiungi questa tupla al parametro --command: "PythonVersion":"3.9"

Per impostare la capacità massima utilizzata da un processo shell di Python, fornire il parametro --max-capacity. Per i processi di shell di Python non è possibile utilizzare il parametro --allocated-capacity.

Librerie supportate dai processi shell di Python

Nella shell Python con Python 3.9 puoi scegliere il set di librerie per utilizzare set di librerie preconfezionati per le tue esigenze. Puoi utilizzare l'opzione library-set per scegliere il set di librerie. I valori validi sono analytics e none.

L'ambiente per l'esecuzione di un processo shell di Python supporta le seguenti librerie:

Versione di Python Python 3.6 Python 3.9
Set di librerie N/D analytics nessuno
avro 1.11.0
awscli 116,242 1,23,5 1,23,5
awswrangler 2,15,1
botocore 1,12.232 1,24,21 1,23,5
boto3 1,9203 1,21,21
elasticsearch 8.2.0
numpy 1,16,2 1.22.3
pandas 0,24,2 1.4.2
psycopg2 2,9,3
pyathena 2.5.3
PyGreSQL 5.0.6
PyMySQL 1.0.2
pyodbc 4.0.32
pyorc 0,6,0
redshift-connector 2.0,907
richieste 2.22.0 2,27,1
scikit-learn 0,20,3 1.0.2
scipy 1.2.1 1.8.0
SQLAlchemy 1,4,36
s3fs 2022,3,0

Puoi utilizzare la libreria NumPy in un processo shell di Python per il calcolo scientifico. Per ulteriori informazioni, vedere. NumPy L'esempio seguente mostra uno NumPy script che può essere usato in un job della shell Python. Lo script visualizza "Hello world" e i risultati di numerosi calcoli matematici.

import numpy as np print("Hello world") a = np.array([20,30,40,50]) print(a) b = np.arange( 4 ) print(b) c = a-b print(c) d = b**2 print(d)

Fornire la propria libreria Python

Utilizzo di PIP

La shell Python che utilizza Python 3.9 consente di fornire moduli Python aggiuntivi o versioni diverse a livello di processo. Puoi utilizzare l'opzione --additional-python-modules con un elenco di moduli Python separati da virgole per aggiungere un nuovo modulo o modificare la versione di un modulo esistente. Non è possibile fornire moduli Python personalizzati ospitati su Amazon S3 con questo parametro quando si utilizzano processi di shell Python.

Ad esempio, per aggiornare o aggiungere un nuovo modulo scikit-learn usa la seguente coppia di chiave-valore: "--additional-python-modules", "scikit-learn==0.21.3".

AWS Glue utilizza Python Package Installer (pip3) per installare i moduli aggiuntivi. Puoi passare opzioni pip3 aggiuntive all'interno del valore di --additional-python-modules. Ad esempio, "scikit-learn==0.21.3 -i https://pypi.python.org/simple/". Si applicano eventuali incompatibilità o limitazioni da pip3.

Nota

Per evitare incompatibilità in futuro, si consiglia di utilizzare le librerie create per Python 3.9.

Utilizzo di un file Egg o Whl

È possibile che uno o più pacchetti di librerie Python siano disponibili come un file .whl o .egg. In questo caso, puoi specificarli nel tuo processo utilizzando AWS Command Line Interface (AWS CLI) sotto il flag "--extra-py-files", come mostrato nell'esempio seguente.

aws glue create-job --name python-redshift-test-cli --role role --command '{"Name" : "pythonshell", "ScriptLocation" : "s3://MyBucket/python/library/redshift_test.py"}' --connections Connections=connection-name --default-arguments '{"--extra-py-files" : ["s3://DOC-EXAMPLE-BUCKET/EGG-FILE", "s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE"]}'

In caso di dubbi su come creare un file .egg o .whl da una libreria Python, utilizza la procedura seguente. Questo esempio si applica su sistemi macOS, Linux e Windows Subsystem for Linux (WSL).

Per creare un file .egg o .whl Python
  1. Crea un cluster Amazon Redshift in un cloud privato virtuale (VPC, Virtual Private Cloud) e aggiungi alcuni dati a una tabella.

  2. Crea una AWS Glue connessione per la combinazione VPC- SecurityGroup -Subnet utilizzata per creare il cluster. Verifica che la connessione funzioni.

  3. Crea una directory denominata redshift_example e crea un file denominato setup.py. Incollare il codice seguente in setup.py.

    from setuptools import setup setup( name="redshift_module", version="0.1", packages=['redshift_module'] )
  4. Nella directory redshift_example crea una directory redshift_module. Nella directory redshift_module crea i file __init__.py e pygresql_redshift_common.py.

  5. Lascia il file __init__.py vuoto. Incolla il codice seguente in pygresql_redshift_common.py. Sostituisci port, db_name, user e password_for_user con i dettagli specifici del cluster Amazon Redshift. Sostituisci table_name con il nome della tabella in Amazon Redshift.

    import pg def get_connection(host): rs_conn_string = "host=%s port=%s dbname=%s user=%s password=%s" % ( host, port, db_name, user, password_for_user) rs_conn = pg.connect(dbname=rs_conn_string) rs_conn.query("set statement_timeout = 1200000") return rs_conn def query(con): statement = "Select * from table_name;" res = con.query(statement) return res
  6. Se non sei ancora in tale directory, passa alla directory redshift_example.

  7. Esegui una di queste operazioni:

    • Per creare un file .egg, esegui il comando seguente.

      python setup.py bdist_egg
    • Per creare un file .whl, esegui il comando seguente.

      python setup.py bdist_wheel
  8. Installa le dipendenze necessarie per il comando precedente.

  9. Il comando crea un file nella directory dist:

    • Se hai creato un file egg, viene denominato redshift_module-0.1-py2.7.egg.

    • Se hai creato un file wheel, viene denominato redshift_module-0.1-py2.7-none-any.whl.

    Carica questo file in Amazon S3.

    In questo esempio, il percorso del file caricato è s3://DOC-EXAMPLE-BUCKET/EGG-FILE o s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE.

  10. Crea un file Python da utilizzare come script per il processo AWS Glue e aggiungi al file il codice seguente.

    from redshift_module import pygresql_redshift_common as rs_common con1 = rs_common.get_connection(redshift_endpoint) res = rs_common.query(con1) print "Rows in the table cities are: " print res
  11. Carica il file precedente in Amazon S3. In questo esempio, il percorso del file caricato è s3://DOC-EXAMPLE-BUCKET/scriptname.py.

  12. Crea un processo shell di Python utilizzando questo script. Nella console AWS Glue, nella pagina Job properties (Proprietà processo), specifica il percorso al file .egg/.whl nella casella Python library path (Percorso libreria Python). Se sono presenti più file .egg/.whl e file Python, occorre fornire un elenco separato da virgole in questa casella.

    Quando si modificano o si rinominano i file .egg, i nomi dei file devono utilizzare i nomi predefiniti generati dal comando "python setup.py bdist_egg" o devono rispettare le convenzioni di denominazione del modulo Python. Per ulteriori informazioni, vedere la Guida di stile per il codice Python.

    Utilizzando AWS CLI, create un lavoro con un comando, come nell'esempio seguente.

    aws glue create-job --name python-redshift-test-cli --role Role --command '{"Name" : "pythonshell", "ScriptLocation" : "s3://DOC-EXAMPLE-BUCKET/scriptname.py"}' --connections Connections="connection-name" --default-arguments '{"--extra-py-files" : ["s3://DOC-EXAMPLE-BUCKET/EGG-FILE", "s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE"]}'

    Quando il processo è in esecuzione, lo script visualizza le righe create nella tabella table_name nel cluster Amazon Redshift.

Utilizzabile AWS CloudFormation con i lavori della shell Python in AWS Glue

È possibile utilizzare AWS CloudFormation con i job della shell Python in. AWS Glue Di seguito è riportato un esempio:

AWSTemplateFormatVersion: 2010-09-09 Resources: Python39Job: Type: 'AWS::Glue::Job' Properties: Command: Name: pythonshell PythonVersion: '3.9' ScriptLocation: 's3://bucket/location' MaxRetries: 0 Name: python-39-job Role: RoleName

L'output del gruppo Amazon CloudWatch Logs per i job della shell Python è. /aws-glue/python-jobs/output Per gli errori, consulta il gruppo di log /aws-glue/python-jobs/error.