Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Configurazione delle proprietà del lavoro per i lavori della shell Python in AWS Glue
Puoi utilizzare un processo shell di Python per eseguire gli script di Python come una shell in AWS Glue. Con un job di shell Python, puoi eseguire script compatibili con Python 3.6 o Python 3.9.
Argomenti
Limitazioni
Tieni presente le seguenti limitazioni dei processi shell Python:
-
Non è possibile utilizzare i segnalibri nei processi di shell di Python.
-
Non puoi impacchettare alcuna libreria Python come
.egg
file in Python 3.9+. Utilizza invece.whl
. Per via di una limitazione sulle copie temporanee dei dati di S3, l'opzione
--extra-files
non può essere utilizzata.
Definire le proprietà del processo per i processi shell di Python
Queste sezioni descrivono la definizione delle proprietà del lavoro nella AWS Glue Studio o l'utilizzo della AWS CLI.
AWS Glue Studio
Quando definisci il processo della shell Python in AWS Glue Studio, fornisci alcune delle seguenti proprietà:
- Ruolo IAM
-
Specificate il ruolo AWS Identity and Access Management (IAM) utilizzato per l'autorizzazione alle risorse utilizzate per eseguire il processo e accedere agli archivi dati. Per ulteriori informazioni sulle autorizzazioni per l'esecuzione di processi in AWS Glue, consulta Gestione delle identità e degli accessi per AWS Glue.
- Type
-
Scegli Python shell (Shell di Python) per eseguire uno script Python con il comando di processo denominato
pythonshell
. - Versione di Python
-
Scegli la versione di Python. La versione predefinita è Python 3.9. Le versioni valide sono Python 3.6 e Python 3.9.
- Carica librerie di analisi comuni (scelta consigliata)
-
Scegli questa opzione per includere le librerie comuni per Python 3.9 nella shell Python.
Se le tue librerie sono personalizzate o sono in conflitto con quelle preinstallate, puoi scegliere di non installare librerie comuni. Tuttavia, oltre alle librerie comuni puoi installare librerie aggiuntive.
Quando selezioni questa opzione, l'opzione
library-set
è impostata suanalytics
. Quando deselezioni questa opzione, l'opzionelibrary-set
è impostata sunone
. - Nome file e percorso dello script
-
Il codice nello script definisce la logica procedurale del processo. Puoi fornire il nome e la posizione dello script in Amazon Simple Storage Service (Amazon S3). Conferma che non esiste un file con lo stesso nome della directory di script nel percorso. Per ulteriori informazioni sull'uso degli script, consulta AWS Glue guida alla programmazione.
- Script
-
Il codice nello script definisce la logica procedurale del processo. Puoi codificare lo script in Python 3.6 o Python 3.9. Puoi modificare uno script in AWS Glue Studio.
- Unità di elaborazione dati (DPU)
-
Il numero massimo di unità di elaborazione dei dati AWS Glue (DPU) che può essere allocato quando viene eseguito il processo. Una DPU è una misura relativa della potenza di elaborazione ed è costituita da 4 vCPU di capacità di elaborazione e 16 GB di memoria. Per ulteriori informazioni, consultare Prezzi di AWS Glue
. Puoi impostare il valore su 0,0625 o 1. Il valore predefinito è 0.0625. In entrambi i casi, il disco locale per l'istanza sarà di 20 GB.
CLI
Puoi anche creare un job della shell Python usando AWS CLI, come nell'esempio seguente.
aws glue create-job --name python-job-cli --role Glue_DefaultRole --command '{"Name" : "pythonshell", "PythonVersion": "3.9", "ScriptLocation" : "s3://DOC-EXAMPLE-BUCKET/scriptname.py"}' --max-capacity 0.0625
Nota
Non è necessario specificare la versione di AWS Glue poiché il parametro --glue-version
non si applica ai lavori di AWS Glue shell. Qualsiasi versione specificata verrà ignorata.
Lavori che crei con l' AWS CLI impostazione predefinita di Python 3. Le versioni valide di Python sono 3 (corrispondenti a 3.6) e 3.9. Per specificare Python 3.6, aggiungi questa tupla al parametro --command
: "PythonVersion":"3"
Per specificare Python 3.9, aggiungi questa tupla al parametro --command
: "PythonVersion":"3.9"
Per impostare la capacità massima utilizzata da un processo shell di Python, fornire il parametro --max-capacity
. Per i processi di shell di Python non è possibile utilizzare il parametro --allocated-capacity
.
Librerie supportate dai processi shell di Python
Nella shell Python con Python 3.9 puoi scegliere il set di librerie per utilizzare set di librerie preconfezionati per le tue esigenze. Puoi utilizzare l'opzione library-set
per scegliere il set di librerie. I valori validi sono analytics
e none
.
L'ambiente per l'esecuzione di un processo shell di Python supporta le seguenti librerie:
Versione di Python | Python 3.6 | Python 3.9 | |
---|---|---|---|
Set di librerie | N/D | analytics | nessuno |
avro | 1.11.0 | ||
awscli | 116,242 | 1,23,5 | 1,23,5 |
awswrangler | 2,15,1 | ||
botocore | 1,12.232 | 1,24,21 | 1,23,5 |
boto3 | 1,9203 | 1,21,21 | |
elasticsearch | 8.2.0 | ||
numpy | 1,16,2 | 1.22.3 | |
pandas | 0,24,2 | 1.4.2 | |
psycopg2 | 2,9,3 | ||
pyathena | 2.5.3 | ||
PyGreSQL | 5.0.6 | ||
PyMySQL | 1.0.2 | ||
pyodbc | 4.0.32 | ||
pyorc | 0,6,0 | ||
redshift-connector | 2.0,907 | ||
richieste | 2.22.0 | 2,27,1 | |
scikit-learn | 0,20,3 | 1.0.2 | |
scipy | 1.2.1 | 1.8.0 | |
SQLAlchemy | 1,4,36 | ||
s3fs | 2022,3,0 |
Puoi utilizzare la libreria NumPy
in un processo shell di Python per il calcolo scientifico. Per ulteriori informazioni, vedere. NumPy
import numpy as np print("Hello world") a = np.array([20,30,40,50]) print(a) b = np.arange( 4 ) print(b) c = a-b print(c) d = b**2 print(d)
Fornire la propria libreria Python
Utilizzo di PIP
La shell Python che utilizza Python 3.9 consente di fornire moduli Python aggiuntivi o versioni diverse a livello di processo. Puoi utilizzare l'opzione --additional-python-modules
con un elenco di moduli Python separati da virgole per aggiungere un nuovo modulo o modificare la versione di un modulo esistente. Non è possibile fornire moduli Python personalizzati ospitati su Amazon S3 con questo parametro quando si utilizzano processi di shell Python.
Ad esempio, per aggiornare o aggiungere un nuovo modulo scikit-learn
usa la seguente coppia di chiave-valore: "--additional-python-modules",
"scikit-learn==0.21.3"
.
AWS Glue utilizza Python Package Installer (pip3) per installare i moduli aggiuntivi. Puoi passare opzioni pip3 aggiuntive all'interno del valore di --additional-python-modules
. Ad esempio, "scikit-learn==0.21.3 -i https://pypi.python.org/simple/"
. Si applicano eventuali incompatibilità o limitazioni da pip3.
Nota
Per evitare incompatibilità in futuro, si consiglia di utilizzare le librerie create per Python 3.9.
Utilizzo di un file Egg o Whl
È possibile che uno o più pacchetti di librerie Python siano disponibili come un file .whl
o .egg
. In questo caso, puoi specificarli nel tuo processo utilizzando AWS Command Line Interface
(AWS CLI) sotto il flag "--extra-py-files
", come mostrato nell'esempio seguente.
aws glue create-job --name python-redshift-test-cli --role
role
--command '{"Name" : "pythonshell", "ScriptLocation" : "s3://MyBucket/python/library/redshift_test.py"}' --connections Connections=connection-name
--default-arguments '{"--extra-py-files" : ["s3://DOC-EXAMPLE-BUCKET/EGG-FILE", "s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE"]}'
In caso di dubbi su come creare un file .egg
o .whl
da una libreria Python, utilizza la procedura seguente. Questo esempio si applica su sistemi macOS, Linux e Windows Subsystem for Linux (WSL).
Per creare un file .egg o .whl Python
-
Crea un cluster Amazon Redshift in un cloud privato virtuale (VPC, Virtual Private Cloud) e aggiungi alcuni dati a una tabella.
-
Crea una AWS Glue connessione per la combinazione VPC- SecurityGroup -Subnet utilizzata per creare il cluster. Verifica che la connessione funzioni.
-
Crea una directory denominata
redshift_example
e crea un file denominatosetup.py
. Incollare il codice seguente insetup.py
.from setuptools import setup setup( name="redshift_module", version="0.1", packages=['redshift_module'] )
-
Nella directory
redshift_example
crea una directoryredshift_module
. Nella directoryredshift_module
crea i file__init__.py
epygresql_redshift_common.py
. -
Lascia il file
__init__.py
vuoto. Incolla il codice seguente inpygresql_redshift_common.py
. Sostituisciport
,db_name
,user
epassword_for_user
con i dettagli specifici del cluster Amazon Redshift. Sostituiscitable_name
con il nome della tabella in Amazon Redshift.import pg def get_connection(host): rs_conn_string = "host=%s port=%s dbname=%s user=%s password=%s" % ( host,
port
,db_name
,user
,password_for_user
) rs_conn = pg.connect(dbname=rs_conn_string) rs_conn.query("set statement_timeout = 1200000") return rs_conn def query(con): statement = "Select * fromtable_name
;" res = con.query(statement) return res -
Se non sei ancora in tale directory, passa alla directory
redshift_example
. -
Esegui una di queste operazioni:
Per creare un file
.egg
, esegui il comando seguente.python setup.py bdist_egg
Per creare un file
.whl
, esegui il comando seguente.python setup.py bdist_wheel
-
Installa le dipendenze necessarie per il comando precedente.
-
Il comando crea un file nella directory
dist
:-
Se hai creato un file egg, viene denominato
redshift_module-0.1-py2.7.egg
. -
Se hai creato un file wheel, viene denominato
redshift_module-0.1-py2.7-none-any.whl
.
Carica questo file in Amazon S3.
In questo esempio, il percorso del file caricato è
s3://DOC-EXAMPLE-BUCKET/EGG-FILE
os3://DOC-EXAMPLE-BUCKET/WHEEL-FILE
. -
-
Crea un file Python da utilizzare come script per il processo AWS Glue e aggiungi al file il codice seguente.
from redshift_module import pygresql_redshift_common as rs_common con1 = rs_common.get_connection(
redshift_endpoint
) res = rs_common.query(con1) print "Rows in the table cities are: " print res -
Carica il file precedente in Amazon S3. In questo esempio, il percorso del file caricato è
s3://DOC-EXAMPLE-BUCKET/scriptname.py
. -
Crea un processo shell di Python utilizzando questo script. Nella console AWS Glue, nella pagina Job properties (Proprietà processo), specifica il percorso al file
.egg/.whl
nella casella Python library path (Percorso libreria Python). Se sono presenti più file.egg/.whl
e file Python, occorre fornire un elenco separato da virgole in questa casella.Quando si modificano o si rinominano i file
.egg
, i nomi dei file devono utilizzare i nomi predefiniti generati dal comando "python setup.py bdist_egg" o devono rispettare le convenzioni di denominazione del modulo Python. Per ulteriori informazioni, vedere la Guida di stile per il codice Python. Utilizzando AWS CLI, create un lavoro con un comando, come nell'esempio seguente.
aws glue create-job --name python-redshift-test-cli --role Role --command '{"Name" : "pythonshell", "ScriptLocation" : "s3://DOC-EXAMPLE-BUCKET/scriptname.py"}' --connections Connections="connection-name" --default-arguments '{"--extra-py-files" : ["s3://DOC-EXAMPLE-BUCKET/EGG-FILE", "s3://DOC-EXAMPLE-BUCKET/WHEEL-FILE"]}'
Quando il processo è in esecuzione, lo script visualizza le righe create nella tabella
table_name
nel cluster Amazon Redshift.
Utilizzabile AWS CloudFormation con i lavori della shell Python in AWS Glue
È possibile utilizzare AWS CloudFormation con i job della shell Python in. AWS Glue Di seguito è riportato un esempio:
AWSTemplateFormatVersion: 2010-09-09 Resources: Python39Job: Type: 'AWS::Glue::Job' Properties: Command: Name: pythonshell PythonVersion: '3.9' ScriptLocation: 's3://bucket/location' MaxRetries: 0 Name: python-39-job Role: RoleName
L'output del gruppo Amazon CloudWatch Logs per i job della shell Python è. /aws-glue/python-jobs/output
Per gli errori, consulta il gruppo di log /aws-glue/python-jobs/error
.