Ingressi, uscite, variabili ambientali e funzioni di supporto - Amazon Braket

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Ingressi, uscite, variabili ambientali e funzioni di supporto

Oltre al file o ai file che compongono lo script completo dell'algoritmo, il job ibrido può avere input e output aggiuntivi. All'avvio del processo ibrido, Amazon Braket copia gli input forniti come parte della creazione del lavoro ibrido nel contenitore che esegue lo script dell'algoritmo. Al termine del processo ibrido, tutti gli output definiti durante l'algoritmo vengono copiati nella posizione Amazon S3 specificata.

Nota

Le metriche dell'algoritmo vengono riportate in tempo reale e non seguono questa procedura di output.

AmazonBraket fornisce anche diverse variabili di ambiente e funzioni di supporto per semplificare le interazioni con gli input e gli output del contenitore.

Questa sezione spiega i concetti chiave della AwsQuantumJob.create funzione fornita da Amazon Braket Python SDK e la loro mappatura alla struttura del file contenitore.

Input

Dati di input: i dati di input possono essere forniti all'algoritmo ibrido specificando il file di dati di input, che è impostato come dizionario, con l'argomento. input_data L'utente definisce l'input_dataargomento all'interno della AwsQuantumJob.create funzione nell'SDK. Questo copia i dati di input nel file system del contenitore nella posizione indicata dalla variabile "AMZN_BRAKET_INPUT_DIR" di ambiente. Per un paio di esempi di come i dati di input vengono utilizzati in un algoritmo ibrido, consulta QAOA con Amazon Braket Hybrid Jobs PennyLane e Quantum machine learning nei notebook Amazon Braket Hybrid Jobs Jobs Jupyter.

Nota

Quando i dati di input sono di grandi dimensioni (> 1 GB), ci sarà un lungo tempo di attesa prima che il lavoro ibrido venga inviato. Ciò è dovuto al fatto che i dati di input locali verranno prima caricati su un bucket S3, quindi il percorso S3 verrà aggiunto alla richiesta di lavoro ibrida e, infine, la richiesta di lavoro ibrida verrà inviata al servizio Braket.

Iperparametri: se si passahyperparameters, sono disponibili nella variabile di ambiente. "AMZN_BRAKET_HP_FILE"

Punti di controllo: per specificare job-arn il checkpoint di cui desideri utilizzare in un nuovo lavoro ibrido, usa il comando. copy_checkpoints_from_job Questo comando copia i dati del checkpoint nel nuovo processo ibrido, rendendoli disponibili nel percorso indicato dalla variabile di ambiente AMZN_BRAKET_CHECKPOINT_DIR durante l'esecuzione del lavoro. checkpoint_configs3Uri L'impostazione predefinita è None che i dati del checkpoint di un altro lavoro ibrido non verranno utilizzati nel nuovo lavoro ibrido.

Output

Attività quantistiche: i risultati delle attività quantistiche vengono archiviati nella posizione S3. s3://amazon-braket-<region>-<accountID>/jobs/<job-name>/tasks

Risultati del lavoro: tutto ciò che lo script dell'algoritmo salva nella directory fornita dalla variabile di ambiente "AMZN_BRAKET_JOB_RESULTS_DIR" viene copiato nella posizione S3 specificata in. output_data_config Se non specifichi questo valore, il valore predefinito è. s3://amazon-braket-<region>-<accountID>/jobs/<job-name>/<timestamp>/data Forniamo la funzione di supporto SDK save_job_result, che puoi utilizzare per archiviare comodamente i risultati sotto forma di dizionario quando richiami dallo script dell'algoritmo.

Punti di controllo: se desideri utilizzare i checkpoint, puoi salvarli nella directory fornita dalla variabile di ambiente. "AMZN_BRAKET_CHECKPOINT_DIR" Puoi invece utilizzare anche la funzione di supporto SDK. save_job_checkpoint

Metriche dell'algoritmo: puoi definire le metriche dell'algoritmo come parte dello script dell'algoritmo che vengono emesse su Amazon CloudWatch e visualizzate in tempo reale nella console Amazon Braket mentre il processo ibrido è in esecuzione. Per un esempio di come utilizzare le metriche degli algoritmi, consulta Use Amazon Braket Hybrid Jobs per eseguire un algoritmo QAOA.

Variabili di ambiente

AmazonBraket fornisce diverse variabili di ambiente per semplificare le interazioni con gli input e gli output dei container. Il codice seguente elenca le variabili ambientali utilizzate da Braket.

# the input data directory opt/braket/input/data os.environ["AMZN_BRAKET_INPUT_DIR"] # the output directory opt/braket/model to write job results to os.environ["AMZN_BRAKET_JOB_RESULTS_DIR"] # the name of the job os.environ["AMZN_BRAKET_JOB_NAME"] # the checkpoint directory os.environ["AMZN_BRAKET_CHECKPOINT_DIR"] # the file containing the hyperparameters os.environ["AMZN_BRAKET_HP_FILE"] # the device ARN (AWS Resource Name) os.environ["AMZN_BRAKET_DEVICE_ARN"] # the output S3 bucket, as specified in the CreateJob request’s OutputDataConfig os.environ["AMZN_BRAKET_OUT_S3_BUCKET"] # the entry point as specified in the CreateJob request’s ScriptModeConfig os.environ["AMZN_BRAKET_SCRIPT_ENTRY_POINT"] # the compression type as specified in the CreateJob request’s ScriptModeConfig os.environ["AMZN_BRAKET_SCRIPT_COMPRESSION_TYPE"] # the S3 location of the user’s script as specified in the CreateJob request’s ScriptModeConfig os.environ["AMZN_BRAKET_SCRIPT_S3_URI"] # the S3 location where the SDK would store the quantum task results by default for the job os.environ["AMZN_BRAKET_TASK_RESULTS_S3_URI"] # the S3 location where the job results would be stored, as specified in CreateJob request’s OutputDataConfig os.environ["AMZN_BRAKET_JOB_RESULTS_S3_PATH"] # the string that should be passed to CreateQuantumTask’s jobToken parameter for quantum tasks created in the job container os.environ["AMZN_BRAKET_JOB_TOKEN"]

Funzioni di supporto

AmazonBraket offre diverse funzioni di supporto per semplificare le interazioni con gli input e gli output del contenitore. Queste funzioni di supporto verrebbero richiamate dall'interno dello script dell'algoritmo utilizzato per eseguire Hybrid Job. L'esempio seguente mostra come utilizzarle.

get_checkpoint_dir() # get the checkpoint directory get_hyperparameters() # get the hyperparameters as strings get_input_data_dir() # get the input data directory get_job_device_arn() # get the device specified by the hybrid job get_job_name() # get the name of the hybrid job. get_results_dir() # get the path to a results directory save_job_result() # save hybrid job results save_job_checkpoint() # save a checkpoint load_job_checkpoint() # load a previously saved checkpoint