Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Esegui la migrazione e la replica VSAM dei file su Amazon o RDS Amazon utilizzando MSK Connect from Precisly
Creato da Prachi Khanna () e Boopathy () AWS GOPALSAMY AWS
Ambiente: PoC o pilota | Fonte: VSAM | Destinazione: database |
Tipo R: Re-architect | Carico di lavoro: IBM | Tecnologie: mainframe; modernizzazione |
AWSservizi: AmazonMSK; AmazonRDS; Modernizzazione del AWS mainframe |
Riepilogo
Questo modello mostra come migrare e replicare i file Virtual Storage Access Method (VSAM) da un mainframe a un ambiente di destinazione nel AWS Cloud utilizzando Connect
Prerequisiti e limitazioni
Prerequisiti
CICSTransaction Server for z/OS (CICSTS) V5.1 o versione successiva (/data capture)
CICS VSAM IBMMQ 8.0 o versione
successiva Conformità ai requisiti di sicurezza di z/OS
(ad esempio, APF autorizzazione per SQData le librerie di caricamento) VSAMregistri di ripristino attivati
(Opzionale) Versione CICS VSAM di ripristino (CICSVR)
per l'acquisizione CDC automatica dei registri Un account attivo AWS
Un Amazon Virtual Private Cloud (VPC) con una sottorete raggiungibile dalla tua piattaforma legacy
Una licenza VSAM Connect di Precisly
Limitazioni
Connect non supporta la creazione automatica di tabelle di destinazione basate su VSAM schemi di origine o quaderni. È necessario definire la struttura della tabella di destinazione per la prima volta.
Per destinazioni non in streaming come AmazonRDS, è necessario specificare la mappatura tra origine di conversione e destinazione nello script di configurazione di Apply Engine.
Le funzioni di registrazione, monitoraggio e avviso sono implementate APIs e richiedono componenti esterni (come Amazon CloudWatch) per essere completamente operativi.
Versioni del prodotto
SQData40134 per z/OS
SQData4.0.43 per Amazon Linux Amazon Machine Image (AMI) su Amazon Elastic Compute Cloud (Amazon) EC2
Architettura
Stack tecnologico di origine
Linguaggio Job Control (JCL)
Shell z/OS Unix e Interactive System Productivity Facility () ISPF
VSAMutilità () IDCAMS
Stack tecnologico Target
Amazon EC2
Amazon MSK
Amazon RDS
Amazon VPC
Architettura Target
Migrazione di VSAM file su Amazon RDS
Il diagramma seguente mostra come migrare VSAM i file verso un database relazionale, come AmazonRDS, in tempo reale o quasi reale utilizzando l'CDCagente/editore nell'ambiente di origine (mainframe locale) e l'Apply Engine
Il diagramma mostra il seguente flusso di lavoro in batch:
Connect acquisisce le modifiche a un file confrontando VSAM i file dai file di backup per identificare le modifiche e quindi invia le modifiche al logstream.
L'editore utilizza i dati dal logstream di sistema.
L'editore comunica le modifiche ai dati acquisiti a un motore di destinazione tramite /IP. TCP Il controller daemon autentica la comunicazione tra l'ambiente di origine e quello di destinazione.
Il motore di applicazione nell'ambiente di destinazione riceve le modifiche dall'agente Publisher e le applica a un database relazionale o non relazionale.
Il diagramma mostra il seguente flusso di lavoro online:
Connect acquisisce le modifiche nel file online utilizzando una replica di registro e quindi trasmette le modifiche acquisite in un flusso di registro.
L'editore utilizza i dati dal logstream di sistema.
L'editore comunica le modifiche ai dati acquisiti al motore di destinazione tramite /IP. TCP Il controller daemon autentica la comunicazione tra l'ambiente di origine e quello di destinazione.
Il motore di applicazione nell'ambiente di destinazione riceve le modifiche dall'agente Publisher e quindi le applica a un database relazionale o non relazionale.
Migrazione di VSAM file su Amazon MSK
Il diagramma seguente mostra come trasmettere strutture di VSAM dati da un mainframe ad Amazon MSK in modalità ad alte prestazioni e generare automaticamente JSON o conversioni di AVRO schema che si integrano con Amazon. MSK
Il diagramma mostra il seguente flusso di lavoro in batch:
Connect acquisisce le modifiche a un file utilizzando la CICS realtà virtuale o confrontando VSAM i file dai file di backup per identificare le modifiche. Le modifiche acquisite vengono inviate al logstream.
L'editore utilizza i dati dal logstream di sistema.
L'editore comunica le modifiche ai dati acquisiti al motore di destinazione tramite /IP. TCP Il controller daemon autentica la comunicazione tra l'ambiente di origine e quello di destinazione.
Il Replicator Engine che opera in modalità di elaborazione parallela divide i dati in un'unità di cache di lavoro.
I thread di lavoro acquisiscono i dati dalla cache.
I dati vengono pubblicati MSK sugli argomenti di Amazon dai thread di lavoro.
Il diagramma mostra il seguente flusso di lavoro online:
Le modifiche nel file online vengono acquisite utilizzando una replica del registro. Le modifiche acquisite vengono trasmesse al logstream.
L'editore utilizza i dati dal logstream di sistema.
L'editore comunica le modifiche ai dati acquisiti al motore di destinazione tramite /IP. TCP Il controller daemon autentica la comunicazione tra l'ambiente di origine e quello di destinazione.
Il Replicator Engine che opera in modalità di elaborazione parallela divide i dati in un'unità di cache di lavoro.
I thread di lavoro acquisiscono i dati dalla cache.
I dati vengono pubblicati MSK sugli argomenti di Amazon dai thread di lavoro.
Strumenti
Amazon Managed Streaming for Apache Kafka (MSKAmazon) è un servizio completamente gestito che ti aiuta a creare ed eseguire applicazioni che utilizzano Apache Kafka per elaborare dati di streaming.
Amazon Relational Database Service (RDSAmazon) ti aiuta a configurare, gestire e scalare un database relazionale nel AWS cloud.
Epiche
Attività | Descrizione | Competenze richieste |
---|---|---|
Installare Connect CDC 4.1. |
| IBMSviluppatore/amministratore del mainframe |
Configura la directory ZfS. | Per configurare una directory ZfS, seguite le istruzioni contenute nelle directory delle variabili ZFs nella documentazione di Precisly Nota: le configurazioni degli agenti Controller Daemon e Capture/Publisher sono memorizzate nel file system z/OS Systems Services (denominato UNIX zFs). Gli agenti Controller Daemon, Capture, Storage e Publisher richiedono una struttura di directory ZfS predefinita per archiviare un numero limitato di file. | IBMSviluppatore/amministratore del mainframe |
Configurare le porte /IP. TCP | Per configurare le porte TCP /IP, segui le istruzioni fornite dalle porte TCP/IP nella documentazione di Precision. Nota: il controller daemon richiede porte TCP /IP sui sistemi di origine. Alle porte fanno riferimento i motori dei sistemi di destinazione (dove vengono elaborati i dati di modifica acquisiti). | IBMSviluppatore/amministratore del mainframe |
Crea un logstream z/OS. | Per creare un logstream z/OS Nota: Connect utilizza il logstream per acquisire e trasmettere dati tra l'ambiente di origine e l'ambiente di destinazione durante la migrazione. Per un esempio di creazione JCL di un sistema logStreams z/OS LogStream, consulta Create z/OS | IBMSviluppatore di mainframe |
Identifica e autorizza gli utenti ZfS e IDs le attività avviate. | Utilizzare RACF per concedere l'accesso al OMVS file system ZfS. Per un esempioJCL, vedete Identificare e autorizzare l'utente e l'attività avviata da ZFs IDs | IBMSviluppatore/amministratore del mainframe |
Genera le chiavi pubbliche/private di z/OS e il file di chiave autorizzato. | Esegui JCL per generare la key pair. Per un esempio, vedi Esempio di coppia di chiavi nella sezione Informazioni aggiuntive di questo modello. Per istruzioni, consulta Generare chiavi pubbliche e private z/OS e file di chiavi autorizzate | IBMSviluppatore/amministratore del mainframe |
Attiva CICS VSAM Log Replicate e collegalo al logstream. | Eseguite lo script seguente: JCL
| IBMSviluppatore/amministratore del mainframe |
Attiva il VSAM file Recovery Log tramite un. FCT | Modificate la File Control Table (FCT) in modo che rifletta le seguenti modifiche ai parametri:
| IBMSviluppatore/amministratore del mainframe |
Configurato per l'agente CDCzLog Publisher. |
| IBMSviluppatore/amministratore del mainframe |
Attiva il controller daemon. |
| IBMSviluppatore/amministratore del mainframe |
Attiva l'editore. |
| IBMSviluppatore/amministratore del mainframe |
Attiva il logstream. |
| IBMSviluppatore/amministratore del mainframe |
Attività | Descrizione | Competenze richieste |
---|---|---|
Installa Precisly su un'EC2istanza. | Per installare Connect from Precisely su Amazon Linux AMI per AmazonEC2, segui le istruzioni di Install Connect CDC (SQData) UNIX nella | Generale AWS |
Porte TCP /IP aperte. | Per modificare il gruppo di sicurezza in modo da includere le porte Controller Daemon per l'accesso in entrata e in uscita, segui le istruzioni di TCP/IP | Generale AWS |
Crea directory di file. | Per creare directory di file, segui le istruzioni di Prepare target apply environment | Generale AWS |
Create il file di configurazione di Apply Engine. | Create il file di configurazione di Apply Engine nella directory di lavoro di Apply Engine. Il seguente file di configurazione di esempio mostra Apache Kafka come destinazione:
Nota: per ulteriori informazioni, consulta Sicurezza | Generale AWS |
Crea script per l'elaborazione di Apply Engine. | Create gli script per Apply Engine per elaborare i dati di origine e replicare i dati di origine sulla destinazione. Per ulteriori informazioni, vedete Creare uno script del motore di applicazione nella documentazione | Generale AWS |
Esegui gli script. | Utilizzate i | Generale AWS |
Attività | Descrizione | Competenze richieste |
---|---|---|
Convalida l'elenco dei VSAM file e delle tabelle di destinazione per l'CDCelaborazione. |
| GeneraleAWS, Mainframe |
Verifica che il CDC SQData prodotto Connect sia collegato. | Esegui un processo di test e verifica che il codice restituito da questo lavoro sia 0 (operazione riuscita). Nota: i messaggi di stato di Connect CDC SQData Apply Engine dovrebbero mostrare messaggi di connessione attivi. | GeneraleAWS, Mainframe |
Attività | Descrizione | Competenze richieste |
---|---|---|
Esegui il processo batch nel mainframe. | Esegui il processo di applicazione batch utilizzando un file modificatoJCL. Includi nella modifica i passaggi JCL che eseguono le seguenti operazioni:
| GeneraleAWS, Mainframe |
Controllate il logstream. | Controllate il logstream per confermare che è possibile visualizzare i dati di modifica per il processo batch mainframe completato. | GeneraleAWS, Mainframe |
Convalida i conteggi per le modifiche delta di origine e la tabella di destinazione. | Per confermare il conteggio dei record, procedi come segue:
| GeneraleAWS, Mainframe |
Attività | Descrizione | Competenze richieste |
---|---|---|
Esegui la transazione online in una CICS regione. |
| IBMSviluppatore di mainframe |
Controllate il logstream. | Verifica che il logstream sia popolato con modifiche specifiche al livello di record. | AWSSviluppatore mainframe |
Convalida il conteggio nel database di destinazione. | Monitora Apply Engine per conteggi a livello record. | Precisamente, Linux |
Convalida il conteggio dei record e i record di dati nel database di destinazione. | Interroga il database di destinazione per convalidare il numero di record e i record di dati. | Generale AWS |
Risorse correlate
VSAMz/OS
(documentazione precisa) Applica il motore
(documentazione precisa) Motore Replicator
(documentazione precisa) Il flusso di log
(IBMdocumentazione)
Informazioni aggiuntive
Esempio di file di configurazione
Questo è un esempio di file di configurazione per un logstream in cui l'ambiente di origine è un mainframe e l'ambiente di destinazione è Amazon: MSK
-- JOBNAME -- PASS THE SUBSCRIBER NAME -- REPORT progress report will be produced after "n" (number) of Source records processed. JOBNAME VSMTOKFK; --REPORT EVERY 100; -- Change Op has been ‘I’ for insert, ‘D’ for delete , and ‘R’ for Replace. For RDS it is 'U' for update -- Character Encoding on z/OS is Code Page 1047, on Linux and UNIX it is Code Page 819 and on Windows, Code Page 1252 OPTIONS CDCOP('I', 'U', 'D'), PSEUDO NULL = NO, USE AVRO COMPATIBLE NAMES, APPLICATION ENCODING SCHEME = 1208; -- SOURCE DESCRIPTIONS BEGIN GROUP VSAM_SRC; DESCRIPTION COBOL ../copybk/ACCOUNT AS account_file; END GROUP; -- TARGET DESCRIPTIONS BEGIN GROUP VSAM_TGT; DESCRIPTION COBOL ../copybk/ACCOUNT AS account_file; END GROUP; -- SOURCE DATASTORE (IP & Publisher name) DATASTORE cdc://10.81.148.4:2626/vsmcdct/VSMTOKFK OF VSAMCDC AS CDCIN DESCRIBED BY GROUP VSAM_SRC ACCEPT ALL; -- TARGET DATASTORE(s) - Kafka and topic name DATASTORE 'kafka:///MSKTutorialTopic/key' OF JSON AS CDCOUT DESCRIBED BY GROUP VSAM_TGT FOR INSERT; -- MAIN SECTION PROCESS INTO CDCOUT SELECT { SETURL(CDCOUT, 'kafka:///MSKTutorialTopic/key') REMAP(CDCIN, account_file, GET_RAW_RECORD(CDCIN, AFTER), GET_RAW_RECORD(CDCIN, BEFORE)) REPLICATE(CDCOUT, account_file) } FROM CDCIN;
Esempio di coppia di chiavi
Questo è un esempio di come eseguire il comando JCL per generare la key pair:
//SQDUTIL EXEC PGM=SQDUTIL //SQDPUBL DD DSN=&USER..NACL.PUBLIC, // DCB=(RECFM=FB,LRECL=80,BLKSIZE=21200), // DISP=(,CATLG,DELETE),UNIT=SYSDA, // SPACE=(TRK,(1,1)) //SQDPKEY DD DSN=&USER..NACL.PRIVATE, // DCB=(RECFM=FB,LRECL=80,BLKSIZE=21200), // DISP=(,CATLG,DELETE),UNIT=SYSDA, // SPACE=(TRK,(1,1)) //SQDPARMS DD keygen //SYSPRINT DD SYSOUT= //SYSOUT DD SYSOUT=* //SQDLOG DD SYSOUT=* //*SQDLOG8 DD DUMMY