Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Migrez et répliquez VSAM des fichiers vers Amazon RDS ou Amazon à MSK l'aide de Connect from Precisely
Créée par Prachi Khanna (AWS) et GOPALSAMY Boopathy () AWS
Environnement : PoC ou pilote | La source : VSAM | Cible : base de données |
Type R : Ré-architecte | Charge de travail : IBM | Technologies : ordinateur central ; modernisation |
AWSservices : Amazon MSK ; Amazon RDS ; Modernisation des AWS ordinateurs centraux |
Récapitulatif
Ce modèle vous montre comment migrer et répliquer des fichiers de la méthode d'accès au stockage virtuel (VSAM) d'un mainframe vers un environnement cible dans le AWS cloud à l'aide de Connect
Conditions préalables et limitations
Prérequis
IBMz/OS V2R1
ou version ultérieure CICSServeur de transactions pour z/OS (CICSTS) V5.1 ou version
ultérieure (CICS/capture de VSAM données) Conformité aux exigences de sécurité z/OS
(par exemple, APF autorisation pour les bibliothèques de SQData charge) VSAMjournaux de restauration activés
(Facultatif) Version de CICS VSAM récupération (CICSVR)
pour capturer automatiquement CDC les journaux Un AWS compte actif
Un Amazon Virtual Private Cloud (VPC) avec un sous-réseau accessible par votre ancienne plateforme
Une licence VSAM Connect de Precisely
Limites
Connect ne prend pas en charge la création automatique de tables cibles basées sur des VSAM schémas source ou des cahiers. Vous devez définir la structure de table cible pour la première fois.
Pour les cibles autres que le streaming telles qu'AmazonRDS, vous devez spécifier le mappage source de conversion en cible dans le script de configuration Apply Engine.
Les fonctions de journalisation, de surveillance et d'alerte sont mises en œuvre par le biais de composants externes (tels qu'Amazon CloudWatch) APIs et nécessitent des composants externes pour être pleinement opérationnelles.
Versions du produit
SQData40134 pour z/OS
SQData4.0.43 pour Amazon Linux Amazon Machine Image (AMI) sur Amazon Elastic Compute Cloud (Amazon) EC2
Architecture
Pile technologique source
Langage de contrôle des tâches (JCL)
Shell z/OS Unix et outil de productivité du système interactif () ISPF
VSAMservices publics (IDCAMS)
Pile technologique cible
Amazon EC2
Amazon MSK
Amazon RDS
Amazon VPC
Architecture cible
Migration de VSAM fichiers vers Amazon RDS
Le schéma suivant montre comment migrer des VSAM fichiers vers une base de données relationnelle, telle qu'AmazonRDS, en temps réel ou presque en temps réel en utilisant l'CDCagent/éditeur dans l'environnement source (mainframe sur site) et le moteur Apply
Le diagramme montre le flux de travail par lots suivant :
Connect capture les modifications apportées à un fichier en comparant VSAM les fichiers des fichiers de sauvegarde pour identifier les modifications, puis envoie les modifications au flux de journal.
L'éditeur consomme les données du flux de journal du système.
L'éditeur communique les modifications des données capturées à un moteur cible via TCP /IP. Le Controller Daemon authentifie les communications entre les environnements source et cible.
Le moteur d'application de l'environnement cible reçoit les modifications de l'agent Publisher et les applique à une base de données relationnelle ou non relationnelle.
Le diagramme montre le flux de travail en ligne suivant :
Connect capture les modifications apportées au fichier en ligne à l'aide d'une réplication de journal, puis diffuse les modifications capturées dans un flux de journal.
L'éditeur consomme les données du flux de journal du système.
L'éditeur communique les modifications des données capturées au moteur cible via TCP /IP. Le Controller Daemon authentifie les communications entre les environnements source et cible.
Le moteur d'application de l'environnement cible reçoit les modifications de l'agent Publisher, puis les applique à une base de données relationnelle ou non relationnelle.
Migration de VSAM fichiers vers Amazon MSK
Le schéma suivant montre comment diffuser VSAM des structures de données d'un mainframe vers Amazon MSK en mode haute performance et comment générer automatiquement JSON ou AVRO schématiser des conversions qui s'intègrent à AmazonMSK.
Le diagramme montre le flux de travail par lots suivant :
Connect capture les modifications apportées à un fichier en utilisant la CICS réalité virtuelle ou en comparant VSAM des fichiers provenant de fichiers de sauvegarde pour identifier les modifications. Les modifications capturées sont envoyées au flux de données.
L'éditeur consomme les données du flux de journal du système.
L'éditeur communique les modifications des données capturées au moteur cible via TCP /IP. Le Controller Daemon authentifie les communications entre les environnements source et cible.
Le Replicator Engine qui fonctionne en mode de traitement parallèle divise les données dans une unité de cache de travail.
Les threads de travail capturent les données du cache.
Les données sont publiées sur Amazon MSK Topics à partir des threads de travail.
Le diagramme montre le flux de travail en ligne suivant :
Les modifications apportées au fichier en ligne sont enregistrées à l'aide d'une copie du journal. Les modifications capturées sont diffusées dans le flux journal.
L'éditeur consomme les données du flux de journal du système.
L'éditeur communique les modifications des données capturées au moteur cible via TCP /IP. Le Controller Daemon authentifie les communications entre les environnements source et cible.
Le Replicator Engine qui fonctionne en mode de traitement parallèle divise les données dans une unité de cache de travail.
Les threads de travail capturent les données du cache.
Les données sont publiées sur Amazon MSK Topics à partir des threads de travail.
Outils
Amazon Managed Streaming for Apache Kafka MSK (Amazon) est un service entièrement géré qui vous permet de créer et d'exécuter des applications utilisant Apache Kafka pour traiter les données de streaming.
Amazon Relational Database Service (RDSAmazon) vous aide à configurer, exploiter et dimensionner une base de données relationnelle dans AWS le cloud.
Épopées
Tâche | Description | Compétences requises |
---|---|---|
Installez Connect CDC 4.1. |
| IBMDéveloppeur/administrateur de mainframe |
Configurez le répertoire zFS. | Pour configurer un répertoire ZFS, suivez les instructions des répertoires de variables ZfS Remarque : les configurations des agents Controller Daemon et Capture/Publisher sont stockées dans le système de fichiers z/OS UNIX Systems Services (appelé zFS). Les agents Controller Daemon, Capture, Storage et Publisher nécessitent une structure de répertoire ZFS prédéfinie pour stocker un petit nombre de fichiers. | IBMDéveloppeur/administrateur de mainframe |
Configurez les ports TCP /IP. | Pour configurer les ports TCP /IP, suivez les instructions des ports TCP/IP de la documentation Precisely Remarque : Le démon Controller nécessite des ports TCP /IP sur les systèmes source. Les ports sont référencés par les moteurs des systèmes cibles (où les données de modification capturées sont traitées). | IBMDéveloppeur/administrateur de mainframe |
Créez un flux de log z/OS. | Pour créer un flux de log z/OS Remarque : Connect utilise le flux de données pour capturer et diffuser des données entre votre environnement source et votre environnement cible pendant la migration. Pour un exemple de création JCL d'un système z/OS LogStream, consultez la section Créer un système z/OS logStreams | IBMDéveloppeur mainframe |
Identifiez et autorisez IDs les utilisateurs de ZFS et les tâches démarrées. | RACFÀ utiliser pour autoriser l'accès au système de fichiers OMVS ZFS. Par exempleJCL, consultez la section Identifier et autoriser l'utilisateur ZFS et la tâche démarrée IDs | IBMDéveloppeur/administrateur de mainframe |
Générez les clés publiques/privées z/OS et le fichier clé autorisé. | Exécutez le JCL pour générer la paire de clés. Pour un exemple, voir Exemple de paire de clés dans la section Informations supplémentaires de ce modèle. Pour obtenir des instructions, consultez la section Générer des clés publiques et privées z/OS et un fichier de clé autorisé | IBMDéveloppeur/administrateur de mainframe |
Activez le CICS VSAM Log Replicate et attachez-le au flux de journal. | Exécutez le JCL script suivant :
| IBMDéveloppeur/administrateur de mainframe |
Activez le journal de récupération de VSAM fichiers via unFCT. | Modifiez la table de contrôle des fichiers (FCT) pour refléter les modifications de paramètres suivantes :
| IBMDéveloppeur/administrateur de mainframe |
Configuration CDCzLog pour l'agent Publisher. |
| IBMDéveloppeur/administrateur de mainframe |
Activez le démon Controller. |
| IBMDéveloppeur/administrateur de mainframe |
Activez l'éditeur. |
| IBMDéveloppeur/administrateur de mainframe |
Activez le flux de log. |
| IBMDéveloppeur/administrateur de mainframe |
Tâche | Description | Compétences requises |
---|---|---|
Installez Precisely sur une EC2 instance. | Pour installer Connect from Precisely sur Amazon Linux AMI pour AmazonEC2, suivez les instructions de la section Install Connect CDC (SQData) UNIX dans la | Général AWS |
Ouvrez les ports TCP /IP. | Pour modifier le groupe de sécurité afin d'inclure les ports Controller Daemon pour l'accès entrant et sortant, suivez les instructions fournies par TCP/IP dans la documentation Precisely | Général AWS |
Créez des répertoires de fichiers. | Pour créer des répertoires de fichiers, suivez les instructions de la section Préparer l'environnement d'application cible | Général AWS |
Créez le fichier de configuration Apply Engine. | Créez le fichier de configuration d'Apply Engine dans le répertoire de travail d'Apply Engine. L'exemple de fichier de configuration suivant montre Apache Kafka comme cible :
Remarque : Pour plus d'informations, consultez la section Sécurité | Général AWS |
Créez des scripts pour le traitement d'Apply Engine. | Créez les scripts permettant au moteur Apply de traiter les données sources et de les répliquer vers la cible. Pour plus d'informations, consultez la section Création d'un script d'application du moteur | Général AWS |
Exécutez les scripts. | Utilisez les | Général AWS |
Tâche | Description | Compétences requises |
---|---|---|
Validez la liste des VSAM fichiers et des tables cibles à CDC traiter. |
| GénéralitésAWS, Mainframe |
Vérifiez que le CDC SQData produit Connect est lié. | Exécutez une tâche de test et vérifiez que le code de retour de cette tâche est 0 (Réussite). Remarque : les messages d'état du moteur Connect CDC SQData Apply doivent afficher des messages de connexion actifs. | GénéralitésAWS, Mainframe |
Tâche | Description | Compétences requises |
---|---|---|
Exécutez le traitement par lots sur le mainframe. | Exécutez le travail d'application par lots à l'aide d'une version modifiéeJCL. Incluez dans les modifications JCL les étapes suivantes :
| GénéralitésAWS, Mainframe |
Vérifiez le flux de données. | Consultez le flux journal pour vérifier que vous pouvez voir les données de modification relatives à la tâche par lots terminée sur le mainframe. | GénéralitésAWS, Mainframe |
Validez les dénombrements pour les modifications du delta source et pour la table cible. | Pour confirmer que les enregistrements sont comptabilisés, procédez comme suit :
| GénéralitésAWS, Mainframe |
Tâche | Description | Compétences requises |
---|---|---|
Exécutez la transaction en ligne dans une CICS région. |
| IBMDéveloppeur mainframe |
Vérifiez le flux de données. | Vérifiez que le flux journal contient des modifications spécifiques des niveaux d'enregistrement. | AWSDéveloppeur mainframe |
Validez le nombre dans la base de données cible. | Surveillez le moteur d'application pour connaître le nombre record de niveaux. | Précisément, Linux |
Validez le nombre d'enregistrements et les enregistrements de données dans la base de données cible. | Interrogez la base de données cible pour valider le nombre d'enregistrements et les enregistrements de données. | Général AWS |
Ressources connexes
VSAMz/OS
(documentation précise) Appliquer le moteur
(documentation précise) Moteur Replicator
(documentation précise) Le flux de log
(IBMdocumentation)
Informations supplémentaires
Exemple de fichier de configuration
Voici un exemple de fichier de configuration pour un flux de log dont l'environnement source est un mainframe et l'environnement cible est Amazon : MSK
-- JOBNAME -- PASS THE SUBSCRIBER NAME -- REPORT progress report will be produced after "n" (number) of Source records processed. JOBNAME VSMTOKFK; --REPORT EVERY 100; -- Change Op has been ‘I’ for insert, ‘D’ for delete , and ‘R’ for Replace. For RDS it is 'U' for update -- Character Encoding on z/OS is Code Page 1047, on Linux and UNIX it is Code Page 819 and on Windows, Code Page 1252 OPTIONS CDCOP('I', 'U', 'D'), PSEUDO NULL = NO, USE AVRO COMPATIBLE NAMES, APPLICATION ENCODING SCHEME = 1208; -- SOURCE DESCRIPTIONS BEGIN GROUP VSAM_SRC; DESCRIPTION COBOL ../copybk/ACCOUNT AS account_file; END GROUP; -- TARGET DESCRIPTIONS BEGIN GROUP VSAM_TGT; DESCRIPTION COBOL ../copybk/ACCOUNT AS account_file; END GROUP; -- SOURCE DATASTORE (IP & Publisher name) DATASTORE cdc://10.81.148.4:2626/vsmcdct/VSMTOKFK OF VSAMCDC AS CDCIN DESCRIBED BY GROUP VSAM_SRC ACCEPT ALL; -- TARGET DATASTORE(s) - Kafka and topic name DATASTORE 'kafka:///MSKTutorialTopic/key' OF JSON AS CDCOUT DESCRIBED BY GROUP VSAM_TGT FOR INSERT; -- MAIN SECTION PROCESS INTO CDCOUT SELECT { SETURL(CDCOUT, 'kafka:///MSKTutorialTopic/key') REMAP(CDCIN, account_file, GET_RAW_RECORD(CDCIN, AFTER), GET_RAW_RECORD(CDCIN, BEFORE)) REPLICATE(CDCOUT, account_file) } FROM CDCIN;
Exemple de paire de clés
Voici un exemple de la façon d'exécuter le JCL pour générer la paire de clés :
//SQDUTIL EXEC PGM=SQDUTIL //SQDPUBL DD DSN=&USER..NACL.PUBLIC, // DCB=(RECFM=FB,LRECL=80,BLKSIZE=21200), // DISP=(,CATLG,DELETE),UNIT=SYSDA, // SPACE=(TRK,(1,1)) //SQDPKEY DD DSN=&USER..NACL.PRIVATE, // DCB=(RECFM=FB,LRECL=80,BLKSIZE=21200), // DISP=(,CATLG,DELETE),UNIT=SYSDA, // SPACE=(TRK,(1,1)) //SQDPARMS DD keygen //SYSPRINT DD SYSOUT= //SYSOUT DD SYSOUT=* //SQDLOG DD SYSOUT=* //*SQDLOG8 DD DUMMY