S/4에 연결 HANA - AWS Supply Chain

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

S/4에 연결 HANA

S/4 HANA 데이터 소스에 연결하려면 먼저 다음 사전 조건을 완료해야 합니다. 그런 다음 Amazon S3 경로를 AWS Supply Chain 자동으로 생성하고 SAP 소스 테이블에서 데이터를 수집합니다.

S/4에 연결하기 위한 사전 조건 HANA

S/4 HANA 데이터 소스에 연결하려면 데이터를 수집하기 전에 다음 사전 조건을 완료해야 합니다.

  1. Amazon용 SAP OData 커넥터를 통해 ODP기반 데이터 추출을 켜도록 SAP S/4 HANA 시스템을 구성합니다 AppFlow. 자세한 내용은 SAP Amazon용 OData 커넥터를 AppFlow 참조하세요.

  2. SAP 데이터 소스 또는 추출기를 구성하고 에 대한 ODP 기반 OData 서비스를 생성 AWS Supply Chain 하여 정보를 연결하고 추출합니다. 자세한 내용은 SAP 데이터 소스 단원을 참조하십시오.

  3. 다음 인증 유형 중 하나로 SAP 시스템을 구성합니다.

    • 기본

    • OAuth

  4. 데이터 추출을 활성화하도록 SAP 시스템의 보안 역할을 구성합니다.

  5. SAP S/4 에 대한 네트워크 연결을 설정합니다HANA. SAP 인스턴스가 보안 에 VPN 있고 연결할 의 포트를 열 수 없는 경우 AWS Supply Chain 를 사용하는 것이 좋습니다 AWS PrivateLink. 를 수동으로 설정하려면 및 AWS PrivateLinkAWS 를 SAP 사용하여 자동으로 설정하려면 섹션을 AWS CloudFormation참조하세요AWS CloudFormation.

S/4 HANA 연결 구성

SAP S/4HANA 데이터 소스에서 데이터를 수집하려면 아래 절차를 따릅니다.

  1. AWS Supply Chain 대시보드의 왼쪽 탐색 창에서 Data Lake 를 선택합니다.

  2. 데이터 레이크 페이지에서 새 소스 추가를 선택합니다.

    공급망 데이터 소스 선택 페이지가 나타납니다.

  3. SAP S/4HANA를 선택합니다.

  4. Next(다음)를 선택합니다.

  5. SAP S/4HANA 연결 세부 정보에서 다음을 입력합니다.

    • 연결 이름 - 이 연결의 이름을 입력합니다.

    • (선택 사항) 연결 설명 – 이 연결의 이름을 입력합니다.

    • 기존 AppFlow 커넥터 사용 - 기존 AppFlow 커넥터를 사용하려면 예를 선택합니다.

    • Application Host URL - SAP 계정의 를 입력합니다URL.

    • Application Service Path - SAP 애플리케이션 서비스 경로를 입력합니다.

    • 포트 번호 - SAP 포트 번호를 입력합니다.

    • 클라이언트 번호 - SAP 클라이언트 번호를 입력합니다.

    • 로그온 언어 - SAP 언어 코드를 입력합니다. 예를 들어 영어의 경우 EN을 입력합니다.

    • PrivateLink - SAP 서버와 AWS 계정 호스팅 간의 프라이빗 연결을 활성화하려면 활성화를 선택합니다 AWS Supply Chain.

    • 사용자 이름 - SAP 계정의 사용자 이름을 입력합니다.

    • 암호 - SAP 계정의 암호를 입력합니다.

      참고

      Amazon AppFlow 은 사용자가 제공한 SAP 사용자 이름과 암호를 사용하여 에 연결합니다SAP.

  6. [Connect to SAP]를 선택합니다.

    SAP 사용자 이름과 암호를 올바르게 입력하면 연결 성공 메시지가 나타납니다.

  7. (선택 사항) 선택적 AppFlow 구성 , 1단계 - JSON 템플릿 파일 다운로드에서 기존 JSON 템플릿 파일 다운로드를 선택하여 appflow 수집 설정을 수정합니다.

    참고

    자체 편집기를 사용하여 .json 파일을 편집할 수 있습니다. AWS Supply Chain에서는 .json 파일을 편집할 수 없습니다.

    .json 파일을 업데이트한 후 2단계 - 수정된 JSON 템플릿 파일 업로드에서 업로드할 파일 찾아보기를 선택합니다.

    참고

    이 업로드가 실패한 경우 업로드 요약에 .json 파일의 오류 또는 충돌이 표시됩니다. .json 파일을 업데이트하여 문제를 해결하고 파일을 다시 업로드할 수 있습니다.

    다음은 필요한 일정, 데이터 흐름 및 소스 테이블이 포함된 샘플 .json 파일입니다.

    { "schedule" : { "scheduleExpression" : "rate(1days)", // scheduleExpression key should be available and the value cannot be null/empty. Format starts with rate and having time values in minutes, hours, or days. For example, rate(1days) "scheduleStartTime" : null // Supported format - "yyyy-MM-dd'T'hh:mm:ss[+|-]hh:mm". For example, 2022-04-26T13:00:00-07:00. ScheduleStartTime should atleast be 5 minutes after current time. A null value will automatically set the start time as 5 minutes after the connection creation time }, "dataFlows" : [ // DataFlows cannot be null or empty. Make sure to choose from the list below "Company-Company", "Geography-Geography", "Inventory-Inventory Level", "Inventory-Inventory Policy", "Outbound-Outbound Order Line", "Outbound-Outbound Shipment", "Product-Product", "Product-Product Hierarchy", "Production Order-Inbound Order", "Production Order-Inbound Order Line", "Purchase Order-Inbound Order", "Purchase Order-Inbound Order Line", "Purchase Order-Inbound Order Line Schedule", "Reference-Reference Fields", "Shipment-Shipment", "Site-Site", "Site-Transportation Lane", "Trading Partner-Trading Partner", "Transfer Order-Inbound Order Line", "Vendor Management-Vendor Lead Time", "Vendor Management-Vendor Product", "Product-Product UOM" ], "sourceTables" : [ // sourceTables cannot be empty { "tableName" : "SomeString", // Should be an existing table name from the SAP instance "extractType" : "DELTA", // Should either be DELTA or FULL "tableCols" : [ // TableCols cannot be empty. Enter valid column names for the table "col1", "col2", "col3" ], "filters" : [// Optional field "colName" : "col1", // colName value should be part of tableCols "dataType" : "String", // Should contain values `STRING` or `DATETIME` "value" : "String", "operator" : "String" // Choose a string value from the pre-defined value of "PROJECTION", "LESS_THAN", "CONTAINS","GREATER_THAN","LESS_THAN_OR_EQUAL_TO","GREATER_THAN_OR_EQUAL_TO","EQUAL_TO","NOT_EQUAL_TO","ADDITION","MULTIPLICATION","DIVISION","SUBTRACTION","MASK_ALL","MASK_FIRST_N","MASK_LAST_N","VALIDATE_NON_NULL","VALIDATE_NON_ZERO","VALIDATE_NON_NEGATIVE",or "VALIDATE_NUMERIC","NO_OP"; ] }, { // sourceTables with same keys - tableName, extractType, tableCols, filters(not mandatory) } ] }
  8. Amazon S3 버킷 결제에서 Amazon S3 결제 정보를 검토한 다음, 승인을 선택합니다.

  9. Next(다음)를 선택합니다.

  10. 데이터 매핑에서 시작하기를 선택합니다.

  11. 참고

    필수 필드는 이미 매핑되어 있습니다. 기본 변환 레시피를 구체적으로 변경하려는 경우에만 이 단계를 수행하세요.

    매핑 레시피 페이지의 필드 매핑에서 기본 변환 레시피를 확인할 수 있습니다.

    대상 필드를 추가로 매핑하려면 매핑 추가를 선택합니다. 필수 대상 필드는 필수입니다. 사용자 지정 대상 필드를 더 추가하려면 대상 필드를 선택합니다.

  12. 변환 레시피의 소스 필드 값과 데이터 매핑을 확인하려면 샘플 데이터를 업로드하면 됩니다. 매핑 레시피 페이지의 샘플 데이터 업로드에서 파일 찾아보기 또는 파일 끌어 놓기를 선택합니다. 샘플 데이터 파일에는 필수 파라미터와 소스 필드 이름이 포함되어야 합니다.

  13. 모두 수락하고 계속을 선택합니다.

  14. 검토 및 확인에서 데이터 연결 요약을 볼 수 있습니다. 데이터 필드 매핑을 편집하려면 데이터 매핑으로 돌아가기를 선택합니다.

  15. (선택 사항) 레시피 작업에서 다음을 수행할 수 있습니다.

    • 레시피 파일 다운로드 - 다운로드를 선택하여 에서 레시피 파일을 SQL 텍스트 파일로 편집합니다.

      참고

      내장 SQL 함수에 대한 자세한 내용은 Spark 를 SQL참조하세요.

    • 레시피 파일 업로드 - 파일 찾아보기를 선택하거나 편집한 레시피 텍스트 파일을 끌어서 놓습니다. 편집한 레시피 파일을 업로드하고 데이터 필드 매핑을 수정하려면 업로드 확인을 선택합니다.

  16. 수집을 위해 SAP 소스 데이터를 업로드해야 하는 Amazon S3 위치 경로를 검토하려면 확인을 선택하고 데이터 수집을 구성합니다. 또는 나중에 데이터 모으기 확인 및 구성을 선택할 수도 있습니다. 언제든지 데이터 모으기 정보를 볼 수 있습니다. AWS Supply Chain 대시보드에서 연결 을 선택합니다. 데이터를 수집하려는 연결 데이터 흐름을 선택하고 세로 줄임표를 선택한 다음, 모으기 설정을 선택합니다.

SAP 데이터 소스

정보를 연결하고 추출 AWS Supply Chain 하도록 에 대해 다음 SAP 테이블 소스를 구성합니다.

참고

SAP 데이터 소스를 검색할 때 데이터 소스 이름 앞에 접두사를 붙입니다EntityOf. 예를 들어 데이터 소스 0BP_DEF_ADDRESS_ATTR의 경우 엔터티 이름은 EntityOf0BP_DEF_ADDRESS_ATTR여야 합니다.

Amazon이 각 SAP 데이터 소스를 AppFlow 추출하면 엔터티 이름 형식이 정보를 추출하는 데 사용됩니다. 예를 들어 0BP_DEF__에서 데이터를 추출하기 위해 엔터티 경로 /0BP___에서ADDRESSATTR 데이터가 추출됩니다. sap/opu/odata/sap/Z0BP_DEF_ADDRESS_ATTR_SRV/EntityOfDEFADDRESSATT

SAP 데이터 소스 SAP 데이터 소스 설명 SAP 소스 테이블 OData 서비스 이름 BW 데이터 소스 SAP 데이터 델타/전체

0BP_DEF_ADDRESS_ATTR

BP 표준 주소 추출

NA

Z0BP_DEF_ADDRESS_ATTR_SRV

데이터 소스

마스터 데이터

델타

0BPARTNER_ATTR

BP: BW 추출 ​중앙 데이터

NA

Z0BPARTNER_ATTR_SRV

데이터 소스

마스터 데이터

델타

0BPARTNER_TEXT

BP: DataSource 비즈니스 파트너 텍스트

NA

Z0BPARTNER_TEXT_SRV

데이터 소스

마스터 데이터

델타

0CO_PC_ACT_05

자재 평가:​ 가격

NA

Z0CO_PC_ACT_05_SRV

데이터 소스

마스터 데이터

전체

0COMP_CODE_TEXT

회사 코드 텍스트

NA

Z0COMP_CODE_TEXT_SRV

데이터 소스

마스터 데이터

전체

0CUSTOMER_ATTR

고객

NA

Z0CUSTOMER_ATTR_SRV

데이터 소스

마스터 데이터

델타

0MAT_VEND_ATTR

자재 또는 공급업체

NA

Z0MAT_VEND_ATTR_SRV

데이터 소스

마스터 데이터

델타

0MATERIAL_ATTR

Material

NA

Z0MATERIAL_ATTR_SRV

데이터 소스

마스터 데이터

델타

0MATERIAL_TEXT

자재 텍스트

NA

Z0MATERIAL_TEXT_SRV

데이터 소스

마스터 데이터

델타

0PURCH_ORG_TEXT

구매 조직 텍스트

NA

Z0PURCH_ORG_TEXT_SRV

데이터 소스

마스터 데이터

전체

0VENDOR_ATTR

공급 업체

NA

Z0VENDOR_ATTR_SRV

데이터 소스

마스터 데이터

델타

2LIS_02_HDR

구매 데이터(헤더 레벨)

NA

Z2LIS_02_HDR_SRV

데이터 소스

트랜잭션

델타

2LIS_02_ITM

구매 데이터(항목 레벨)

NA

Z2LIS_02_ITM_SRV

데이터 소스

트랜잭션

델타

2LIS_02_SCL

구매 데이터(일정 라인 레벨)

NA

Z2LIS_02_SCL_SRV

데이터 소스

트랜잭션

델타

2LIS_02_SCN

일정 라인 확인

NA

Z2LIS_02_SCN_SRV

데이터 소스

트랜잭션

델타

2LIS_03_BF

재고 관리의 상품 이동

NA

Z2LIS_03_ BF_SRV

데이터 소스

트랜잭션

델타

2LIS_04_P _MATNR

PP/PP-PI의 자재 보기

NA

Z2LIS_04_P_MATNR_SRV

데이터 소스

트랜잭션

델타

2LIS_08TRFKP

항목 레벨의 발송 비용

NA

Z2LIS_08TRFKP_SRV

데이터 소스

트랜잭션

델타

2LIS_08TRTLP

발송: 섹션별 배송 항목 데이터

NA

Z2LIS_08TRTLP_SRV

데이터 소스

트랜잭션

델타

2LIS_08TRTK

발송: 헤더 데이터

NA

Z2LIS_08TRTK_SRV

데이터 소스

트랜잭션

델타

2LIS_11 _VAHDR

판매 문서 헤더

NA

Z2LIS_11 _VAHDR_SRV

데이터 소스

트랜잭션

델타

2LIS_11 _VAITM

판매 문서 항목

NA

Z2LIS_11_VAITM_SRV

데이터 소스

트랜잭션

델타

2LIS_12_VCITM

배송 항목 데이터

NA

Z2LIS_12 _VCITM_SRV

데이터 소스

트랜잭션

델타

ZADRC

주소

ADRC

ZADRC_SRV

마스터 데이터

전체

ZBUT021_FS

파트너 주소

BUT021_FS

ZBUT021_FS _SRV

마스터 데이터

전체

ZCDHDR

문서 헤더 변경

CDHDR

ZCDHDR_SRV

마스터 데이터

델타

ZEINA

구매 정보 레코드: 일반 데이터

EINA

ZEINA_SRV

마스터 데이터

전체

ZEINE

구매 정보 레코드: 구매 조직 데이터

ZV_EINE

ZEINE_SRV

마스터 데이터

전체

ZEKKO

구매 문서 헤더

ZV_EKKO

ZEKKO_SRV

트랜잭션

델타

ZEKPO

구매 문서 항목

ZV_EKPO

ZEKPO_SRV

트랜잭션

델타

ZEQUI

장비 마스터 데이터

EQUI

ZEQUI_SRV

마스터 데이터

전체

ZGEOLOC

지리적 위치

GEOLOC

ZGEOLOC_SRV

마스터 데이터

전체

ZLIKP

배송 헤더 데이터

LIKP

ZLIKP_SRV

트랜잭션

델타

ZLIPS

배송: 항목 데이터

ZV_LIPS

ZLIPS_SRV

트랜잭션

델타

ZMDRP_​NODTT

네트워크의 노드 유형DRP

MDRP_NODTT

ZMDRP_NODTT​_SRV

마스터 데이터

전체

ZMARC

자재의 플랜트 데이터

ZQ_MARC

ZMARC_SRV

마스터 데이터

전체

ZMARD

자재의 보관 위치 데이터

ZQ_MARD

ZMARD_SRV

마스터 데이터

전체

ZMCHB

배치 재고

ZQ_MCHB

ZMCHB_SRV

마스터 데이터

전체

ZT001W

플랜트

T001W

ZT001W_SRV

마스터 데이터

전체

ZT005T

국가 이름

T005T

ZT005T_SRV

마스터 데이터

전체

ZT141T

자재 상태 설명

T141T

ZT141T_SRV

마스터 데이터

전체

ZT173T

운송 배송 유형 텍스트

T173T

ZT173T_SRV

마스터 데이터

전체

ZT179

자재: 제품 계층 구조

T179

ZT179_SRV

마스터 데이터

전체

ZT179T

자재: 제품 계층 구조 텍스트

T179T

ZT179T_SRV

마스터 데이터

전체

ZT370U

장비 범주 텍스트

T370U

ZT370U_SRV

마스터 데이터

전체

ZT618T

운송 방식 설명

T618T

ZT618T_SRV

마스터 데이터

전체

ZTVRAB

경로 단계

TVRAB

ZTVRAB_SRV

마스터 데이터

전체

ZTVRO

경로

TVRO

ZTVRO_SRV

마스터 데이터

전체

ZVALW

경로 일정

VALW

ZVALW_SRV

마스터 데이터

전체

ZVBBE

판매 요건: 개별 레코드

VBBE

ZVBBE_SRVs

마스터 데이터

전체

ZINB_​SHIPMENT

발송 헤더 및 항목(인바운드)

조인 조건이 있는 ZV_INB_SHIPMENTbased: VTTK.MANDT = VTTP.MANDT및 VTTK.TKNUM = VTTP.TKNUM

ZINB_SHIPMENT​_SRV

트랜잭션

전체

ZAUFK

주문 마스터 데이터

AUFK

ZAUFK_SRV

마스터 데이터

전체

ZMARM

재료 측정 단위

MARM

ZMARM_SRV

마스터 데이터

전체

ZEBAN

구매 요청

EBAN

ZEBAN_SRV

트랜잭션 데이터

델타