다음을 통한 기계 학습 모델 해석 가능성 AWS - AWS 규범적 지침

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

다음을 통한 기계 학습 모델 해석 가능성 AWS

Adewale Akinfaderin, Matthew Chasse, Michele Donini 및 Benjamin Fenker, Amazon Web Services(AWS)

2022년 2월(문서 이력)

최종 사용자는 모델이 특정 예측을 하는 이유를 이해할 수 있을 때 책임감 있게 기계 학습 알고리즘을 사용하기가 더 쉽습니다. 모델 개발자의 경우, 모델이 예측하는 방식에 대한 통찰력을 높이면 특성 추출 및 선택에 도움이 될 수 있습니다. 신뢰, 견고성, 인과관계, 정보성, 모델 이전 가능성, 공정하고 윤리적인 의사 결정과 같은 표준에 대한 설명이 전제 조건이 되어야 한다는 점을 제외하면 모델을 설명하는 것이 무엇을 의미하는지에 대한 표준 정의는 없습니다. 해석을 생성하는 몇 가지 일반적인 방법이 있지만 각각 약점과 강점이 다릅니다. 이는 추정치 못한 일이 아닙니다. 일반적으로 복잡한 모델을 해석할 때 사용하는 경험적 또는 일련의 단순화 가정이 동시에 해석의 부정확성의 원인이 될 수 있습니다.

이 가이드는 기계 학습 전문가를 위한 모델 해석 가능력 방법에 대한 일반적인 지침을 제공합니다. 간결하게 설명하기 위해 이 가이드에서는 많은 세부 정보와 구현 세부 사항을 생략하고 특정 사용 사례를 더 심층적으로 조사하는 데 도움이 되는 참고 자료를 제공합니다.

목표 업무 성과

의료 및 금융 산업과 같은 규제에 따라 원하는 업무 성과로서 모델 해석력이 필요한 경우도 있습니다. 또한 모델 해석력은 모델 개발자와 사용자 모두가 활용할 수 있는 추가적인 통찰력을 제공합니다. 모델 해석력 도입을 위한 추가적인 목표 업무 성과는 다음과 같습니다.

  • 공정성이 중요한 경우, 고객 웰빙에 영향을 미치는 중요한 결정(예: 의료 및 금융 분야) 을 정당화하십시오.

  • 업무 의사 결정 시 모델의 부정확성과 왜곡을 통제합니다.

  • 데이터 과학자가 모델 해석을 사용하면 모델 개발 및 특성 추출을 개선하고 가속화할 수 있습니다.

  • 일반적인 모델 동작의 원인을 찾아내고 데이터와 모델 모두에 대한 새로운 통찰력을 제공하십시오.

이러한 업무 성과는 [1]에서 확인할 수 있는 설명 가능성의 4가지 이유와 직접적으로 연결됩니다.