PyTorch - 딥 러닝 AMI

PyTorch

PyTorch 활성화

프레임의 안정적인 Conda 패키지가 출시되면 이 패키지가 테스트되고 DLAMI에 미리 설치됩니다. 테스트되지 않은 최신 야간 구축을 실행하려는 경우 수동으로 PyTorch의 야간 구축 설치(실험)를 수행할 수 있습니다.

현재 설치된 프레임워크를 활성화하려면 Conda를 이용한 Deep Learning AMI에서 다음 지침을 따르십시오.

CUDA 10 및 MKL-DNN이 있는 Python 3의 PyTorch인 경우 다음 명령을 실행하십시오.

$ source activate pytorch_p36

CUDA 10 및 MKL-DNN이 있는 Python 2의 PyTorch인 경우 다음 명령을 실행하십시오.

$ source activate pytorch_p27

iPython 터미널을 시작합니다.

(pytorch_p36)$ ipython

빠른 PyTorch 프로그램을 실행합니다.

import torch x = torch.rand(5, 3) print(x) print(x.size()) y = torch.rand(5, 3) print(torch.add(x, y))

출력된 최초 임의 어레이와 그 키기, 그리고 또 다른 임의 어레이가 추가된 것을 볼 수 있습니다.

PyTorch의 야간 구축 설치(실험)

야간 구축에서 PyTorch를 설치하는 방법

Conda를 이용한 Deep Learning AMI의 두 가지 PyTorch Conda 환경 중 하나 또는 모두에 최신 PyTorch 빌드를 설치할 수 있습니다.

    • (Python 3에 대한 옵션) - Python 3 PyTorch 환경을 활성화합니다.

      $ source activate pytorch_p36
    • (Python 2에 대한 옵션) - Python 2 PyTorch 환경을 활성화합니다.

      $ source activate pytorch_p27
  1. 나머지 단계에서는 pytorch_p36 환경을 사용하고 있다고 가정합니다. 현재 설치된 PyTorch를 제거합니다.

    (pytorch_p36)$ pip uninstall torch
    • (GPU 인스턴스에 대한 옵션) - CUDA 10.0이 포함된 PyTorch의 최신 야간 빌드를 설치합니다.

      (pytorch_p36)$ pip install torch_nightly -f https://download.pytorch.org/whl/nightly/cu100/torch_nightly.html
    • (CPU 인스턴스에 대한 옵션) - GPU가 없는 인스턴스에 대한 PyTorch의 최신 야간 구축을 설치합니다.

      (pytorch_p36)$ pip install torch_nightly -f https://download.pytorch.org/whl/nightly/cpu/torch_nightly.html
  2. 최신 야간 구축을 성공적으로 설치했는지 확인하려면 IPython 터미널을 시작하고 PyTorch의 버전을 점검합니다.

    (pytorch_p36)$ ipython
    import torch print (torch.__version__)

    출력은 1.0.0.dev20180922와 비슷하게 인쇄됩니다.

  3. PyTorch 야간 구축이 MNIST 예제에 효과적으로 작동하는지 확인하려면 PyTorch의 예제 리포지토리에서 테스트 스크립트를 실행할 수 있습니다.

    (pytorch_p36)$ cd ~ (pytorch_p36)$ git clone https://github.com/pytorch/examples.git pytorch_examples (pytorch_p36)$ cd pytorch_examples/mnist (pytorch_p36)$ python main.py || exit 1

추가 자습서

DLAMI 홈 디렉터리의 Conda를 이용한 Deep Learning AMI 자습서 폴더에서 더 많은 자습서를 찾을 수 있습니다. 추가 자습서와 예제는 프레임워크의 공식 설명서, PyTorch 설명서, 그리고 PyTorch 웹 사이트를 참조하십시오.