Skip to content

Commit

Permalink
Update remaining tf.distribute.Strategy in Korean
Browse files Browse the repository at this point in the history
Following commit id 882fd21
  • Loading branch information
rapsealk authored Jul 29, 2020
1 parent 882fd21 commit 705a3c6
Showing 1 changed file with 9 additions and 16 deletions.
25 changes: 9 additions & 16 deletions site/ko/guide/distributed_training.ipynb
Original file line number Diff line number Diff line change
Expand Up @@ -136,12 +136,12 @@
"* 동기 훈련 대 비동기 훈련: 분산 훈련을 할 때 데이터를 병렬로 처리하는 방법은 크게 두 가지가 있습니다. 동기 훈련을 할 때는 모든 워커(worker)가 입력 데이터를 나누어 갖고 동시에 훈련합니다. 그리고 각 단계마다 그래디언트(gradient)를 모읍니다. 비동기 훈련에서는 모든 워커가 독립적으로 입력 데이터를 사용해 훈련하고 각각 비동기적으로 변수들을 갱신합니다. 일반적으로 동기 훈련은 올 리듀스(all-reduce)방식으로 구현하고, 비동기 훈련은 파라미터 서버 구조를 사용합니다.\n",
"* 하드웨어 플랫폼: 한 장비에 있는 다중 GPU로 나누어 훈련할 수도 있고, 네트워크로 연결된 (GPU가 없거나 여러 개의 GPU를 가진) 여러 장비로 나누어서, 또 혹은 클라우드 TPU에서 훈련할 수도 있습니다.\n",
"\n",
"이런 사용 형태들을 위하여, 현재 5가지 전략을 사용할 수 있습니다. 이후 내용에서 현재 TF 2.0 베타에서 상황마다 어떤 전략을 지원하는지 이야기하겠습니다. 일단 간단한 개요는 다음과 같습니다.\n",
"이런 사용 형태들을 위하여, 현재 6가지 전략을 사용할 수 있습니다. 이후 내용에서 현재 TF 2.2에서 상황마다 어떤 전략을 지원하는지 이야기하겠습니다. 일단 간단한 개요는 다음과 같습니다.\n",
"\n",
"| 훈련 API \t| MirroredStrategy \t| TPUStrategy \t| MultiWorkerMirroredStrategy \t| CentralStorageStrategy \t| ParameterServerStrategy \t|\n",
"|:-----------------------\t|:-------------------\t|:---------------------\t|:---------------------------------\t|:---------------------------------\t|:--------------------------\t|\n",
"| 훈련 API \t| MirroredStrategy \t| TPUStrategy \t| MultiWorkerMirroredStrategy \t| CentralStorageStrategy \t| ParameterServerStrategy \t|\n",
"|:--------------------------\t|:-------------------\t|:---------------------\t|:---------------------------------\t|:---------------------------------\t|:--------------------------\t|\n",
"| **Keras API** \t| 지원\t| 지원\t| 실험 기능으로 지원\t| 실험 기능으로 지원\t| 2.3 이후 지원 예정\t|\n",
"| **사용자 정의 훈련 루프** \t| 지원\t| 지원\t| 실험 기능으로 지원\t| 실험 기능으로 지원\t| 2.3 이후 지원 예정\t|\n",
"| **사용자 정의 훈련 루프** \t| 지원\t| 지원\t| 실험 기능으로 지원\t| 실험 기능으로 지원\t| 2.3 이후 지원 예정\t|\n",
"| **Estimator API** \t| 제한적으로 지원\t| 미지원\t| 제한적으로 지원\t| 제한적으로 지원\t| 제한적으로 지원\t|"
]
},
Expand Down Expand Up @@ -545,12 +545,9 @@
"source": [
"### 현재 어떤 것이 지원됩니까?\n",
"\n",
"TF 2.0 베타 버전에서는 케라스와 함께 `MirroredStrategy`와 `CentralStorageStrategy`, `MultiWorkerMirroredStrategy`를 사용하여 훈련할 수 있습니다. `CentralStorageStrategy`와 `MultiWorkerMirroredStrategy`는 아직 실험 기능이므로 추후 바뀔 수 있습니다.\n",
"다른 전략도 조만간 지원될 것입니다. API와 사용 방법은 위에 설명한 것과 동일할 것입니다.\n",
"\n",
"| 훈련 API \t| MirroredStrategy \t| TPUStrategy \t| MultiWorkerMirroredStrategy \t| CentralStorageStrategy \t| ParameterServerStrategy \t|\n",
"|----------------\t|---------------------\t|-----------------------\t|-----------------------------------\t|-----------------------------------\t|---------------------------\t|\n",
"| 사용자 정의 훈련 루프\t| 지원\t| 지원\t| 실험 기능으로 지원\t| 실험 기능으로 지원\t| 2.3 이후 지원 예정\t|\n",
"| Keras API\t| 지원\t| 지원\t| 실험 기능으로 지원\t| 실험 기능으로 지원\t| 2.3 이후 지원 예정\t|\n",
"\n",
"### 예제와 튜토리얼\n",
"\n",
Expand Down Expand Up @@ -759,11 +756,9 @@
},
"source": [
"### 현재 어떤 것이 지원됩니까?\n",
"TF 2.0 베타 버전에서는 사용자 정의 훈련 루프와 함께 위에서 설명한 `MirroredStrategy`, 그리고 `TPUStrategy`를 사용할 수 있습니다. 또한 `MultiWorkerMirorredStrategy`도 추후 지원될 것입니다.\n",
"\n",
"| 훈련 API \t| MirroredStrategy \t| TPUStrategy \t| MultiWorkerMirroredStrategy \t| CentralStorageStrategy \t| ParameterServerStrategy \t|\n",
"| 훈련 API \t| MirroredStrategy \t| TPUStrategy \t| MultiWorkerMirroredStrategy \t| CentralStorageStrategy \t| ParameterServerStrategy \t|\n",
"|:-----------------------\t|:-------------------\t|:-------------------\t|:-----------------------------\t|:------------------------\t|:-------------------------\t|\n",
"| 사용자 정의 훈련 루프 \t| 지원 \t| 지원 \t| 2.0 RC 지원 예정 \t| 2.0 RC 지원 예정 \t| 아직 미지원 \t|\n",
"| 사용자 정의 훈련 루프 \t| 지원 \t| 지원 \t| 실험적으로 지원 \t| 실험적으로 지원 \t| 2.3 이후 지원 예정 \t|\n",
"\n",
"### 예제와 튜토리얼\n",
"사용자 정의 훈련 루프와 함께 분산 전략을 사용하는 예제들입니다.\n",
Expand Down Expand Up @@ -882,11 +877,9 @@
"source": [
"### 현재 어떤 것이 지원됩니까?\n",
"\n",
"TF 2.0 베타 버전에서는 추정기와 함께 모든 전략을 제한적으로 지원합니다. 기본적인 훈련과 평가는 동작합니다. 하지만 스캐폴드(scaffold) 같은 고급 기능은 아직 동작하지 않습니다. 또한 다소 버그가 있을 수 있습니다. 현재로써는 추정기와 함께 사용하는 것을 활발히 개선할 계획은 없습니다. 대신 케라스나 사용자 정의 훈련 루프 지원에 집중할 계획입니다. 만약 가능하다면 `tf.distribute` 사용시 이 API들을 먼저 고려하여 주십시오.\n",
"\n",
"| 훈련 API \t| MirroredStrategy \t| TPUStrategy \t| MultiWorkerMirroredStrategy \t| CentralStorageStrategy \t| ParameterServerStrategy \t|\n",
"| 훈련 API \t| MirroredStrategy \t| TPUStrategy \t| MultiWorkerMirroredStrategy \t| CentralStorageStrategy \t| ParameterServerStrategy \t|\n",
"|:---------------\t|:------------------\t|:-------------\t|:-----------------------------\t|:------------------------\t|:-------------------------\t|\n",
"| 추정기 API \t| 제한적으로 지원 | 제한적으로 지원 | 제한적으로 지원 | 제한적으로 지원 | 제한적으로 지원 |\n",
"| Estimator API \t| 제한적으로 지원 | 미지원 | 제한적으로 지원 | 제한적으로 지원 | 제한적으로 지원 |\n",
"\n",
"### 예제와 튜토리얼\n",
"다음은 추정기와 함께 다양한 전략을 사용하는 방법을 처음부터 끝까지 보여주는 예제들입니다.\n",
Expand Down

0 comments on commit 705a3c6

Please sign in to comment.