-
Notifications
You must be signed in to change notification settings - Fork 259
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
fixing translations #623
fixing translations #623
Conversation
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
모든 문장들을 살펴보지는 못했습니다. 번역이 매끄럽지 않거나 내용이 이어지지 않는 문장들 몇 개를 살펴봤는데 원문과 비교해보면 여러 이상한 부분들이 있었습니다;
기존 번역들이 원문을 따르지 않은 경우가 많아서, 우선 눈에 보이는 부분 위주로 수정하고 (이 문서뿐만 아니라 다른 문서들도) 전체적으로 살펴보는 기회를 나중에 다시 가져보는 것도 좋을 것 같습니다.
|
||
###################################################################### | ||
# 단순한 버전의 아마 이럴것입니다. | ||
# 모자란 버전은 보통 이럴것입니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
단순한과 모자란 사이의 어딘가쯤일거 같은데, naive version
을 옆에 명시해주는건 어떨까요?
|
||
# 이 튜토리얼에서는 사용자가 역전파가 이론상에서 작동하는 방식에 익숙하다고 가정합니다. 아니라면, 아래의 자료를 먼저 읽어보세요. | ||
# 이 튜토리얼에서는 사용자가 역전파가 이론상에서 작동하는 방식에 익숙하다고 가정합니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
원문이 This tutorial assumes you are familiar with how backpropagation works in theory.
인데요,
이 튜토리얼에서는 독자가 역전파가 어떻게 동작하는지를 이론적으로 (잘) 알고 있다고 가정합니다.
정도는 어떨까요?
# | ||
# 사실, 이 그래프 자체로는 가끔은 그다지 많은 메모리를 사용하진 않습니다. 여타의 텐서들을 복제하지 않는 것 처럼요. | ||
# 사실, 가끔씩 계산 그래프 그 자체로는 복제 되지 않은 다른 tensor처럼 많은 메모리를 사용하지는 않습니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
원문이 아래와 같은 식인데요, 용어집에는 없지만 computational graph
를 연산 그래프
로 번역하고 있어서, 아래와 같은 식은 어떨까요?
In fact, the graph in itself sometimes does not consume much more memory as it never copies any tensors.
# 사실, 가끔씩 계산 그래프 그 자체로는 복제 되지 않은 다른 tensor처럼 많은 메모리를 사용하지는 않습니다. | |
# 실제로 때때로 (연산) 그래프 자체는 tensor들을 전혀 복제하지 않기 때문에 많은 메모리를 소모하지는 않습니다. |
# 그러나, 그래프는 *참조* 를 유지할 수 있습니다. | ||
# 그렇지 않으면 범위를 벗어난 텐서를 : **저장된 텐서** 라고 명명할 수 있습니다. | ||
# 그렇지 않으면 범위를 벗어난 tensor를 : **저장된 tensor** 라고 명명할 수 있습니다. |
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
원문의 한 문장을 쪼갠 것으로 보이는데요, 이전 문장과 함께 봐도 saved tensor
에 대한 개념이 잘 전달되지 않는 것 같아서 변경이 필요할 것 같습니다.
However, the graph can keep references to tensors that would otherwise have gone out of scope: those are referred to as saved tensors.
대략 아래와 같은 정도는 어떨까요?
하지만, 그래프는 범위에서 벗어난 tensor들에 대한 *참조(reference)* 는 유지할 수 있습니다 : 이러한 tensor들을 **저장된 tensor(saved tensor)** 라고 합니다.
There was a problem hiding this comment.
Choose a reason for hiding this comment
The reason will be displayed to describe this comment to others. Learn more.
👍
라이선스 동의
변경해주시는 내용에 BSD 3항 라이선스가 적용됨을 동의해주셔야 합니다.
더 자세한 내용은 기여하기 문서를 참고해주세요.
동의하시면 아래
[ ]
를[x]
로 만들어주세요.관련 이슈 번호
이 Pull Request와 관련있는 이슈 번호를 적어주세요.
이슈 또는 PR 번호 앞에 #을 붙이시면 제목을 바로 확인하실 수 있습니다. (예. #999 )
PR 종류
이 PR에 해당되는 종류 앞의
[ ]
을[x]
로 변경해주세요.PR 설명
이 PR로 무엇이 달라지는지 대략적으로 알려주세요.
용어집에 맞게 다듬고, 번역을 조금 매끄럽게 바꾸었습니다