Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

🌐 [i18n-KO] Translated prompting.md to Korean #32294

Merged
merged 10 commits into from
Aug 7, 2024

Conversation

chhaewxn
Copy link
Contributor

@chhaewxn chhaewxn commented Jul 29, 2024

What does this PR do?

Translated the prompting.md file of the documentation to Korean.
Thank you in advance for your review.

Part of #20179

Before reviewing

  • Check for missing / redundant translations (번역 누락/중복 검사)
  • Grammar Check (맞춤법 검사)
  • Review or Add new terms to glossary (용어 확인 및 추가)
  • Check Inline TOC (e.g. [[lowercased-header]])
  • Check live-preview for gotchas (live-preview로 정상작동 확인)

Who can review? (Initial)

@010kim, @chhaewxn, @boyunJang, @jeongiin, @harheem

Before submitting

  • This PR fixes a typo or improves the docs (you can dismiss the other checks if that's the case).
  • Did you read the contributor guideline,
    Pull Request section?
  • Was this discussed/approved via a Github issue or the forum? Please add a link
    to it if that's the case.
  • Did you make sure to update the documentation with your changes? Here are the
    documentation guidelines, and
    here are tips on formatting docstrings.
  • Did you write any new necessary tests?

Who can review? (Final)

@stevhliu May you please review this PR?

Copy link
Contributor

@harheem harheem left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

채원님! 멋진 번역 감사드립니다 🤗
대부분의 문장이 자연스럽게 술술 읽히는 것을 보고 번역에 신경썼다는 느낌이 들었습니다 👍🏻

소소하게 고칠 부분이 있어서 제안을 남겨보았습니다 ㅎㅎ

  • 대규모 언어 모델(LLM) -> 대규모 언어 모델, 자연어 처리(NLP) -> 자연어 처리로 통일을 하였습니다.
  • doctest 라는 주석을 제거하였습니다.
  • 번역이 안된 타이틀을 번역하였습니다.
  • 부자연스러운 표현을 자연스럽게 변경하였습니다.
  • 십시오~ -> 세요~로 어체를 통일하였습니다.


[[open-in-colab]]

Falcon, LLaMA 등의 대규모 언어 모델(LLM)은 사전 훈련된 트랜스포머 모델로, 초기에는 주어진 입력 텍스트에 대해 다음 토큰을 예측하도록 훈련됩니다. 이들은 보통 수십억 개의 매개변수를 가지고 있으며, 장기간에 걸쳐 수조 개의 토큰으로 훈련되었습니다. 그 결과, 이 모델들은 매우 강력하고 다재다능해져서, 자연어 프롬프트로 모델에 지시하여 다양한 자연어 처리(NLP) 작업을 즉시 수행할 수 있습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
Falcon, LLaMA 등의 대규모 언어 모델(LLM)은 사전 훈련된 트랜스포머 모델로, 초기에는 주어진 입력 텍스트에 대해 다음 토큰을 예측하도록 훈련됩니다. 이들은 보통 수십억 개의 매개변수를 가지고 있으며, 장기간에 걸쳐 수조 개의 토큰으로 훈련되었습니다. 그 결과, 이 모델들은 매우 강력하고 다재다능해져서, 자연어 프롬프트로 모델에 지시하여 다양한 자연어 처리(NLP) 작업을 즉시 수행할 수 있습니다.
Falcon, LLaMA 등의 대규모 언어 모델은 사전 훈련된 트랜스포머 모델로, 초기에는 주어진 입력 텍스트에 대해 다음 토큰을 예측하도록 훈련됩니다. 이들은 보통 수십억 개의 매개변수를 가지고 있으며, 장기간에 걸쳐 수조 개의 토큰으로 훈련되었습니다. 그 결과, 이 모델들은 매우 강력하고 다재다능해져서, 자연어 프롬프트로 모델에 지시하여 다양한 자연어 처리 작업을 즉시 수행할 수 있습니다.

Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

'즉시' 대신 '바로' 사용하거나 없어도 될거같아요!

docs/source/ko/tasks/prompting.md Outdated Show resolved Hide resolved
docs/source/ko/tasks/prompting.md Outdated Show resolved Hide resolved

<Tip>

프롬프트 엔지니어링은 대규모 언어 모델(LLM) 출력 최적화 과정의 일부일 뿐입니다. 또 다른 중요한 구성 요소는 최적의 텍스트 생성 전략을 선택하는 것입니다. 학습 가능한 매개변수를 수정하지 않고도 대규모 언어 모델(LLM)이 텍스트 생성 시 각각의 후속 토큰을 선택하는 방식을 사용자 정의할 수 있습니다. 텍스트 생성 매개변수를 조정함으로써 생성된 텍스트의 반복을 줄이고 더 일관되고 사람이 말하는 것 같은 텍스트를 만들 수 있습니다. 텍스트 생성 전략과 매개변수는 이 가이드의 범위를 벗어나지만, 다음 가이드에서 이러한 주제에 대해 자세히 알아볼 수 있습니다:
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
프롬프트 엔지니어링은 대규모 언어 모델(LLM) 출력 최적화 과정의 일부일 뿐입니다. 또 다른 중요한 구성 요소는 최적의 텍스트 생성 전략을 선택하는 것입니다. 학습 가능한 매개변수를 수정하지 않고도 대규모 언어 모델(LLM)이 텍스트 생성 시 각각의 후속 토큰을 선택하는 방식을 사용자 정의할 수 있습니다. 텍스트 생성 매개변수를 조정함으로써 생성된 텍스트의 반복을 줄이고 더 일관되고 사람이 말하는 것 같은 텍스트를 만들 수 있습니다. 텍스트 생성 전략과 매개변수는 이 가이드의 범위를 벗어나지만, 다음 가이드에서 이러한 주제에 대해 자세히 알아볼 수 있습니다:
프롬프트 엔지니어링은 대규모 언어 모델 출력 최적화 과정의 일부일 뿐입니다. 또 다른 중요한 구성 요소는 최적의 텍스트 생성 전략을 선택하는 것입니다. 학습 가능한 매개변수를 수정하지 않고도 대규모 언어 모델이 텍스트 생성 시 각각의 후속 토큰을 선택하는 방식을 사용자 정의할 수 있습니다. 텍스트 생성 매개변수를 조정함으로써 생성된 텍스트의 반복을 줄이고 더 일관되고 사람이 말하는 것 같은 텍스트를 만들 수 있습니다. 텍스트 생성 전략과 매개변수는 이 가이드의 범위를 벗어나지만, 다음 가이드에서 이러한 주제에 대해 자세히 알아볼 수 있습니다:

docs/source/ko/tasks/prompting.md Outdated Show resolved Hide resolved
다음은 예시입니다:

```python
>>> torch.manual_seed(0) # doctest: +결과_무시
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
>>> torch.manual_seed(0) # doctest: +결과_무시
>>> torch.manual_seed(0)

위의 코드 스니펫에서는 모델에 원하는 출력을 보여주기 위해 단일 예시를 사용했으므로, 이를 "원샷(one-shot)" 프롬프팅이라고 부를 수 있습니다. 그러나 작업의 복잡성에 따라 하나 이상의 예시를 사용해야 할 수도 있습니다.

퓨샷(Few-shot) 프롬프팅 기법의 한계:
- 대규모 언어 모델(LLM)이 예시의 패턴을 포착할 수 있지만, 이 기법은 복잡한 추론 작업에는 잘 작동하지 않습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
- 대규모 언어 모델(LLM)이 예시의 패턴을 포착할 수 있지만, 이 기법은 복잡한 추론 작업에는 잘 작동하지 않습니다.
- 대규모 언어 모델이 예시의 패턴을 파악할 수 있지만, 이 기법은 복잡한 추론 작업에는 잘 작동하지 않습니다.


퓨샷(Few-shot) 프롬프팅 기법의 한계:
- 대규모 언어 모델(LLM)이 예시의 패턴을 포착할 수 있지만, 이 기법은 복잡한 추론 작업에는 잘 작동하지 않습니다.
- 퓨샷(Few-shot) 프롬프팅은 길이가 긴 프롬프트를 만들어야 합니다. 토큰 수가 많은 프롬프트는 계산량과 지연 시간을 증가시킬 수 있습니다. 또한 프롬프트 길이에도 제한이 있습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
- 퓨샷(Few-shot) 프롬프팅은 길이가 긴 프롬프트를 만들어야 합니다. 토큰 수가 많은 프롬프트는 계산량과 지연 시간을 증가시킬 수 있습니다. 또한 프롬프트 길이에도 제한이 있습니다.
- 퓨샷(Few-shot) 프롬프팅을 적용하면 프롬프트의 길이가 길어집니다. 토큰 수가 많은 프롬프트는 계산량과 지연 시간을 증가시킬 수 있으며 프롬프트 길이에도 제한이 있습니다.

퓨샷(Few-shot) 프롬프팅 기법의 한계:
- 대규모 언어 모델(LLM)이 예시의 패턴을 포착할 수 있지만, 이 기법은 복잡한 추론 작업에는 잘 작동하지 않습니다.
- 퓨샷(Few-shot) 프롬프팅은 길이가 긴 프롬프트를 만들어야 합니다. 토큰 수가 많은 프롬프트는 계산량과 지연 시간을 증가시킬 수 있습니다. 또한 프롬프트 길이에도 제한이 있습니다.
- 때때로 여러 예시가 주어질 때, 모델은 의도하지 않은 패턴을 학습할 수 있습니다. 예를 들어, 세 번째 영화 리뷰가 항상 부정적이라고 학습할 수 있습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
- 때때로 여러 예시가 주어질 때, 모델은 의도하지 않은 패턴을 학습할 수 있습니다. 예를 들어, 세 번째 영화 리뷰가 항상 부정적이라고 학습할 수 있습니다.
- 때로는 여러 예시가 주어질 때, 모델은 의도하지 않은 패턴을 학습할 수 있습니다. 예를 들어, 세 번째 영화 리뷰가 항상 부정적이라고 학습할 수 있습니다.


프롬프트를 최적화하여 훌륭한 결과를 얻을 수 있지만, 여전히 모델을 미세 조정하는 것이 더 좋을지 고민할 수 있습니다. 다음은 더 작은 모델을 미세 조정하는 것이 선호되는 시나리오입니다:

- 도메인이 대규모 언어 모델(LLM)이 사전 훈련된 것과 크게 다르고 광범위한 프롬프트 최적화로도 충분한 결과를 얻지 못한 경우.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
- 도메인이 대규모 언어 모델(LLM)이 사전 훈련된 것과 크게 다르고 광범위한 프롬프트 최적화로도 충분한 결과를 얻지 못한 경우.
- 도메인이 대규모 언어 모델이 사전 훈련된 것과 크게 다르고 광범위한 프롬프트 최적화로도 충분한 결과를 얻지 못한 경우.

Copy link
Contributor

@jeongiin jeongiin left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

채원님! 엄청난 번역 실력이 느껴집니다! 🥺
어떤 표현으로 번역하면 이해가 잘 되는지, 많이 배웠습니다!

소소한 부분 위주로 확인하였습니다. 😊

  • 자연스러운 한국어 표현
  • 괄호 안 대,소문자 혼용 수정 (one-shot) -> (One-shot)

docs/source/ko/tasks/prompting.md Outdated Show resolved Hide resolved
Date: 09/28/1960
```

위의 코드 스니펫에서는 모델에 원하는 출력을 보여주기 위해 단일 예시를 사용했으므로, 이를 "원샷(one-shot)" 프롬프팅이라고 부를 수 있습니다. 그러나 작업의 복잡성에 따라 하나 이상의 예시를 사용해야 할 수도 있습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
위의 코드 스니펫에서는 모델에 원하는 출력을 보여주기 위해 단일 예시를 사용했으므로, 이를 "원샷(one-shot)" 프롬프팅이라고 부를 수 있습니다. 그러나 작업의 복잡성에 따라 하나 이상의 예시를 사용해야 할 수도 있습니다.
위의 코드 스니펫에서는 모델에 원하는 출력을 보여주기 위해 단일 예시를 사용했으므로, 이를 "원샷(One-shot)" 프롬프팅이라고 부를 수 있습니다. 그러나 작업의 복잡성에 따라 하나 이상의 예시를 사용해야 할 수도 있습니다.

Copy link
Contributor

@boyunJang boyunJang left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

늦었지만 리뷰 완료했습니다! 내용이 꽤 많은데 번역하느라 정말 고생 많으셨습니다:)
하림님께서 이미 꼼꼼히 리뷰하고 가주셔서 크게 건드린 게 없긴 한데, 이 부분 확인해주시면 감사하겠습니다!

  • doctest 주석이 원문에는 doctest: IGNORE_RESULT라고 계속 반복해서 나오긴 하는데, 지울 이유는 없을 것 같고 코드를 나타내는 주석인 것 같아서 그대로 놔뒀어요. 제 의견은 이렇지만 확인해보고 더 나은 쪽으로 반영해주시면 감사할 것 같습니다:)

docs/source/ko/tasks/prompting.md Outdated Show resolved Hide resolved
docs/source/ko/tasks/prompting.md Outdated Show resolved Hide resolved
docs/source/ko/tasks/prompting.md Outdated Show resolved Hide resolved
docs/source/ko/tasks/prompting.md Outdated Show resolved Hide resolved
docs/source/ko/tasks/prompting.md Outdated Show resolved Hide resolved

위 섹션의 기본 프롬프트들은 "제로샷(zero-shot)" 프롬프트의 예시입니다. 이는 모델에 지시사항과 맥락은 주어졌지만, 해결책이 포함된 예시는 제공되지 않았다는 의미입니다. 지시 데이터셋으로 미세 조정된 대규모 언어 모델(LLM)은 일반적으로 이러한 "제로샷" 작업에서 좋은 성능을 보입니다. 하지만 여러분의 작업이 더 복잡하거나 미묘한 차이가 있을 수 있고, 아마도 지시사항만으로는 모델이 포착하지 못하는 출력에 대한 요구사항이 있을 수 있습니다. 이런 경우에는 퓨샷(Few-shot) 프롬프팅이라는 기법을 시도해 볼 수 있습니다.

퓨샷(Few-shot) 프롬프팅에서는 프롬프트에 예시를 제공하여 모델에 더 많은 맥락을 주고 성능을 향상시킵니다. 이 예시들은 모델이 예시의 패턴을 따라 출력을 생성하도록 조건화합니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
퓨샷(Few-shot) 프롬프팅에서는 프롬프트에 예시를 제공하여 모델에 더 많은 맥락을 주고 성능을 향상시킵니다. 이 예시들은 모델이 예시의 패턴을 따라 출력을 생성하도록 조건화합니다.
퓨샷 프롬프팅에서는 프롬프트에 예시를 제공하여 모델에 더 많은 맥락을 주고 성능을 향상시킵니다. 이 예시들은 모델이 예시의 패턴을 따라 출력을 생성하도록 조건화합니다.

영문을 한 번 보여줬기 때문에 뒷부분부터는 (Few-shot)을 지웠습니다.

Date: 09/28/1960
```

위의 코드 스니펫에서는 모델에 원하는 출력을 보여주기 위해 단일 예시를 사용했으므로, 이를 "원샷(one-shot)" 프롬프팅이라고 부를 수 있습니다. 그러나 작업의 복잡성에 따라 하나 이상의 예시를 사용해야 할 수도 있습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
위의 코드 스니펫에서는 모델에 원하는 출력을 보여주기 위해 단일 예시를 사용했으므로, 이를 "원샷(one-shot)" 프롬프팅이라고 부를 수 있습니다. 그러나 작업의 복잡성에 따라 하나 이상의 예시를 사용해야 할 수도 있습니다.
위의 코드 스니펫에서는 모델에 원하는 출력을 보여주기 위해 단일 예시를 사용했으므로, 이를 "원샷(One-shot)" 프롬프팅이라고 부를 수 있습니다. 그러나 작업의 복잡성에 따라 하나 이상의 예시를 사용해야 할 수도 있습니다.


위의 코드 스니펫에서는 모델에 원하는 출력을 보여주기 위해 단일 예시를 사용했으므로, 이를 "원샷(one-shot)" 프롬프팅이라고 부를 수 있습니다. 그러나 작업의 복잡성에 따라 하나 이상의 예시를 사용해야 할 수도 있습니다.

퓨샷(Few-shot) 프롬프팅 기법의 한계:
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
퓨샷(Few-shot) 프롬프팅 기법의 한계:
퓨샷 프롬프팅 기법의 한계:


퓨샷(Few-shot) 프롬프팅 기법의 한계:
- 대규모 언어 모델(LLM)이 예시의 패턴을 포착할 수 있지만, 이 기법은 복잡한 추론 작업에는 잘 작동하지 않습니다.
- 퓨샷(Few-shot) 프롬프팅은 길이가 긴 프롬프트를 만들어야 합니다. 토큰 수가 많은 프롬프트는 계산량과 지연 시간을 증가시킬 수 있습니다. 또한 프롬프트 길이에도 제한이 있습니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
- 퓨샷(Few-shot) 프롬프팅은 길이가 긴 프롬프트를 만들어야 합니다. 토큰 수가 많은 프롬프트는 계산량과 지연 시간을 증가시킬 수 있습니다. 또한 프롬프트 길이에도 제한이 있습니다.
- 퓨샷 프롬프팅을 적용하면 프롬프트의 길이가 길어집니다. 토큰 수가 많은 프롬프트는 계산량과 지연 시간을 증가시킬 수 있으며 프롬프트 길이에도 제한이 있습니다.

하림님 내용에 Few-shot 부분만 수정했습니다:)

생각의 사슬(Chain-of-thought, CoT) 프롬프팅은 모델이 중간 추론 단계를 생성하도록 유도하는 기법으로, 복잡한 추론 작업의 결과를 개선합니다.

모델이 추론 단계를 생성하도록 유도하는 두 가지 방법이 있습니다:
- 질문에 대한 상세한 답변을 예시로 제시하는 퓨샷(Few-shot) 프롬프팅을 통해 모델에게 문제를 어떻게 해결해 나가는지 보여줍니다.
Copy link
Contributor

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Suggested change
- 질문에 대한 상세한 답변을 예시로 제시하는 퓨샷(Few-shot) 프롬프팅을 통해 모델에게 문제를 어떻게 해결해 나가는지 보여줍니다.
- 질문에 대한 상세한 답변을 예시로 제시하는 퓨샷 프롬프팅을 통해 모델에게 문제를 어떻게 해결해 나가는지 보여줍니다.

Co-authored-by: boyunJang <[email protected]>
Co-authored-by: Harheem Kim <[email protected]>
Co-authored-by: timdalxx <[email protected]>
@chhaewxn chhaewxn marked this pull request as ready for review August 6, 2024 16:37
@HuggingFaceDocBuilderDev

The docs for this PR live here. All of your documentation changes will be reflected on that endpoint. The docs are available until 30 days after the last update.

Copy link
Member

@stevhliu stevhliu left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Thanks for your contribution! Just need to resolve the conflict then we can merge 🤗

@chhaewxn
Copy link
Contributor Author

chhaewxn commented Aug 7, 2024

Thanks for your contribution! Just need to resolve the conflict then we can merge 🤗

@stevhliu I have resolved the conflict. Thank you🤗

@stevhliu stevhliu merged commit fcc4f2a into huggingface:main Aug 7, 2024
8 checks passed
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

7 participants