Skip to content

Commit

Permalink
# This is a combination of 11 commits.
Browse files Browse the repository at this point in the history
# This is the 1st commit message:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#2:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#3:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#4:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#5:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#6:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#7:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#8:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#9:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#10:

Update docs/source/ko/tasks/summarization.mdx

Co-authored-by: Wonhyeong Seo <[email protected]>
# This is the commit message huggingface#11:

Update docs/source/ko/tasks/summarization.mdx
  • Loading branch information
sim-so committed Apr 23, 2023
1 parent 0438ef6 commit 910ba87
Showing 1 changed file with 10 additions and 10 deletions.
20 changes: 10 additions & 10 deletions docs/source/ko/tasks/summarization.mdx
Original file line number Diff line number Diff line change
Expand Up @@ -16,12 +16,12 @@ specific language governing permissions and limitations under the License.

<Youtube id="yHnr5Dk2zCI"/>

요약은 문서나 기사에서 중요한 정보를 모두 포함하여 짧은 버전으로 만드는 일입니다.
요약은 문서나 기사에서 중요한 정보를 모두 포함하되 짧게 만드는 일입니다.
번역과 마찬가지로, 시퀀스-투-시퀀스 문제로 구성할 수 있는 대표적인 작업 중 하나입니다.
요약에는 아래와 같이 유형이 있습니다:

- 추출(Extractive) 요약: 문서에서 가장 관련성 높은 정보를 추출합니다.
- 생성(Abstractive) 요약: 가장 관련성 높은 정보를 포착하는 새로운 텍스트를 생성합니다.
- 생성(Abstractive) 요약: 가장 관련성 높은 정보를 포착해내는 새로운 텍스트를 생성합니다.

이 가이드에서 소개할 내용은 아래와 같습니다:

Expand Down Expand Up @@ -56,7 +56,7 @@ Hugging Face 계정에 로그인하면 모델을 업로드하고 커뮤니티에

## BillSum 데이터셋 가져오기[[load-billsum-dataset]]

🤗 Datasets 라이브러리에서 BillSum 데이터셋의 작은 버전인 캘리포니아 주 법안 하위 집합을 로드하세요:
🤗 Datasets 라이브러리에서 BillSum 데이터셋의 작은 버전인 캘리포니아 주 법안 하위 집합을 가져오세요:

```py
>>> from datasets import load_dataset
Expand Down Expand Up @@ -123,7 +123,7 @@ Hugging Face 계정에 로그인하면 모델을 업로드하고 커뮤니티에
```

이제 [`DataCollatorForSeq2Seq`]를 사용하여 예제 배치를 만드세요.
전체 데이터셋을 최대 길이로 패딩하는 것보다 하나의 배치에서 가장 긴 문장 길이에 맞춰 *동적 패딩*하는 것이 더 효율적입니다.
전체 데이터셋을 최대 길이로 패딩하는 것보다 배치마다 가장 긴 문장 길이에 맞춰 *동적 패딩*하는 것이 더 효율적입니다.

<frameworkcontent>
<pt>
Expand All @@ -146,8 +146,8 @@ Hugging Face 계정에 로그인하면 모델을 업로드하고 커뮤니티에

학습 중에 평가 지표를 포함하면 모델의 성능을 평가하는 데 도움이 되는 경우가 많습니다.
🤗 [Evaluate](https://huggingface.co/docs/evaluate/index) 라이브러리를 사용하면 평가 방법을 빠르게 불러올 수 있습니다.
이 작업에서는 [ROUGE](https://huggingface.co/spaces/evaluate-metric/rouge)을 로드합니다.
(평가 지표를 불러오고 계산하는 대한 자세한 내용은 🤗 Evaluate [둘러보기](https://huggingface.co/docs/evaluate/a_quick_tour)를 참조하세요.)
이 작업에서는 [ROUGE](https://huggingface.co/spaces/evaluate-metric/rouge) 평가 지표를 가져옵니다.
(평가 지표를 불러오고 계산하는 방법은 🤗 Evaluate [둘러보기](https://huggingface.co/docs/evaluate/a_quick_tour)를 참조하세요.)

```py
>>> import evaluate
Expand Down Expand Up @@ -175,7 +175,7 @@ Hugging Face 계정에 로그인하면 모델을 업로드하고 커뮤니티에
... return {k: round(v, 4) for k, v in result.items()}
```

이제 `compute_metrics` 함수를 사용할 준비가 되었으며, 학습을 설정할 때 이 함수로 돌아가게 됩니다.
이제 `compute_metrics` 함수를 사용할 준비가 되었으며, 학습을 설정할 때 이 함수로 되돌아올 것입니다.

## 학습[[train]]

Expand All @@ -187,7 +187,7 @@ Hugging Face 계정에 로그인하면 모델을 업로드하고 커뮤니티에

</Tip>

이제 모델 학습을 시작할 준비가 되었습니다! [`AutoModelForSeq2SeqLM`]로 T5를 로드하세요:
이제 모델 학습을 시작할 준비가 되었습니다! [`AutoModelForSeq2SeqLM`]로 T5를 가져오세요:

```py
>>> from transformers import AutoModelForSeq2SeqLM, Seq2SeqTrainingArguments, Seq2SeqTrainer
Expand Down Expand Up @@ -241,7 +241,7 @@ Hugging Face 계정에 로그인하면 모델을 업로드하고 커뮤니티에
<tf>
<Tip>

Keras로 모델 파인튜닝을 하는 것이 익숙하지 않다면, [here](../training#train-a-tensorflow-model-with-keras)에서 기본적인 튜토리얼을 확인하세요!
Keras로 모델 파인튜닝을 하는 것이 익숙하지 않다면, [여기](../training#train-a-tensorflow-model-with-keras)에서 기본적인 튜토리얼을 확인하세요!

</Tip>
TensorFlow에서 모델을 파인튜닝하려면, 먼저 옵티마이저, 학습률 스케줄 그리고 몇 가지 학습 하이퍼파라미터를 설정하세요:
Expand All @@ -252,7 +252,7 @@ TensorFlow에서 모델을 파인튜닝하려면, 먼저 옵티마이저, 학습
>>> optimizer = AdamWeightDecay(learning_rate=2e-5, weight_decay_rate=0.01)
```

그런 다음 [`TFAutoModelForSeq2SeqLM`]을 사용하여 T5를 로드합니다:
그런 다음 [`TFAutoModelForSeq2SeqLM`]을 사용하여 T5를 가져오세요:

```py
>>> from transformers import TFAutoModelForSeq2SeqLM
Expand Down

0 comments on commit 910ba87

Please sign in to comment.