diff --git a/content/ko/docs/concepts/architecture/nodes.md b/content/ko/docs/concepts/architecture/nodes.md index 4061f7c7b83a2..3eb52d21990d7 100644 --- a/content/ko/docs/concepts/architecture/nodes.md +++ b/content/ko/docs/concepts/architecture/nodes.md @@ -17,14 +17,14 @@ weight: 10 노드의 상태는 다음의 정보를 포함한다. -* [주소](#주소) -* [컨디션](#컨디션) -* [용량](#용량) -* [정보](#정보) +* [주소](#addresses) +* [컨디션](#condition) +* [용량과 할당가능](#capacity) +* [정보](#info) 각 섹션은 아래 상세하게 기술되었다. -### 주소 +### 주소 {#addresses} 이 필드의 용법은 클라우드 제공사업자 또는 베어메탈 구성에 따라 다양하다. @@ -33,9 +33,9 @@ weight: 10 * InternalIP: 일반적으로 노드의 IP 주소는 클러스터 내에서만 라우트 가능하다. -### 컨디션 +### 컨디션 {#condition} -`conditions` 필드는 모든 `Running` 노드의 상태를 기술한다. +`conditions` 필드는 모든 `Running` 노드의 상태를 기술한다. 컨디션의 예로 다음을 포함한다. | Node Condition | Description | |----------------|-------------| @@ -52,7 +52,11 @@ weight: 10 "conditions": [ { "type": "Ready", - "status": "True" + "status": "True", + "reason": "KubeletReady", + "message": "kubelet is posting ready status", + "lastHeartbeatTime": "2019-06-05T18:38:35Z", + "lastTransitionTime": "2019-06-05T11:41:27Z" } ] ``` @@ -70,11 +74,19 @@ ready 컨디션의 상태가 [kube-controller-manager](/docs/admin/kube-controll 이 기능을 활성화 하면 조건이 관찰되고 taint가 생성되는 시간 사이에 다소 지연이 발생한다. 이 지연은 보통 1초 미만이지만, 성공적으로 스케줄은 되나 kubelet에 의해 거부되는 파드의 수가 증가할 수 있다. {{< /caution >}} -### 용량 +### 용량과 할당가능 {#capacity} 노드 상에 사용 가능한 리소스를 나타낸다. 리소스에는 CPU, 메모리 그리고 노드 상으로 스케줄 되어질 수 있는 최대 파드 수가 있다. -### 정보 +용량 블록의 필드는 노드에 있는 리소스의 총량을 나타낸다. +할당가능 블록은 일반 파드에서 사용할 수 있는 +노드의 리소스 양을 나타낸다. + +노드에서 +[컴퓨팅 리소스 예약](/docs/tasks/administer-cluster/reserve-compute-resources/#node-allocatable)하는 방법을 +배우는 동안 용량 및 할당가능 리소스에 대해 자세히 읽어보자. + +### 정보 {#info} 커널 버전, 쿠버네티스 버전 (kubelet과 kube-proxy 버전), (사용하는 경우) Docker 버전, OS 이름과 같은 노드에 대한 일반적인 정보이다. 정보는 Kubelet에 의해 노드로부터 수집된다. diff --git a/content/ko/docs/concepts/cluster-administration/federation.md b/content/ko/docs/concepts/cluster-administration/federation.md index 1719b9882b3cb..81584a28e113d 100644 --- a/content/ko/docs/concepts/cluster-administration/federation.md +++ b/content/ko/docs/concepts/cluster-administration/federation.md @@ -170,7 +170,7 @@ zone)](http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/using-regions-availabi 마지막으로, 클러스터 중 어느 클러스터라도 쿠버네티스 클러스터에서 추천되는 최대 노드 수 보다 더 많은 노드가 필요하다면, 더 많은 클러스터가 필요할 것이다. 쿠버네티스 v1.3은 클러스터를 최대 1000노드까지 지원한다. 쿠버네티스 v1.8은 -클러스터를 최대 5000 노드까지 지원한다. 더 자세한 가이드는 [대규모 클러스터 구축하기](/docs/setup/cluster-large/)에서 확인 가능하다. +클러스터를 최대 5000 노드까지 지원한다. 더 자세한 가이드는 [대규모 클러스터 구축하기](/docs/setup/best-practices/cluster-large/)에서 확인 가능하다. {{% /capture %}} diff --git a/content/ko/docs/concepts/containers/images.md b/content/ko/docs/concepts/containers/images.md index 76bd64fe5ef9e..50291bd72d234 100644 --- a/content/ko/docs/concepts/containers/images.md +++ b/content/ko/docs/concepts/containers/images.md @@ -60,6 +60,8 @@ Docker *18.06 또는 그 이상* 을 사용하길 바란다. 더 낮은 버전 - AWS EC2 컨테이너 레지스트리(ECR) 사용 - IAM 역할 및 정책을 사용하여 ECR 저장소에 접근을 제어함 - ECR 로그인 자격 증명은 자동으로 갱신됨 + - Oracle 클라우드 인프라스트럭처 레지스트리(OCIR) 사용 + - IAM 역할과 정책을 사용하여 OCIR 저장소에 접근을 제어함 - Azure 컨테이너 레지스트리(ACR) 사용 - IBM 클라우드 컨테이너 레지스트리 사용 - 프라이빗 레지스트리에 대한 인증을 위한 노드 구성 @@ -275,19 +277,7 @@ GCE 및 자동 노드 교체를 수행하는 다른 클라우드 제공자에 대문자 값을 적절히 대체하여, 다음 커맨드를 실행한다. ```shell -cat < ./kustomization.yaml -secretGenerator: -- name: myregistrykey - type: docker-registry - literals: - - docker-server=DOCKER_REGISTRY_SERVER - - docker-username=DOCKER_USER - - docker-password=DOCKER_PASSWORD - - docker-email=DOCKER_EMAIL -EOF - -kubectl apply -k . -secret/myregistrykey-66h7d4d986 created +kubectl create secret docker-registry --docker-server=DOCKER_REGISTRY_SERVER --docker-username=DOCKER_USER --docker-password=DOCKER_PASSWORD --docker-email=DOCKER_EMAIL ``` 만약 Docer 자격 증명 파일이 이미 존재한다면, 위의 명령을 사용하지 않고, diff --git a/content/ko/docs/concepts/containers/runtime-class.md b/content/ko/docs/concepts/containers/runtime-class.md index 72923dc5711ab..86dd09209c728 100644 --- a/content/ko/docs/concepts/containers/runtime-class.md +++ b/content/ko/docs/concepts/containers/runtime-class.md @@ -8,7 +8,13 @@ weight: 20 {{< feature-state for_k8s_version="v1.12" state="alpha" >}} -이 페이지는 런타임 클래스 리소스와 런타임 선택 메커니즘에 대해서 설명한다. +이 페이지는 런타임 클래스(RuntimeClass) 리소스와 런타임 선택 메커니즘에 대해서 설명한다. + +{{< warning >}} +런타임클래스는 v1.14 베타 업그레이드에서 *중대한* 변화를 포함한다. +런타임클래스를 v1.14 이전부터 사용하고 있었다면, +[런타임 클래스를 알파에서 베타로 업그레이드하기](#upgrading-runtimeclass-from-alpha-to-beta)를 확인한다. +{{< /warning >}} {{% /capture %}} @@ -17,82 +23,72 @@ weight: 20 ## 런타임 클래스 -런타임 클래스는 파드의 컨테이너를 실행하는데 사용할 컨테이너 런타임 설정을 선택하기 위한 -알파 특징이다. +런타임 클래스는 컨테이너 런타임 설정을 선택하는 기능이다. +이 컨테이너 런타임 설정은 파드의 컨테이너를 실행할 때에 이용한다. -### 셋업 +## 동기 -초기 알파 특징이므로, 런타임 클래스 특징을 사용하기 위해서는 몇 가지 추가 셋업 -단계가 필요하다. +서로 다른 파드간에 런타임 클래스를 설정하여 +성능대 보안의 균형을 유지할 수 있다. +예를 들어, 일부 작업에서 높은 수준의 정보 보안 보증이 요구되는 경우, +하드웨어 가상화를 이용하는 컨테이너 런타임으로 파드를 실행하도록 예약하는 선택을 할 수 있다. +그러면 몇가지 추가적인 오버헤드는 있지만 +대체 런타임을 추가 분리하는 유익이 있다. -1. 런타임 클래스 특징 게이트 활성화(apiservers 및 kubelets에 대해서, 버전 1.12+ 필요) -2. 런타임 클래스 CRD 설치 -3. CRI 구현(implementation)을 노드에 설정(런타임에 따라서) -4. 상응하는 런타임 클래스 리소스 생성 +또한 런타임 클래스를 사용하여 컨테이너 런타임이 같으나 설정이 다른 +여러 파드를 실행할 수 있다. -#### 1. 런타임 클래스 특징 게이트 활성화 +### 셋업 +RuntimeClass 특징 게이트가 활성화(기본값)를 확인한다. 특징 게이트 활성화에 대한 설명은 [특징 게이트](/docs/reference/command-line-tools-reference/feature-gates/)를 -참고한다. `RuntimeClass` 특징 게이트는 apiservers _및_ kubelets에서 활성화되어야 -한다. - -#### 2. 런타임 클래스 CRD 설치 +참고한다. `RuntimeClass` 특징 게이트는 apiservers _및_ kubelets에서 활성화되어야 한다. -런타임 클래스 [CustomResourceDefinition][] (CRD)는 쿠버네티스 git 저장소의 애드온 디렉터리에서 찾을 수 -있다. [kubernetes/cluster/addons/runtimeclass/runtimeclass_crd.yaml][runtimeclass_crd] +1. CRI 구현(implementation)을 노드에 설정(런타임에 따라서) +2. 상응하는 런타임 클래스 리소스 생성 -`kubectl apply -f runtimeclass_crd.yaml`을 통해서 해당 CRD를 설치한다. +#### 1. CRI 구현을 노드에 설정 -[CustomResourceDefinition]: /docs/tasks/access-kubernetes-api/custom-resources/custom-resource-definitions/ -[runtimeclass_crd]: https://github.com/kubernetes/kubernetes/tree/master/cluster/addons/runtimeclass/runtimeclass_crd.yaml - - -#### 3. CRI 구현을 노드에 설정 - -런타임 클래스와 함께 선택할 설정은 CRI 구현에 의존적이다. 사용자의 CRI -구현에 따른 설정 방법은 연관된 문서를 통해서 확인한다. 이것은 알파 -특징이므로, 아직 모든 CRI가 다중 런타임 클래스를 지원하지는 않는다. +런타임 클래스를 통한 가능한 구성은 컨테이너 런타임 인터페이스(CRI) 구현에 의존적이다. +사용자의 CRI 구현에 따른 설정 방법은 +연관된 문서를 통해서 확인한다([아래](#cri-configuration)). {{< note >}} 런타임 클래스는 클러스터 전체에 걸쳐 동질의 노드 설정 -(모든 노드가 컨테이너 런타임에 준하는 동일한 방식으로 설정되었음을 의미)을 가정한다. 어떠한 이질성(다양한 -설정)이라도 -스케줄링 특징을 통해서 런타임 클래스와는 독립적으로 관리되어야 한다([파드를 노드에 -할당하기](/docs/concepts/configuration/assign-pod-node/) 참고). +(모든 노드가 컨테이너 런타임에 준하는 동일한 방식으로 설정되었음을 의미)을 가정한다. 어떠한 이질성(다양한 +설정)이라도 스케줄링 특징을 통해서 런타임 클래스와는 독립적으로 관리되어야 한다 +([파드를 노드에 할당하기](/docs/concepts/configuration/assign-pod-node/) 참고). {{< /note >}} -해당 설정은 상응하는 `RuntimeHandler` 이름을 가지며, 이는 런타임 클래스에 의해서 참조된다. +해당 설정은 상응하는 `handler` 이름을 가지며, 이는 런타임 클래스에 의해서 참조된다. 런타임 핸들러는 유효한 DNS 1123 서브도메인(알파-숫자 + `-`와 `.`문자)을 가져야 한다. -#### 4. 상응하는 런타임 클래스 리소스 생성 +#### 2. 상응하는 런타임 클래스 리소스 생성 -3단계에서 셋업 한 설정은 연관된 `RuntimeHandler` 이름을 가져야 하며, 이를 통해서 -설정을 식별할 수 있다. 각 런타임 핸들러(그리고 선택적으로 비어있는 `""` 핸들러)에 대해서, -상응하는 런타임 클래스 오브젝트를 생성한다. +1단계에서 셋업 한 설정은 연관된 `handler` 이름을 가져야 하며, 이를 통해서 설정을 식별할 수 있다. +각 런타임 핸들러(그리고 선택적으로 비어있는 `""` 핸들러)에 대해서, 상응하는 런타임 클래스 오브젝트를 생성한다. 현재 런타임 클래스 리소스는 런타임 클래스 이름(`metadata.name`)과 런타임 핸들러 -(`spec.runtimeHandler`)로 단 2개의 중요 필드만 가지고 있다. 오브젝트 정의는 다음과 같은 형태이다. +(`handler`)로 단 2개의 중요 필드만 가지고 있다. 오브젝트 정의는 다음과 같은 형태이다. ```yaml -apiVersion: node.k8s.io/v1alpha1 # 런타임 클래스는 node.k8s.io API 그룹에 정의되어 있음 +apiVersion: node.k8s.io/v1beta1 # 런타임 클래스는 node.k8s.io API 그룹에 정의되어 있음 kind: RuntimeClass metadata: name: myclass # 런타임 클래스는 해당 이름을 통해서 참조됨 # 런타임 클래스는 네임스페이스가 없는 리소스임 -spec: - runtimeHandler: myconfiguration # 상응하는 CRI 설정의 이름임 +handler: myconfiguration # 상응하는 CRI 설정의 이름임 ``` - {{< note >}} 런타임 클래스 쓰기 작업(create/update/patch/delete)은 -클러스터 관리자로 제한할 것을 권장한다. 이것은 일반적으로 기본 설정이다. 더 자세한 정보는 [권한 -개요](/docs/reference/access-authn-authz/authorization/)를 참고한다. +클러스터 관리자로 제한할 것을 권장한다. 이것은 일반적으로 기본 설정이다. +더 자세한 정보는 [권한 개요](/docs/reference/access-authn-authz/authorization/)를 참고한다. {{< /note >}} ### 사용 -클러스터를 위해서 런타임 클래스를 설정하고 나면, 그것을 사용하는 것은 매우 간단하다. 파드 스펙에 +클러스터를 위해서 런타임 클래스를 설정하고 나면, 그것을 사용하는 것은 매우 간단하다. 파드 스펙에 `runtimeClassName`를 명시한다. 예를 들면 다음과 같다. ```yaml @@ -105,12 +101,75 @@ spec: # ... ``` -이것은 Kubelet이 지명된 런타임 클래스를 사용하여 해당 파드를 실행하도록 지시할 것이다. 만약 지명된 -런타임 클래스가 없거나, CRI가 상응하는 핸들러를 실행할 수 없는 경우, 파드는 -`Failed` 터미널 [단계](/ko/docs/concepts/workloads/pods/pod-lifecycle/#파드의-단계-phase)로 들어간다. 에러 -메시지를 위해서는 상응하는 [이벤트](/docs/tasks/debug-application-cluster/debug-application-introspection/)를 +이것은 Kubelet이 지명된 런타임 클래스를 사용하여 해당 파드를 실행하도록 지시할 것이다. +만약 지명된 런타임 클래스가 없거나, CRI가 상응하는 핸들러를 실행할 수 없는 경우, 파드는 +`Failed` 터미널 [단계](/ko/docs/concepts/workloads/pods/pod-lifecycle/#pod-phase)로 들어간다. +에러 메시지에 상응하는 [이벤트](/docs/tasks/debug-application-cluster/debug-application-introspection/)를 확인한다. -만약 명시된 `runtimeClassName`가 없다면, 기본 런타임 핸들러가 사용될 것이다. 기본 런타임 핸들러는 런타임 클래스 특징이 비활성화되었을 때와 동일하게 동작한다. +만약 명시된 `runtimeClassName`가 없다면, 기본 런타임 핸들러가 사용되며, +런타임 클래스 특징이 비활성화되었을 때와 동일하게 동작한다. + +### CRI 구성 {#cri-configuration} + +CRI 런타임 설치에 대한 자세한 내용은 [CRI 설치](/docs/setup/production-environment/container-runtimes/)를 확인한다. + +#### dockershim + +쿠버네티스의 내장 dockershim CRI는 런타임 핸들러를 지원하지 않는다. + +#### [containerd](https://containerd.io/) + +런타임 핸들러는 containerd의 구성 파일인 `/etc/containerd/config.toml` 통해 설정한다. +유효한 핸들러는 runtimes 단락 아래에서 설정한다. + +``` +[plugins.cri.containerd.runtimes.${HANDLER_NAME}] +``` + +더 자세한 containerd의 구성 문서를 살펴본다. +https://github.com/containerd/cri/blob/master/docs/config.md + +#### [cri-o](https://cri-o.io/) + +런타임 핸들러는 cri-o의 구성파일인 `/etc/crio/crio.conf`을 통해 설정한다. +[crio.runtime 테이블](https://github.com/kubernetes-sigs/cri-o/blob/master/docs/crio.conf.5.md#crioruntime-table) 아래에 +유효한 핸들러를 설정한다. + +``` +[crio.runtime.runtimes.${HANDLER_NAME}] + runtime_path = "${PATH_TO_BINARY}" +``` + +더 자세한 cri-o의 구성 문서를 살펴본다. +https://github.com/kubernetes-sigs/cri-o/blob/master/cmd/crio/config.go + + +### 런타임 클래스를 알파에서 베타로 업그레이드 {#upgrading-runtimeclass-from-alpha-to-beta} + +런타임 클래스 베타 기능은 다음의 변화를 포함한다. + +- `node.k8s.io` API 그룹과 `runtimeclasses.node.k8s.io` 리소스는 CustomResourceDefinition에서 + 내장 API로 이전되었다. +- 런타임 클래스 정의에서 `spec`을 직접 사용할 수 있다. + (즉, 더 이상 RuntimeClassSpec는 없다). +- `runtimeHandler` 필드는 `handler`로 이름이 바뀌었다. +- `handler` 필드는 이제 모두 API 버전에서 요구된다. 이는 알파 API에서도 `runtimeHandler` 필드가 + 필요하다는 의미이다. +- `handler` 필드는 반드시 올바른 DNS 레이블([RFC 1123](https://tools.ietf.org/html/rfc1123))으로, + 이는 더 이상 `.` 캐릭터(모든 버전에서)를 포함할 수 없다 의미이다. 올바른 핸들러는 + 다음의 정규 표현식을 따른다. `^[a-z0-9]([-a-z0-9]*[a-z0-9])?$`. + +**작업 필요** 다음 작업은 알파 버전의 런타임 기능을 +베타 버전으로 업그레이드하기 위해 진행되어야 한다. + +- 런타임 클래스 리소스는 v1.14로 업그레이드 *후에* 반드시 재생성되어야 하고, + `runtimeclasses.node.k8s.io` CRD는 다음과 같이 수동으로 지워야 한다. + ``` + kubectl delete customresourcedefinitions.apiextensions.k8s.io runtimeclasses.node.k8s.io + ``` +- 지정되지 않았거나 비어 있는 `runtimeHandler` 이거나 핸들러 내에 `.` 캐릭터를 사용한 알파 런타임 클래스는 + 더 이상 올바르지 않으며, 반드시 올바른 핸들러 구성으로 이전헤야 한다 + (위를 참조). {{% /capture %}} diff --git a/content/ko/docs/concepts/overview/components.md b/content/ko/docs/concepts/overview/components.md index 2248084272ee0..40b6fe95b9d7b 100644 --- a/content/ko/docs/concepts/overview/components.md +++ b/content/ko/docs/concepts/overview/components.md @@ -16,7 +16,7 @@ card: ## 마스터 컴포넌트 마스터 컴포넌트는 클러스터의 컨트롤 플레인을 제공한다. 마스터 컴포넌트는 클러스터에 관한 전반적인 결정 -(예를 들어, 스케줄링)을 수행하고 클러스터 이벤트(레플리케이션 컨트롤러의 `replicas` 필드가 요구조건을 충족되지 않을 경우 새로운 파드를 구동 시키는 것)를 감지하고 반응한다. +(예를 들어, 스케줄링)을 수행하고 클러스터 이벤트(예를 들어, 레플리케이션 컨트롤러의 `replicas` 필드가 요구조건을 충족되지 않을 경우 새로운 파드를 구동 시키는 것)를 감지하고 반응한다. 마스터 컴포넌트는 클러스터 내 어떠한 머신에서든지 동작 될 수 있다. 그러나, 간결성을 위하여, 구성 스크립트는 보통 동일 머신 상에 모든 마스터 컴포넌트를 구동시키고, @@ -72,13 +72,11 @@ cloud-controller-manager는 클라우드 밴더 코드와 쿠버네티스 코드 ### kube-proxy -[kube-proxy](/docs/admin/kube-proxy/)는 호스트 상에서 네트워크 규칙을 유지하고 연결에 대한 포워딩을 수행함으로서 - 쿠버네티스 서비스 추상화가 가능하도록 해준다. +{{< glossary_definition term_id="kube-proxy" length="all" >}} ### 컨테이너 런타임 -컨테이너 런타임은 컨테이너의 동작을 책임지는 소프트웨어다. -쿠버네티스는 몇몇의 런타임을 지원하는데 [Docker](http://www.docker.com), [containerd](https://containerd.io), [cri-o](https://cri-o.io/), [rktlet](https://github.com/kubernetes-incubator/rktlet) 그리고 [Kubernetes CRI (Container Runtime Interface)](https://github.com/kubernetes/community/blob/master/contributors/devel/sig-node/container-runtime-interface.md)를 구현한 모든 런타임이다. +{{< glossary_definition term_id="container-runtime" length="all" >}} ## 애드온 diff --git a/content/ko/docs/concepts/overview/kubernetes-api.md b/content/ko/docs/concepts/overview/kubernetes-api.md index 0ed8643c862b9..e3d9981a3a8f4 100644 --- a/content/ko/docs/concepts/overview/kubernetes-api.md +++ b/content/ko/docs/concepts/overview/kubernetes-api.md @@ -15,8 +15,7 @@ API 엔드포인트, 리소스 타입과 샘플은 [API Reference](/docs/referen API에 원격 접속하는 방법은 [Controlling API Access doc](/docs/reference/access-authn-authz/controlling-access/)에서 논의되었다. -쿠버네티스 API는 시스템을 위한 선언적 설정 스키마를 위한 기초가 되기도 한다. -[kubectl](/docs/reference/kubectl/overview/) 커맨드라인 툴을 사용해서 API 오브젝트를 생성, 업데이트, 삭제 및 조회할 수 있다. +쿠버네티스 API는 시스템을 위한 선언적 설정 스키마를 위한 기초가 되기도 한다. [kubectl](/docs/reference/kubectl/overview/) 커맨드라인 툴을 사용해서 API 오브젝트를 생성, 업데이트, 삭제 및 조회할 수 있다. 쿠버네티스는 또한 API 리소스에 대해 직렬화된 상태를 (현재는 [etcd](https://coreos.com/docs/distributed-configuration/getting-started-with-etcd/)에) 저장한다. @@ -24,7 +23,6 @@ API에 원격 접속하는 방법은 [Controlling API Access doc](/docs/referenc {{% /capture %}} -{{< toc >}} {{% capture body %}} @@ -36,9 +34,9 @@ API에 원격 접속하는 방법은 [Controlling API Access doc](/docs/referenc ## OpenAPI 및 Swagger 정의 -완전한 API 상세 내용은 [OpenAPI](https://www.openapis.org/)를 활용해서 문서화했다. +완전한 API 상세 내용은 [OpenAPI](https://www.openapis.org/)를 활용해서 문서화했다. -쿠버네티스 1.10부터, OpenAPI 규격은 `/openapi/v2` 엔드포인트에서만 제공된다. +쿠버네티스 1.10부터, OpenAPI 규격은 `/openapi/v2` 엔드포인트에서만 제공된다. 요청 형식은 HTTP 헤더에 명시해서 설정할 수 있다. 헤더 | 가능한 값 @@ -46,7 +44,8 @@ API에 원격 접속하는 방법은 [Controlling API Access doc](/docs/referenc Accept | `application/json`, `application/com.github.proto-openapi.spec.v2@v1.0+protobuf` (기본 content-type은 `*/*`에 대해 `application/json`이거나 이 헤더를 전달하지 않음) Accept-Encoding | `gzip` (이 헤더를 전달하지 않아도 됨) -1.14 이전 버전에서 형식이 구분된 엔드포인트(`/swagger.json`, `/swagger-2.0.0.json`, `/swagger-2.0.0.pb-v1`, `/swagger-2.0.0.pb-v1.gz`)는 OpenAPI 스펙을 다른 포맷으로 제공한다. 이러한 엔드포인트는 사용 중단되었으며, 쿠버네티스 1.14에서 제거될 예정이다. +1.14 이전 버전에서 형식이 구분된 엔드포인트(`/swagger.json`, `/swagger-2.0.0.json`, `/swagger-2.0.0.pb-v1`, `/swagger-2.0.0.pb-v1.gz`)는 OpenAPI 스펙을 다른 포맷으로 제공한다. +이러한 엔드포인트는 사용 중단되었으며, 쿠버네티스 1.14에서 제거됬다. **OpenAPI 규격을 조회하는 예제** @@ -58,21 +57,25 @@ GET /swagger-2.0.0.pb-v1.gz | GET /openapi/v2 **Accept**: application/com.github 쿠버네티스는 주로 클러스터 내부 통신용 API를 위해 대안적인 Protobuf에 기반한 직렬화 형식을 구현한다. 해당 API는 [design proposal](https://github.com/kubernetes/community/blob/master/contributors/design-proposals/api-machinery/protobuf.md) 문서와 IDL 파일에 문서화되어 있고 각각의 스키마를 담고 있는 IDL 파일은 API 오브젝트를 정의하는 Go 패키지에 들어있다. -1.14 이전 버전에서 쿠버네티스 apiserver는 `/swaggerapi`에서 [Swagger v1.2](http://swagger.io/) -쿠버네티스 API 스펙을 검색하는데 사용할 수 있는 API도 제공한다. +1.14 이전 버전에서 쿠버네티스 apiserver는 `/swaggerapi`에서 [Swagger v1.2](http://swagger.io/) +쿠버네티스 API 스펙을 검색하는데 사용할 수 있는 API도 제공한다. 이러한 엔드포인트는 사용 중단되었으며, 쿠버네티스 1.14에서 제거될 예정이다. ## API 버전 규칙 -필드를 없애거나 리소스 표현을 재구성하기 쉽도록, 쿠버네티스는 `/api/v1`이나 -`/apis/extensions/v1beta1`과 같이 각각 다른 API 경로에서 복수의 API 버전을 지원한다. +필드를 없애거나 리소스 표현을 재구성하기 쉽도록, +쿠버네티스는 `/api/v1`이나 `/apis/extensions/v1beta1`과 같이 +각각 다른 API 경로에서 복수의 API 버전을 지원한다. 리소스나 필드 수준보다는 API 수준에서 버전을 선택했는데, API가 명료하고, 시스템 리소스와 행위 관점에서 일관성있으며, 더 이상 사용되지 않는 API나 실험적인 API에 접근을 제어할 수 있도록 하기 위함이다. 스키마 변경에 대해서 JSON과 Protobuf 직렬화 스키마 모두 동일한 가이드라인을 따른다. 다음에 이어지는 설명 모두는 이 두 가지 형식에 모두 해당한다. -API 버전 규칙과 소프트웨어 버전 규칙은 간접적으로 연관되어 있음을 알아두자. [API and release versioning proposal](https://git.k8s.io/community/contributors/design-proposals/release/versioning.md)에는 API 버전 규칙과 소프트웨어 버전 규칙 간의 관계가 기술되어 있다. +API 버전 규칙과 소프트웨어 버전 규칙은 간접적으로 연관되어 있음을 알아두자. +[API and release versioning proposal](https://git.k8s.io/community/contributors/design-proposals/release/versioning.md)에는 +API 버전 규칙과 소프트웨어 버전 규칙 간의 관계가 기술되어 있다. -API 버전이 다른 경우는 안정성이나 기술 지원의 수준이 다르다는 것을 암시한다. 각각의 수준에 대한 조건은 [API Changes documentation](https://git.k8s.io/community/contributors/devel/sig-architecture/api_changes.md#alpha-beta-and-stable-versions)에서 상세히 다룬다. 요약하자면 다음과 같다. +API 버전이 다른 경우는 안정성이나 기술 지원의 수준이 다르다는 것을 암시한다. +각각의 수준에 대한 조건은 [API Changes documentation](https://git.k8s.io/community/contributors/devel/sig-architecture/api_changes.md#alpha-beta-and-stable-versions)에서 상세히 다룬다. 요약하자면 다음과 같다. - 알파(Alpha) 수준: - 버전 이름에 `alpha`가 포함된다. (예: `v1alpha1`) @@ -87,7 +90,8 @@ API 버전이 다른 경우는 안정성이나 기술 지원의 수준이 다르 - 오브젝트에 대한 스키마나 문법이 다음 베타 또는 안정화 릴리스에서 호환되지 않는 방식으로 바뀔 수도 있다. 이런 경우, 다음 버전으로 이관할 수 있는 가이드를 제공할 것이다. 이 때 API 오브젝트의 삭제, 편집 또는 재생성이 필요할 수도 있다. 편집 절차는 좀 생각해볼 필요가 있다. 이 기능에 의존하고 있는 애플리케이션은 다운타임이 필요할 수도 있다. - - 다음 릴리스에서 호환되지 않을 수도 있으므로 사업적으로 중요하지 않은 용도로만 사용하기를 권장한다. 복수의 클러스터를 가지고 있어서 독립적으로 업그레이드할 수 있다면 이런 제약에서 안심이 될 수도 있겠다. + - 다음 릴리스에서 호환되지 않을 수도 있으므로 사업적으로 중요하지 않은 용도로만 사용하기를 권장한다. + 복수의 클러스터를 가지고 있어서 독립적으로 업그레이드할 수 있다면 이런 제약에서 안심이 될 수도 있겠다. - **베타 기능을 사용하고 피드백을 주기를 바란다! 일단 베타가 끝나면, 실질적으로 더 많은 변경이 어렵다.** - 안정화(stable) 수준: - 버전 이름이 `vX`이고 `X` 는 정수다. @@ -95,8 +99,7 @@ API 버전이 다른 경우는 안정성이나 기술 지원의 수준이 다르 ## API 그룹 -쿠버네티스 API를 보다 쉽게 확장하기 위해서, -[*API 그룹*](https://git.k8s.io/community/contributors/design-proposals/api-machinery/api-group.md)을 구현했다. +쿠버네티스 API를 보다 쉽게 확장하기 위해서, [*API 그룹*](https://git.k8s.io/community/contributors/design-proposals/api-machinery/api-group.md)을 구현했다. API 그룹은 REST 경로와 직렬화된 객체의 `apiVersion` 필드에 명시된다. 현재 다양한 API 그룹이 사용되고 있다. @@ -111,8 +114,9 @@ API 그룹은 REST 경로와 직렬화된 객체의 `apiVersion` 필드에 명 1. [CustomResourceDefinition](/docs/tasks/access-kubernetes-api/extend-api-custom-resource-definitions/)은 아주 기본적인 CRUD 요구를 갖는 사용자에게 적합하다. -1. 쿠버네티스 API 의미론의 전체 셋을 가지고 사용자만의 apiserver를 만들고자하는 사용자는 [aggregator](/docs/tasks/access-kubernetes-api/configure-aggregation-layer/)를 사용해서 클라이언트 입장에서 매끄럽게 동작하도록 - 만들 수 있다. +1. 쿠버네티스 API 의미론의 전체 셋을 가지고, 사용자만의 apiserver를 만들고자하는 사용자는 + [aggregator](/docs/tasks/access-kubernetes-api/configure-aggregation-layer/)를 사용해서 클라이언트 입장에서 매끄럽게 동작하도록 + 만들 수 있다. ## API 그룹 활성화 시키기 @@ -122,7 +126,7 @@ API 그룹은 REST 경로와 직렬화된 객체의 `apiVersion` 필드에 명 `--runtime-config=batch/v1=false`와 같이 설정하고, batch/v2alpha1을 활성화 시키려면 `--runtime-config=batch/v2alpha1`을 설정한다. 이 플래그는 apiserver의 런타임 설정에 쉼표로 분리된 키=값 쌍의 집합을 허용한다. -중요: 그룹이나 리소스를 활성화 또는 비활성화 시키기 위해서는 apiserver와 controller-manager를 재시작해서 +중요: 그룹이나 리소스를 활성화 또는 비활성화 시키기 위해서는 apiserver와 controller-manager를 재시작해서 `--runtime-config` 변경을 반영시켜야 한다. ## 그룹 내 리소스 활성화 시키기 diff --git a/content/ko/docs/concepts/overview/what-is-kubernetes.md b/content/ko/docs/concepts/overview/what-is-kubernetes.md index 0e5823b6bf4ed..86fb8e3af736f 100644 --- a/content/ko/docs/concepts/overview/what-is-kubernetes.md +++ b/content/ko/docs/concepts/overview/what-is-kubernetes.md @@ -12,196 +12,77 @@ card: {{% /capture %}} {{% capture body %}} -쿠버네티스는 컨테이너화된 워크로드와 서비스를 관리하기 위한 이식성이 있고, -확장가능한 오픈소스 플랫폼이다. 쿠버네티스는 선언적 구성과 자동화를 모두 -용이하게 해준다. 쿠버네티스는 크고, 빠르게 성장하는 생태계를 가지고 있다. -쿠버네티스 서비스, 기술 지원 및 도구는 어디서나 쉽게 이용할 수 있다. - -구글이 2014년에 쿠버네티스 프로젝트를 오픈소스화했다. -쿠버네티스는 -[구글의 15여년에 걸친 대규모 상용 워크로드 운영 경험](https://research.google.com/pubs/pub43438.html)을 -기반으로 만들어졌으며 -커뮤니티의 최고의 아이디어와 적용 사례가 결합되었다. - -## 쿠버네티스가 왜 필요하고 무엇을 할 수 있는가 - -쿠버네티스에는 많은 기능이 있다. 다음과 같이 생각해 볼 수 있다. - -- 컨테이너 플랫폼 -- 마이크로서비스 플랫폼 -- 이식성 있는 클라우드 플랫폼 -그리고 더 많은 기능. - -쿠버네티스는 **컨테이너 중심의** 관리 환경을 제공한다. -이 환경은 사용자 워크로드를 위해서 -컴퓨팅, 네트워킹 및 스토리지 인프라스트럭처를 오케스트레이션한다. -이는 Platform as a Service(PaaS)의 매우 단순명료함에 -Infrastructure as a Service (IaaS)의 유연함을 더해 주며, -인프라스트럭처 제공자 간 이식을 가능하게 한다. - -## 어떻게 쿠버네티스가 플랫폼인가 - -쿠버네티스가 제공하는 많은 기능이 있지만, -신규 기능을 통해 혜택을 얻을 수 있는 새로운 시나리오는 항상 있게 마련이다. -개발자의 생산성을 극대화할 수 있도록 애플리케이션에 특화된 워크플로우를 최적화할 수 있다. -초기에 수용 가능한 애드혹 오케스트레이션은 -대규모의 견고한 자동화를 필요로 하곤 한다. -이것이 쿠버네티스가 애플리케이션을 더 쉽게 배포하고, -스케일링하며, 관리하는 컴포넌트와 툴의 생태계를 만드는 -플랫폼의 기능을 하도록 설계된 이유이다. - -[레이블](/docs/concepts/overview/working-with-objects/labels/)은 -사용자가 원하는 방식대로 자원을 정리할 수 있도록 해준다. -[어노테이션](/docs/concepts/overview/working-with-objects/annotations/)은 -자원에 사용자 정의 정보를 추가해서 -사용자의 워크플로우에 활용할 수 있도록 하고 -관리 툴이 상태를 쉽게 체크할 수 있는 방법을 제공해 준다. - -추가로, -[쿠버네티스 컨트롤 플레인](/docs/concepts/overview/components/)은 -개발자와 사용자가 공통으로 사용할 수 있는 [API](/docs/reference/using-api/api-overview/)를 -기반으로 하고 있다. -사용자는 -범용의 [커맨드라인 툴]((/docs/user-guide/kubectl-overview/))을 -대상으로 하는 [자체 API](/docs/concepts/api-extension/custom-resources/)를 가진 -[스케줄러](https://github.com/kubernetes/community/blob/{{< param "githubbranch" >}}/contributors/devel/scheduler.md)와 -같은 사용자만의 컨트롤러를 작성할 수 있다. - -이 [설계](https://git.k8s.io/community/contributors/design-proposals/architecture/architecture.md)를 통해 -쿠버네티스 위에 -많은 다른 시스템을 올릴 수 있게 된다. +쿠버네티스는 컨테이너화된 워크로드와 서비스를 관리하기 위한 이식성이 있고, 확장가능한 오픈소스 플랫폼이다. 쿠버네티스는 선언적 구성과 자동화를 모두 용이하게 해준다. 쿠버네티스는 크고, 빠르게 성장하는 생태계를 가지고 있다. 쿠버네티스 서비스, 기술 지원 및 도구는 어디서나 쉽게 이용할 수 있다. + +쿠버네티스란 명칭은 키잡이(helmsman)이나 파일럿을 뜻하는 그리스어에서 유래했다. 구글이 2014년에 쿠버네티스 프로젝트를 오픈소스화했다. 쿠버네티스는 [구글의 15여년에 걸친 대규모 상용 워크로드 운영 경험](https://research.google.com/pubs/pub43438.html)을 기반으로 만들어졌으며 커뮤니티의 최고의 아이디어와 적용 사례가 결합되었다. + +## 여정 돌아보기 +시간이 지나면서 쿠버네티스가 왜 유용하게 되었는지 살펴본다. + +![배포 혁명](/images/docs/Container_Evolution.svg) + +**전통적인 배포 시대** +초기 조직은 애플리케이션을 물리 서버에서 실행했었다. 물리 서버에서 애플리케이션을 위한 리소스 한계를 정의할 방법이 없었기에, 리소스 할당의 문제가 발생했다. 예를 들어 물리 서버에서 여러 애플리케이션을 실행하면, 리소스 전부를 차지하는 애플리케이션 인스턴스가 있을 수 있고, 결과적으로는 다른 애플리케이션의 성능이 저하될 수 있었다. 이에 대한 해결책은 다른 물리 서버에서 각 애플리케이션을 실행하는 것일 수 있다. 그러나 리소스가 충분히 활용되지 않아 확장할 수 없었으므로, 조직이 많은 물리 서버를 유지하기 위해서는 많은 비용이 들었다. + +**가상화된 배포 시대** 해결책으로 가상화가 도입되었다. 단일 물리 서버의 CPU에서 여러 가상 시스템 (VM)을 실행할 수 있다. 가상화를 사용하면 VM간에 애플리케이션을 격리하고 애플리케이션의 정보를 다른 애플리케이션에서 자유롭게 액세스 할 수 없으므로, 일정 수준의 보안성을 제공할 수 있다. + +가상화를 사용하면 물리 서버에서 리소스를 보다 효율적으로 활용할 수 있으며, 애플리케이션을 쉽게 추가하거나 업데이트할 수 있고 하드웨어 비용을 절감 할 수 있어, 더 나은 확장성을 제공한다. + +각 VM은 가상화된 하드웨어 상에서 자체 운영체제를 포함한 모든 구성 요소를 실행하는 전체 시스템이다. + +**컨테이너 개발 시대:** 컨테이너는 VM과 유사하지만 격리 속성을 완화하여 애플리케이션 간에 운영체제(OS)를 공유한다. 그러므로 컨테이너는 경량으로 간주한다. VM과 마찬가지로 컨테이너에는 자체 파일 시스템, CPU, 메모리, 프로세스 공간 등이 있다. 기본 인프라와의 종속성을 끊었기 때문에, 클라우드와 OS 배포본에 걸쳐 이식할 수 있다. + +쿠버네티스에는 많은 기능이 있어 점점 인기를 끌고 있다. 컨테이너의 장점의 일부는 다음과 같다. + +* 기민한 애플리케이션 생성과 배포: VM 이미지 사용 대비 컨테이너 이미지 생성이 보다 쉽고 효율적임. +* 지속적인 개발, 통합 및 배포: 안정적이고 주기적으로 컨테이너 이미지를 빌드해서 배포할 수 있고 (이미지의 불변성 덕에) 빠르고 쉽게 롤백할 수 있다. +* 개발과 운영의 관심사 분리: 배포 시점이 아닌 빌드/릴리스 시점에 애플리케이션 컨테이너 이미지를 만들기 때문에, 애플리케이션이 인프라스트럭처에서 디커플된다. +* 가시성은 OS 수준의 정보와 메트릭에 머무르지 않고, 애플리케이션의 헬스와 그 밖의 시그널을 볼 수 있다. +* 개발, 테스팅 및 운영 환경을 걸친 일관성: 랩탑에서도 클라우드에서와 동일하게 구동된다. +* 클라우드 및 OS 배포판 간 이식성: Ubuntu, RHEL, CoreOS, on-prem, Google Kubernetes Engine 및 다른 어디에서든 구동된다. +* 애플리케이션 중심 관리: 가상 하드웨어의 OS에서 애플리케이션을 구동하는 수준에서 OS의 논리적인 자원을 사용하여 애플리케이션을 구동하는 수준으로 추상화 수준이 높아진다. +* 느슨하게 커플되고, 분산되고, 유연하며, 자유로운 마이크로서비스: 애플리케이션은 단일 목적의 머신에서 모놀리식 스택으로 구동되지 않고 보다 작고 독립적인 단위로 쪼개져서 동적으로 배포되고 관리될 수 있다. +* 자원 격리: 애플리케이션 성능을 예측할 수 있다. +* 지원 사용량: 고효율 고집적. + +## 쿠버네티스가 왜 필요하고 무엇을 할 수 있나 + +컨테이너는 애플리케이션을 포장하고 실행하는 좋은 방법이다. 프로덕션 환경에서는 애플리케이션을 실행하는 컨테이너를 관리하고 가동 중지 시간이 없는지 확인해야한다. 예를 들어 컨테이너가 다운되면 다른 컨테이너를 다시 시작해야한다. 이 문제를 시스템에 의해 처리한다면 더 쉽지 않을까? + +그것이 쿠버네티스의 구조에 오는 방법이다! 쿠버네티스는 분산 시스템을 탄력적으로 실행하기위한 프레임 워크를 제공한다. 확장 요구 사항, 장애 조치, 배포 패턴 등을 처리한다. 예를 들어, 쿠버네티스는 시스템에 카나리아 배치를 쉽게 관리 할 수 ​​있다. + +쿠버네티스는 다음을 제공한다. + +* **서비스 디스커버리와 로드 밸런싱** +쿠버네티스는 DNS 이름을 사용하거나 자체 IP 주소를 사용하여 컨테이너를 노출할 수 있다. 컨테이너에 대한 트래픽이 많으면, 쿠버네티스는 네트워크 트래픽을 로드밸런싱하고 배포하여 배포가 안정적으로 이루어질 수 있다. +* **스토리지 오케스트레이션** +쿠버네티스를 사용하면 로컬 저장소, 공용 클라우드 공급자 등과 같이 원하는 저장소 시스템을 자동으로 탑재 할 수 있다. +* **자동화된 롤아웃과 롤백** +쿠버네티스를 사용하여 배포 된 컨테이너의 원하는 상태를 설명 할 수 있으며 실제 상태를 제어 된 속도로 원하는 상태로 변경할 수 있다. 예를 들어 쿠버네티스를 자동화하여 배포용 새 컨테이너를 만들고, 기존 컨테이너를 제거하고, 모든 리소스를 새 컨테이너로 적용 할 수 있다. +* **자동화된 빈 패킹(bin packing)** +쿠버네티스를 사용하면 각 컨테이너에 필요한 CPU 및 메모리 (RAM)의 양을 지정할 수 있다. 컨테이너에 자원 요청이 지정되면 쿠버네티스는 컨테이너에 대한 자원을 관리하기 위해 더 나은 결정을 내릴 수 있다. +* **자동화된 복구(self-healing)** +쿠버네티스는 실패한 컨테이너를 다시 시작하고, 컨테이너를 대체하며, 사용자 정의 상태 검사에 응답하지 않는 컨테이너를 죽이고, 서비스 준비가 끝날 때까지 클라이언트에 알리지 않는다. +**시크릿과 구성 관리** +쿠버네티스를 사용하면 암호, OAuth 토큰 및 ssh 키와 같은 중요한 정보를 저장하고 관리 할 수 ​​있다. 컨테이너 이미지를 재구성하지 않고 스택 구성에 비밀을 노출하지 않고도 비밀 및 애플리케이션 구성을 배포 및 업데이트 할 수 있다. ## 쿠버네티스가 아닌 것 -쿠버네티스는 전통적인, 모든 것이 포함된 Platform as a Service(PaaS)가 -아니다. 쿠버네티스는 하드웨어 수준보다는 컨테이너 수준에서 운영되기 때문에, -PaaS가 일반적으로 제공하는 배포, 스케일링, 로드 밸런싱, 로깅 및 모니터링과 -같은 기능에서 공통점이 있기도 하다. -하지만, 쿠버네티스는 모놀리식(monolithic)하지 -않아서, 이런 기본 솔루션이 선택적이며 추가나 제거가 용이하다. -쿠버네티스는 개발자 플랫폼을 만드는 구성 요소를 제공하지만, -필요한 경우 사용자의 선택권과 -유연성을 지켜준다. - -쿠버네티스는 - -* 지원하는 애플리케이션의 유형을 제약하지 않는다. 쿠버네티스는 - 상태 유지가 필요 없는(stateless) 워크로드, 상태 유지가 필요한(stateful) 워크로드, - 데이터 처리를 위한 워크로드를 포함해서 극단적으로 다양한 워크로드를 지원하는 - 것을 목표로 한다. 애플리케이션이 컨테이너에서 구동될 수 있다면, 쿠버네티스에서 - 매우 잘 동작할 것이다. -* 소스 코드를 배포하지 않으며 애플리케이션을 빌드하지 않는다. - 지속적인 통합과 전달과 배포 곧 CI/CD 워크플로우는 - 조직 문화와 취향에 따를 뿐만 아니라 - 기술적인 요구사항으로 결정된다. -* 미들웨어(예, 메시지 버스), 데이터 처리 프레임워크(예, Spark), 데이터베이스(예, mysql), - 캐시 또는 클러스터 스토리지 시스템(예, Ceph)와 같은 애플리케이션 레벨의 서비스를 - 제공하지 않는다. 이런 컴포넌트는 쿠버네티스 상에서 구동될 수 있고, - 쿠버네티스 상에서 - 구동 중인 애플리케이션이 Open Service Broker와 같은 이식 가능한 메커니즘을 통해 접근할 - 수도 있다. -* 로깅, 모니터링 또는 경보 솔루션을 포함하지 않는다. - 개념 증명을 위한 일부 통합이나, - 메트릭을 수집하고 노출하는 메커니즘을 제공한다. -* 기본 설정 언어/시스템(예, [jsonnet](https://github.com/google/jsonnet))을 제공하거나 - 요구하지 않는다. - 선언적 명세의 임의적인 형식을 목적으로 하는 선언적 API를 제공한다. -* 포괄적인 머신 설정, 유지보수, 관리, 자동 복구 시스템을 - 제공하거나 채택하지 않는다. - -추가로, 쿠버네티스는 단순한 *오케스트레이션 시스템* 이 아니다. -사실, 쿠버네티스는 오케스트레이션의 필요성을 없애준다. -*오케스트레이션* 의 기술적인 정의는 A를 먼저 한 다음, B를 하고, C를 하는 것과 같이 -정의된 워크플로우를 수행하는 것이다. 반면에, 쿠버네티스는 -독립적이고 조합 가능한 제어 프로세스들로 구성되어 -있다. 이 프로세스는 지속적으로 현재 상태를 입력받은 의도된 상태로 나아가도록 한다. -A에서 C로 어떻게 갔는지는 상관이 없다. 중앙화된 제어도 필요치 않다. 이로써 시스템이 -보다 더 사용하기 쉬워지고, -강력해지며, 견고하고, 회복력을 갖추게 되며, 확장 가능해진다. - -## 왜 컨테이너인가 - -왜 컨테이너를 써야하는지 이유를 알고 싶은가? - -![Why Containers?](/images/docs/why_containers.svg) - -애플리케이션을 배포하는 *옛 방식* 은 운영 체제의 패키지 관리자를 -사용해서 애플리케이션을 호스트에 설치하는 것이었다. 이 방식은 -애플리케이션의 실행 파일, 설정, 라이브러리 서로 간의 라이프사이클과 -호스트 OS와 얽히게 된다는 단점이 있다. -예측 가능한 롤아웃과 롤백을 -위해서 불변의 가상 머신 이미지를 만들 수도 있지만, -VM은 너무 크고 이식 가능하지 않다. - -*새로운 방법* 은 하드웨어 가상화가 아닌 운영 체제 수준의 가상화에 기반한 -컨테이너를 배포하는 것이다. 이 컨테이너는 서로 격리되고 호스트와도 격리된다. -컨테이너는 컨테이너 자체의 파일시스템을 갖고, -다른 컨테이너의 프로세스를 알 수 없으며, -연산에 필요한 자원을 제한할 수 있다. -VM보다 빌드하기 쉬우며, -기반이 되는 인프라스트럭처와 호스트 파일시스템에서 -디커플되었기(decoupled) 때문에 클라우드나 OS 배포판 간 이식성이 있다. - -컨테이너는 작고 빠르기 때문에, 애플리케이션 각각을 컨테이너 이미지로 -패키지할 수 있다. 이렇게 애플리케이션과 이미지를 일대일 관계를 갖도록 하면 -컨테이너의 혜택을 만끽할 수 있게 된다. -불변의 컨테이너 이미지는 -배포 시점이 아닌 빌드/릴리스 시점에 만들어질 수 있다. -왜냐하면 각각의 애플리케이션은 -애플리케이션 스택 외의 나머지 요소와 조합될 필요가 없기 때문이고, -운영 인프라스트럭처 환경에 밀접하게 결합시킬 필요도 없기 때문이다. -컨테이너 이미지를 빌드/릴리스 시점에 생성하게 되면 개발 -환경부터 운영 환경까지 일관된 환경을 가져갈 수 있게 된다. -마찬가지로, 컨테이너는 VM보다 훨씬 더 투명해서 모니터링과 관리가 용이하다. -컨테이너의 프로세스 라이프사이클이 수퍼바이저 프로세스에 의해 컨테이너 -내에 감추어지지 않고, 인프라스트럭처에 의해 관리될 때 더욱 이는 -용이해진다. 컨테이너마다 단일 애플리케이션을 담게되면, -궁극적으로 컨테이너를 관리하는 것이 애플리케이션의 배포를 관리하는 것과 같아진다. - -컨테이너의 혜택 요약: - -* **기민한 애플리케이션 생성과 배포**: - VM 이미지 사용 대비 컨테이너 이미지 생성이 보다 쉽고 효율적임. -* **지속적인 개발, 통합 및 배포**: - 안정적이고 주기적으로 컨테이너 이미지를 - 빌드해서 배포할 수 있고 - (이미지의 불변성 덕에) 빠르고 쉽게 롤백할 수 있다. -* **개발과 운영의 관심사 분리**: - 배포 시점이 아닌 빌드/릴리스 시점에 - 애플리케이션 컨테이너 이미지를 만들기 때문에, - 애플리케이션이 인프라스트럭처에서 디커플된다. -* **가시성** - OS 수준의 정보와 메트릭에 머무르지 않고, 애플리케이션의 헬스와 - 그 밖의 시그널을 볼 수 있다. -* **개발, 테스팅 및 운영 환경을 걸친 일관성**: - 랩탑에서도 클라우드에서와 동일하게 구동된다. -* **클라우드 및 OS 배포판 간 이식성**: - Ubuntu, RHEL, CoreOS, on-prem, Google Kubernetes Engine 및 다른 어디에서든 구동된다. -* **애플리케이션 중심 관리**: - 가상 하드웨어의 OS에서 애플리케이션을 구동하는 수준에서 OS의 - 논리적인 자원을 사용하여 애플리케이션을 구동하는 수준으로 추상화 수준이 높아진다. -* **느슨하게 커플되고, 분산되고, 유연하며, 자유로운 [마이크로서비스](https://martinfowler.com/articles/microservices.html)**: - 애플리케이션은 단일 목적의 머신에서 모놀리식 스택으로 - 구동되지 않고 보다 작고 독립적인 단위로 쪼개져서 동적으로 배포되고 - 관리될 수 있다. -* **자원 격리**: - 애플리케이션 성능을 예측할 수 있다. -* **지원 사용량**: - 고효율 고집적. - -## 쿠버네티스와 K8s의 뜻 - -**쿠버네티스**는 *키잡이* 나 *파일럿* 을 뜻하는 그리스어에서 유래했으며, -이는 *governor*(통치자)와 -[cybernetic(인공두뇌학)](http://www.etymonline.com/index.php?term=cybernetics)의 -어원이다. -*K8s* 는 "ubernete" 8 글자를 "8"로 대체한 약어이다. +쿠버네티스는 전통적인, 모든 것이 포함된 Platform as a Service(PaaS)가 아니다. 쿠버네티스는 하드웨어 수준보다는 컨테이너 수준에서 운영되기 때문에, PaaS가 일반적으로 제공하는 배포, 스케일링, 로드 밸런싱, 로깅 및 모니터링과 같은 기능에서 공통점이 있기도 하다. 하지만, 쿠버네티스는 모놀리식(monolithic)하지 않아서, 이런 기본 솔루션이 선택적이며 추가나 제거가 용이하다. 쿠버네티스는 개발자 플랫폼을 만드는 구성 요소를 제공하지만, 필요한 경우 사용자의 선택권과 유연성을 지켜준다. + +쿠버네티스 + +* 지원하는 애플리케이션의 유형을 제약하지 않는다. 쿠버네티스는 상태 유지가 필요 없는(stateless) 워크로드, 상태 유지가 필요한(stateful) 워크로드, 데이터 처리를 위한 워크로드를 포함해서 극단적으로 다양한 워크로드를 지원하는 것을 목표로 한다. 애플리케이션이 컨테이너에서 구동될 수 있다면, 쿠버네티스에서 매우 잘 동작할 것이다. +* 소스 코드를 배포하지 않으며 애플리케이션을 빌드하지 않는다. 지속적인 통합과 전달과 배포 곧 CI/CD 워크플로우는 조직 문화와 취향에 따를 뿐만 아니라 기술적인 요구사항으로 결정된다. +* 미들웨어(예, 메시지 버스), 데이터 처리 프레임워크(예, Spark), 데이터베이스(예, mysql), 캐시 또는 클러스터 스토리지 시스템(예, Ceph)와 같은 애플리케이션 레벨의 서비스를 제공하지 않는다. 이런 컴포넌트는 쿠버네티스 상에서 구동될 수 있고, 쿠버네티스 상에서 구동 중인 애플리케이션이 Open Service Broker와 같은 이식 가능한 메커니즘을 통해 접근할 수도 있다. +* 로깅, 모니터링 또는 경보 솔루션을 포함하지 않는다. 개념 증명을 위한 일부 통합이나, 메트릭을 수집하고 노출하는 메커니즘을 제공한다. +* 기본 설정 언어/시스템(예, jsonnet)을 제공하거나 요구하지 않는다. 선언적 명세의 임의적인 형식을 목적으로 하는 선언적 API를 제공한다. +* 포괄적인 머신 설정, 유지보수, 관리, 자동 복구 시스템을 제공하거나 채택하지 않는다. +* 추가로, 쿠버네티스는 단순한 오케스트레이션 시스템이 아니다. 사실, 쿠버네티스는 오케스트레이션의 필요성을 없애준다. 오케스트레이션의 기술적인 정의는 A를 먼저 한 다음, B를 하고, C를 하는 것과 같이 정의된 워크플로우를 수행하는 것이다. 반면에, 쿠버네티스는 독립적이고 조합 가능한 제어 프로세스들로 구성되어 있다. 이 프로세스는 지속적으로 현재 상태를 입력받은 의도된 상태로 나아가도록 한다. A에서 C로 어떻게 갔는지는 상관이 없다. 중앙화된 제어도 필요치 않다. 이로써 시스템이 보다 더 사용하기 쉬워지고, 강력해지며, 견고하고, 회복력을 갖추게 되며, 확장 가능해진다. {{% /capture %}} {{% capture whatsnext %}} -* [시작할](/docs/setup/) 준비가 되었는가? -* 보다 자세한 내용은 [쿠버네티스 문서](/ko/docs/home/)를 참조한다. +* [쿠버네티스 구성요소](/docs/concepts/overview/components/) 살펴보기 +* [시작하기](/docs/setup/) 준비가 되었는가? {{% /capture %}} - - diff --git a/content/ko/docs/concepts/overview/working-with-objects/annotations.md b/content/ko/docs/concepts/overview/working-with-objects/annotations.md index 1825239058c0b..b0b3c975f02c1 100644 --- a/content/ko/docs/concepts/overview/working-with-objects/annotations.md +++ b/content/ko/docs/concepts/overview/working-with-objects/annotations.md @@ -69,8 +69,29 @@ _어노테이션_ 은 키/값 쌍이다. 유효한 어노테이션 키에는 두 `kubernetes.io/`와 `k8s.io/` 접두사는 쿠버네티스 핵심 구성 요소를 위해 예약되어 있다. +다음은 `imageregistry: https://hub.docker.com/` 어노테이션이 있는 파드의 구성 파일 예시이다. + +```yaml + +apiVersion: v1 +kind: Pod +metadata: + name: annotations-demo + annotations: + imageregistry: "https://hub.docker.com/" +spec: + containers: + - name: nginx + image: nginx:1.7.9 + ports: + - containerPort: 80 + +``` + {{% /capture %}} {{% capture whatsnext %}} [레이블과 셀렉터](/docs/concepts/overview/working-with-objects/labels/)에 대해 알아본다. {{% /capture %}} + + diff --git a/content/ko/docs/concepts/overview/working-with-objects/names.md b/content/ko/docs/concepts/overview/working-with-objects/names.md index 45e44b5c28e83..8896f2e931388 100644 --- a/content/ko/docs/concepts/overview/working-with-objects/names.md +++ b/content/ko/docs/concepts/overview/working-with-objects/names.md @@ -17,13 +17,28 @@ weight: 20 {{% capture body %}} -## Names +## 이름 {#names} {{< glossary_definition term_id="name" length="all" >}} 관례에 따라, 쿠버네티스 리소스의 이름은 최대 253자까지 허용되고 소문자 알파벳과 숫자(alphanumeric), `-`, 그리고 `.`로 구성되며 특정 리소스는 보다 구체적인 제약을 갖는다. -## UIDs +다음은 이름이 `nginx-demo`이고 컨테이너 이름이 `nginx`인 파드의 구성 파일 예시이다. + +```yaml +apiVersion: v1 +kind: Pod +metadata: + name: nginx-demo +spec: + containers: + - name: nginx + image: nginx:1.7.9 + ports: + - containerPort: 80 +``` + +## UID {#uids} {{< glossary_definition term_id="uid" length="all" >}} diff --git a/content/ko/docs/concepts/workloads/controllers/replicationcontroller.md b/content/ko/docs/concepts/workloads/controllers/replicationcontroller.md new file mode 100644 index 0000000000000..38d1c99937ee8 --- /dev/null +++ b/content/ko/docs/concepts/workloads/controllers/replicationcontroller.md @@ -0,0 +1,291 @@ +--- + + + +title: 레플리케이션 컨트롤러 +feature: + title: 자가 치유 + anchor: 레플리케이션 컨트롤러의 동작 방식 + description: > + 오류가 발생한 컨테이너를 재시작하고, 노드가 죽었을 때 컨테이너를 교체하기 위해 다시 스케줄하고, 사용자 정의 상태 체크에 응답하지 않는 컨테이너를 제거하며, 서비스를 제공할 준비가 될 때까지 클라이언트에 해당 컨테이너를 알리지 않는다. + +content_template: templates/concept +weight: 20 +--- + +{{% capture overview %}} + +{{< note >}} +[`ReplicaSet`](/docs/concepts/workloads/controllers/replicaset/) 을 구성하는 [`Deployment`](/docs/concepts/workloads/controllers/deployment/) 가 현재 권장되는 레플리케이션 설정 방법이다. +{{< /note >}} + +_레플리케이션 컨트롤러_ 는 언제든지 지정된 수의 파드 레플리카가 +실행 중임을 보장한다. +다시 말하면, 레플리케이션 컨트롤러는 파드 또는 동일 종류의 파드의 셋이 항상 기동되고 사용 가능한지 확인한다. + +{{% /capture %}} + + +{{% capture body %}} + +## 레플리케이션 컨트롤러의 동작방식 + +파드가 너무 많으면 레플리케이션 컨트롤러가 추가적인 파드를 제거한다. +너무 적으면 레플리케이션 컨트롤러는 더 많은 파드를 시작한다. +수동으로 생성된 파드와 달리 레플리케이션 컨트롤러가 유지 관리하는 파드는 실패하거나 삭제되거나 종료되는 경우 자동으로 교체된다. +예를 들어, 커널 업그레이드와 같이 파괴적인 유지 보수 작업을 하고 난 이후의 노드에서 파드가 다시 생성된다. +따라서 애플리케이션에 하나의 파드만 필요한 경우에도 레플리케이션 컨트롤러를 사용해야 한다. +레플리케이션 컨트롤러는 프로세스 감시자(supervisor)와 유사하지만 +단일 노드에서 개별 프로세스를 감시하는 대신 레플리케이션 컨트롤러는 +여러 노드에서 여러 파드를 감시한다. + +레플리케이션 컨트롤러는 디스커션에서 종종 "rc" 혹은 "rcs"로 축약되며 +kubectl 명령에서 숏컷으로 사용된다. + +간단한 경우는 하나의 레플리케이션 컨트롤러 오브젝트를 생성하여 +한 개의 파드 인스턴스를 영구히 안정적으로 실행하는 것이다. +보다 복잡한 사용 사례는 웹 서버와 같이 복제된 서비스의 동일한 레플리카를 여러 개 실행하는 것이다. + +## 레플리케이션 컨트롤러 예제 실행 + +레플리케이션 컨트롤러 예제의 config는 nginx 웹서버의 복사본 세 개를 실행한다. + +{{< codenew file="controllers/replication.yaml" >}} + +예제 파일을 다운로드 한 후 다음 명령을 실행하여 예제 작업을 실행하라. + +```shell +kubectl apply -f https://k8s.io/examples/controllers/replication.yaml +``` +``` +replicationcontroller/nginx created +``` + +다음 명령을 사용하여 레플리케이션 컨트롤러의 상태를 확인하라. + +```shell +kubectl describe replicationcontrollers/nginx +``` +``` +Name: nginx +Namespace: default +Selector: app=nginx +Labels: app=nginx +Annotations: +Replicas: 3 current / 3 desired +Pods Status: 0 Running / 3 Waiting / 0 Succeeded / 0 Failed +Pod Template: + Labels: app=nginx + Containers: + nginx: + Image: nginx + Port: 80/TCP + Environment: + Mounts: + Volumes: +Events: + FirstSeen LastSeen Count From SubobjectPath Type Reason Message + --------- -------- ----- ---- ------------- ---- ------ ------- + 20s 20s 1 {replication-controller } Normal SuccessfulCreate Created pod: nginx-qrm3m + 20s 20s 1 {replication-controller } Normal SuccessfulCreate Created pod: nginx-3ntk0 + 20s 20s 1 {replication-controller } Normal SuccessfulCreate Created pod: nginx-4ok8v +``` + +이제 세 개의 파드가 생성되었으나 아직 이미지가 풀(pull)되지 않아서 어떤 파드도 시작되지 않았다. +조금 지난 후에 같은 명령이 다음과 같이 보일 것이다. + +```shell +Pods Status: 3 Running / 0 Waiting / 0 Succeeded / 0 Failed +``` + +레플리케이션 컨트롤러에 속한 모든 파드를 머신이 읽을 수 있는 형식으로 나열하기 위해 다음과 같은 명령을 사용할 수 있다. + +```shell +pods=$(kubectl get pods --selector=app=nginx --output=jsonpath={.items..metadata.name}) +echo $pods +``` +``` +nginx-3ntk0 nginx-4ok8v nginx-qrm3m +``` + +여기서 셀렉터는 레플리케이션 컨트롤러의 셀렉터와 같다 ( +`kubectl describe` 의 출력에서 볼 수 있는 것과, 다른 형식의 파일인 `replication.yaml` 의 것). `--output=jsonpath` 옵션은 +반환된 목록의 각 파드에서 이름을 가져오는 표현식을 지정한다. + + +## 레플리케이션 컨트롤러의 Spec 작성 + +다른 모든 쿠버네티스 컨피그와 마찬가지로 레플리케이션 컨트롤러는 `apiVersion`, `kind`, `metadata` 와 같은 필드가 필요하다. +컨피그 파일의 동작에 관련된 일반적인 정보는 다음을 참조하라 [쿠버네티스 오브젝트 관리 ](/ko/docs/concepts/overview/working-with-objects/object-management/). + +레플리케이션 컨트롤러는 또한 [`.spec` section](https://git.k8s.io/community/contributors/devel/sig-architecture/api-conventions.md#spec-and-status) 도 필요하다. + +### 파드 템플릿 + +`.spec.template` 는 오직 `.spec` 필드에서 요구되는 것이다. + +`.spec.template` 는 [파드(Pod) 개요](/ko/docs/concepts/workloads/pods/pod-overview/#pod-templates) 이다. 정확하게 [파드](/ko/docs/concepts/workloads/pods/pod/) 스키마와 동일하나, 중첩되어 있고 `apiVersion` 혹은 `kind`를 갖지 않는다. + +파드에 필요한 필드 외에도 레플리케이션 컨트롤러의 파드 템플릿은 적절한 레이블과 적절한 재시작 정책을 지정해야 한다. 레이블의 경우 다른 컨트롤러와 +중첩되지 않도록 하라. [파드 셀렉터](#파드-셀렉터)를 참조하라. + +오직 `Always` 와 동일한 [`.spec.template.spec.restartPolicy`](/ko/docs/concepts/workloads/pods/pod-lifecycle/#재시작-정책) 만 허용되며, 특별히 지정되지 않으면 기본값이다. + +로컬 컨테이너의 재시작의 경우, 레플리케이션 컨트롤러는 노드의 에이전트에게 위임한다. +예를 들어 [Kubelet](/docs/admin/kubelet/) 혹은 도커이다. + +### 레플리케이션 컨트롤러에서 레이블 + +레플리케이션 컨트롤러 자체는 레이블 (`.metadata.labels`) 을 가질 수 있다. 일반적으로 이것을 `.spec.template.metadata.labels` 와 동일하게 설정할 것이다. `.metadata.labels` 가 지정되어 있지 않은 경우, +기본은 `.spec.template.metadata.labels` 이다. 하지만 레이블은 +다른 것이 허용되며, `.metadata.labels` 라벨은 레플리케이션 컨트롤러의 +동작에 영향을 미치지 않는다. + +### 파드 셀렉터 + +`.spec.selector` 필드는 [레이블 셀렉터](/docs/concepts/overview/working-with-objects/labels/#label-selectors) 이다. 레플리케이션 컨트롤러는 셀렉터와 일치하는 레이블이 있는 모든 파드를 관리한다. +직접 생성하거나 삭제된 파드와 다른 사람이나 프로세스가 생성하거나 +삭제한 파드를 구분하지 않는다. 이렇게 하면 실행중인 파드에 영향을 주지 않고 +레플리케이션 컨트롤러를 교체할 수 있다. + +지정된 경우 `.spec.template.metadata.labels` 은 +`.spec.selector` 와 동일해야 하며 그렇지 않으면 API에 의해 거부된다. `.spec.selector` 가 지정되지 않은 경우 기본값은 +`.spec.template.metadata.labels` 이다. + +또한 일반적으로 이 셀렉터와 레이블이 일치하는 파드를 직접 +다른 레플리케이션 컨트롤러 또는 잡과 같은 다른 컨트롤러로 작성해서는 안된다. +그렇게 하면 레플리케이션 컨트롤러는 다른 파드를 생성했다고 생각한다. +쿠버네티스는 이런 작업을 중단해 주지 않는다. + +중첩된 셀렉터들을 갖는 다수의 컨트롤러들을 종료하게 되면, 삭제된 것들은 스스로 관리를 해야 한다 +([아래](#레플리케이션-컨트롤러-사용하기)를 참조). + +### 다수의 레플리카 + +`.spec.replicas` 를 동시에 실행하고 싶은 파드의 수로 설정함으로써 +실행할 파드의 수를 지정할 수 있다. 레플리카가 증가 또는 감소한 경우 또는 +파드가 정상적으로 종료되고 교체가 일찍 시작되는 경우라면 +언제든지 실행중인 수가 더 높거나 낮을 수 있다. + +`.spec.replicas` 를 지정하지 않으면 기본값은 1이다. + +## 레플리케이션 컨트롤러 사용하기 + +### 레플리케이션 컨트롤러와 레플리케이션 컨트롤러의 파드 삭제 + +레플리케이션 컨트롤러와 레플리케이션의 모든 파드를 삭제하려면 [`kubectl +delete`](/docs/reference/generated/kubectl/kubectl-commands#delete) 를 사용하라. +Kubectl은 레플리케이션 컨트롤러를 0으로 스케일하고 레플리케이션 컨트롤러 자체를 +삭제하기 전에 각 파드를 삭제하기를 기다린다. 이 kubectl 명령이 인터럽트되면 다시 시작할 수 있다. + +REST API나 go 클라이언트 라이브러리를 사용하는 경우 명시적으로 단계를 수행해야 한다 (레플리카를 0으로 스케일하고 파드의 삭제를 기다린 이후, +레플리케이션 컨트롤러를 삭제). + +### 레플리케이션 컨트롤러만 삭제 + +해당 파드에 영향을 주지 않고 레플리케이션 컨트롤러를 삭제할 수 있다. + +kubectl을 사용하여, [`kubectl delete`](/docs/reference/generated/kubectl/kubectl-commands#delete) 에 옵션으로 `--cascade=false`를 지정하라. + +REST API나 go 클라이언트 라이브러리를 사용하는 경우 간단히 레플리케이션 컨트롤러 오브젝트를 삭제하라. + +원본이 삭제되면 대체할 새로운 레플리케이션 컨트롤러를 생성하여 교체할 수 있다. 오래된 파드와 새로운 파드의 `.spec.selector` 가 동일하다면, +새로운 레플리케이션 컨트롤러는 오래된 파드를 채택할 것이다. 그러나 기존 파드를 +새로운 파드 템플릿과 일치시키려는 노력은 하지 않을 것이다. +새로운 spec에 대한 파드를 제어된 방법으로 업데이트하려면 [롤링 업데이트](#롤링-업데이트) 를 사용하라. + +### 레플리케이션 컨트롤러에서 파드 격리 + +파드는 레이블을 변경하여 레플리케이션 컨트롤러의 대상 셋에서 제거될 수 있다. 이 기술은 디버깅, 데이터 복구 등을 위해 서비스에서 파드를 제거하는데 사용될 수 있다. 이 방법으로 제거된 파드는 자동으로 교체된다 (레플리카 수가 변경되지 않는다고 가정). + +## 일반적인 사용법 패턴 + +### 다시 스케줄하기 + +위에서 언급했듯이, 실행하려는 파드가 한 개 혹은 1000개이든 관계없이 레플리케이션 컨트롤러는 노드 실패 또는 파드 종료시 지정된 수의 파드가 존재하도록 보장한다 (예 : 다른 제어 에이전트에 의한 동작으로 인해). + +### 스케일링 + +레플리케이션 컨트롤러는 `replicas` 필드를 업데이트함으로써 수동으로 또는 오토 스케일링 제어 에이전트로 레플리카의 수를 쉽게 스케일 업하거나 스케일 다운할 수 있다. + +### 롤링 업데이트 + +레플리케이션 컨트롤러는 파드를 하나씩 교체함으로써 서비스에 대한 롤링 업데이트를 쉽게 하도록 설계되었다. + +[#1353](http://issue.k8s.io/1353) 에서 설명한 것처럼, 권장되는 접근법은 1 개의 레플리카를 가진 새로운 레플리케이션 컨트롤러를 생성하고 새로운 (+1) 컨트롤러 및 이전 (-1) 컨트롤러를 차례대로 스케일한 후 0개의 레플리카가 되면 이전 컨트롤러를 삭제하는 것이다. 예상치 못한 오류와 상관없이 파드 세트를 예측 가능하게 업데이트한다. + +이상적으로 롤링 업데이트 컨트롤러는 애플리케이션 준비 상태를 고려하며 주어진 시간에 충분한 수의 파드가 생산적으로 제공되도록 보장할 것이다. + +두 레플리케이션 컨트롤러는 일반적으로 롤링 업데이트를 동기화 하는 이미지 업데이트이기 때문에 파드의 기본 컨테이너 이미지 태그와 같이 적어도 하나의 차별화된 레이블로 파드를 생성해야 한다. + +롤링 업데이트는 클라이언트 툴에서 [`kubectl rolling-update`](/docs/reference/generated/kubectl/kubectl-commands#rolling-update) 로 수행된다. +좀 더 상세한 예제는 [`kubectl rolling-update` task](/docs/tasks/run-application/rolling-update-replication-controller/) 를 방문하라. + +### 다수의 릴리스 트랙 + +롤링 업데이트가 진행되는 동안 다수의 애플리케이션 릴리스를 실행하는 것 외에도 다수의 릴리스 트랙을 사용하여 장기간에 걸쳐 또는 연속적으로 실행하는 것이 일반적이다. 트랙은 레이블 별로 구분된다. + +예를 들어, 서비스는 `tier in (frontend), environment in (prod)` 이 있는 모든 파드를 대상으로 할 수 있다. 이제 이 계층을 구성하는 10 개의 복제된 파드가 있다고 가정해 보자. 하지만 이 구성 요소의 새로운 버전을 '카나리' 하기를 원한다. 대량의 레플리카에 대해 `replicas` 를 9로 설정하고 `tier=frontend, environment=prod, track=stable` 레이블을 설정한 레플리케이션 컨트롤러와, 카나리에 `replicas` 가 1로 설정된 다른 레플리케이션 컨트롤러에 `tier=frontend, environment=prod, track=canary` 라는 레이블을 설정할 수 있다. 이제 이 서비스는 카나리와 카나리 이외의 파드 모두를 포함한다. 그러나 레플리케이션 컨트롤러를 별도로 조작하여 테스트하고 결과를 모니터링하는 등의 작업이 혼란스러울 수 있다. + +### 서비스와 레플리케이션 컨트롤러 사용 + +하나의 서비스 뒤에 여러 개의 레플리케이션 컨트롤러가 있을 수 있다. 예를 들어 일부 트래픽은 이전 버전으로 이동하고 일부는 새 버전으로 이동한다. + +레플리케이션 컨트롤러는 자체적으로 종료되지 않지만 서비스만큼 오래 지속될 것으로 기대되지는 않는다. 서비스는 여러 레플리케이션 컨트롤러에 의해 제어되는 파드로 구성될 수 있으며 서비스 라이프사이클 동안 (예를 들어 서비스를 실행하는 파드 업데이트 수행을 위해) +많은 레플리케이션 컨트롤러가 생성 및 제거될 것으로 예상된다. 서비스 자체와 클라이언트 모두 파드를 유지하는 레플리케이션 컨트롤러를 의식하지 않는 상태로 남아 있어야 한다. + +## 레플리케이션을 위한 프로그램 작성 + +레플리케이션 컨트롤러에 의해 생성된 파드는 해당 구성이 시간이 지남에 따라 이질적이 될 수 있지만 균일하고 의미상 동일하도록 설계되었다. 이는 레플리카된 상태 스테이트리스 서버에 적합하지만 레플리케이션 컨트롤러를 사용하여 마스터 선출, 샤드 및 워크-풀 애플리케이션의 가용성을 유지할 수도 있다. [RabbitMQ work queues](https://www.rabbitmq.com/tutorials/tutorial-two-python.html) 와 같은 애플리케이션은 안티패턴으로 간주되는 각 파드의 구성에 대한 정적/일회성 사용자 정의와 반대로 동적 작업 할당 메커니즘을 사용해야 한다. 리소스의 수직 자동 크기 조정 (예 : CPU 또는 메모리)과 같은 수행된 모든 파드 사용자 정의는 레플리케이션 컨트롤러 자체와 달리 다른 온라인 컨트롤러 프로세스에 의해 수행되어야 한다. + +## 레플리케이션 컨트롤러의 책임 + +레플리케이션 컨트롤러는 의도한 수의 파드가 해당 레이블 선택기와 일치하고 동작하는지를 단순히 확인한다. 현재, 종료된 파드만 해당 파드의 수에서 제외된다. 향후 시스템에서 사용할 수 있는 [readiness](http://issue.k8s.io/620) 및 기타 정보가 고려될 수 있으며 교체 정책에 대한 통제를 더 추가 할 수 있고 외부 클라이언트가 임의로 정교한 교체 또는 스케일 다운 정책을 구현하기 위해 사용할 수 있는 이벤트를 내보낼 계획이다. + +레플리케이션 컨트롤러는 이 좁은 책임에 영원히 제약을 받는다. 그 자체로는 준비성 또는 활성 프로브를 실행하지 않을 것이다. 오토 스케일링을 수행하는 대신, 외부 오토 스케일러 ([#492](http://issue.k8s.io/492)에서 논의된) 가 레플리케이션 컨트롤러의 `replicas` 필드를 변경함으로써 제어되도록 의도되었다. 레플리케이션 컨트롤러에 스케줄링 정책 (예를 들어 [spreading](http://issue.k8s.io/367#issuecomment-48428019)) 을 추가하지 않을 것이다. 오토사이징 및 기타 자동화 된 프로세스를 방해할 수 있으므로 제어된 파드가 현재 지정된 템플릿과 일치하는지 확인해야 한다. 마찬가지로 기한 완료, 순서 종속성, 구성 확장 및 기타 기능은 다른 곳에 속한다. 대량의 파드 생성 메커니즘 ([#170](http://issue.k8s.io/170)) 까지도 고려해야 한다. + +레플리케이션 컨트롤러는 조합 가능한 빌딩-블록 프리미티브가 되도록 고안되었다. 향후 사용자의 편의를 위해 더 상위 수준의 API 및/또는 도구와 그리고 다른 보완적인 기본 요소가 그 위에 구축 될 것으로 기대한다. 현재 kubectl이 지원하는 "매크로" 작업 (실행, 스케일, 롤링 업데이트)은 개념 증명의 예시이다. 예를 들어 [Asgard](http://techblog.netflix.com/2012/06/asgard-web-based-cloud-management-and.html) 와 같이 레플리케이션 컨트롤러, 오토 스케일러, 서비스, 정책 스케줄링, 카나리 등을 관리할 수 있다. + + +## API 오브젝트 + +레플리케이션 컨트롤러는 쿠버네티스 REST API의 최상위 수준의 리소스이다. +API 오브젝트에 대한 더 자세한 것은 +[ReplicationController API object](/docs/reference/generated/kubernetes-api/{{< param "version" >}}/#replicationcontroller-v1-core) 에서 찾을 수 있다. + +## 레플리케이션 컨트롤러의 대안 + +### 레플리카셋 + +[`레플리카셋`](/docs/concepts/workloads/controllers/replicaset/)은 새로운 [set-based label selector](/docs/concepts/overview/working-with-objects/labels/#set-based-requirement) 이다. +이것은 주로 [`디플로이먼트`](/docs/concepts/workloads/controllers/deployment/) 에 의해 파드의 생성, 삭제 및 업데이트를 오케스트레이션 하는 메커니즘으로 사용된다. +사용자 지정 업데이트 조정이 필요하거나 업데이트가 필요하지 않은 경우가 아니면 레플리카 셋을 직접 사용하는 대신 디플로이먼트를 사용하는 것이 좋다. + + +### 디플로이먼트 (권장되는) + +[`디플로이먼트`](/docs/concepts/workloads/controllers/deployment/) 는 `kubectl rolling-update` 와 비슷한 방식으로 기본 레플리카셋과 그 파드를 업데이트하는 상위 수준의 API 오브젝트이다. +`kubectl rolling-update` 와는 다르게 선언적이며, 서버 사이드이고, +추가 기능이 있기 때문에 롤링 업데이트 기능을 원한다면 디플로이먼트를 권장한다. + +### 베어 파드 + +사용자가 직접 파드를 만든 경우와 달리 레플리케이션 컨트롤러는 노드 오류 또는 커널 업그레이드와 같은 장애가 발생하는 노드 유지 관리의 경우와 같이 어떤 이유로든 삭제되거나 종료된 파드를 대체한다. 따라서 애플리케이션에 하나의 파드만 필요한 경우에도 레플리케이션 컨트롤러를 사용하는 것이 좋다. 프로세스 관리자와 비슷하게 생각하면, 단지 단일 노드의 개별 프로세스가 아닌 여러 노드에서 여러 파드를 감독하는 것이다. 레플리케이션 컨트롤러는 로컬 컨테이너가 노드의 에이전트로 (예를 들어 Kubelet 또는 도커 ) 재시작하도록 위임한다. + +### 잡 + +자체적으로 제거될 것으로 예상되는 파드 (즉, 배치 잡)의 경우 +레플리케이션 컨트롤러 대신 [`잡`](/docs/concepts/jobs/run-to-completion-finite-workloads/)을 사용하라. + +### 데몬셋 + +머신 모니터링이나 머신 로깅과 같은 머신 레벨 기능을 제공하는 파드에는 레플리케이션 컨트롤러 대신 +[`데몬셋`](/docs/concepts/workloads/controllers/daemonset/)을 사용하라. 이런 파드들의 수명은 머신의 수명에 달려 있다. +다른 파드가 시작되기 전에 파드가 머신에서 실행되어야 하며, +머신이 재부팅/종료 준비가 되어 있을 때 안전하게 종료된다. + +## 더 자세한 정보는 + +[스테이트리스 애플리케이션 레플리케이션 컨트롤러 실행하기](docs/tutorials/stateless-application/run-stateless-ap-replication-controller/) 를 참조하라. + +{{% /capture %}} diff --git a/content/ko/docs/concepts/workloads/pods/pod-overview.md b/content/ko/docs/concepts/workloads/pods/pod-overview.md index 79cd31753b18c..1555ff06e462b 100644 --- a/content/ko/docs/concepts/workloads/pods/pod-overview.md +++ b/content/ko/docs/concepts/workloads/pods/pod-overview.md @@ -15,10 +15,9 @@ card: {{% capture body %}} ## 파드에 대해 이해하기 -*파드* 는 쿠버네티스의 기본 구성 요소이다. 쿠버네티스 객체 모델 중 만들고 배포할 수 있는 가장 작고 간단한 단위이다. 파드는 {{< glossary_tooltip term_id="cluster" >}} 에서의 Running 프로세스를 나타낸다. +*파드* 는 쿠버네티스 애플리케이션의 기본 실행 단위이다. 쿠버네티스 객체 모델 중 만들고 배포할 수 있는 가장 작고 간단한 단위이다. 파드는 {{< glossary_tooltip term_id="cluster" >}} 에서의 Running 프로세스를 나타낸다. -파드는 애플리케이션 컨테이너(또는, 몇몇의 경우, 다중 컨테이너), 저장소 리소스, 특정 네트워크 IP 그리고, {{< glossary_tooltip text="container" term_id="container" >}} 가 동작하기 위해 만들어진 옵션들을 캡슐화 한다. -파드는 배포의 단위를 말한다. 아마 단일 컨테이너로 구성되어 있거나, 강하게 결합되어 리소스를 공유하는 소수의 컨테이너로 구성되어 있는 *쿠버네티스에서의 애플리케이션 단일 인스턴스* 를 의미함. +파드는 애플리케이션 컨테이너(또는, 몇몇의 경우, 다중 컨테이너), 저장소 리소스, 특정 네트워크 IP 그리고, {{< glossary_tooltip text="container" term_id="container" >}} 가 동작하기 위해 만들어진 옵션들을 캡슐화 한다. 파드는 배포의 단위를 말한다. 아마 단일 컨테이너로 구성되어 있거나, 강하게 결합되어 리소스를 공유하는 소수의 컨테이너로 구성되어 있는 *쿠버네티스에서의 애플리케이션 단일 인스턴스* 를 의미함. [도커](https://www.docker.com)는 쿠버네티스 파드에서 사용되는 가장 대표적인 컨테이너 런타임이지만, 파드는 다른 컨테이너 런타임 역시 지원한다. @@ -27,25 +26,19 @@ card: * **단일 컨테이너만 동작하는 파드**. "단일 컨테이너 당 한 개의 파드" 모델은 쿠버네티스 사용 사례 중 가장 흔하다. 이 경우, 한 개의 파드가 단일 컨테이너를 감싸고 있다고 생각할 수 있으며, 쿠버네티스는 컨테이너가 아닌 파드를 직접 관리한다고 볼 수 있다. * **함께 동작하는 작업이 필요한 다중 컨테이너가 동작하는 파드**. 아마 파드는 강하게 결합되어 있고 리소스 공유가 필요한 다중으로 함께 배치된 컨테이너로 구성되어 있을 것이다. 이렇게 함께 배치되어 설치된 컨테이너는 단일 결합 서비스 단위일 것이다. 한 컨테이너는 공유 볼륨에서 퍼블릭으로 파일들을 옮기고, 동시에 분리되어 있는 "사이드카" 컨테이너는 그 파일들을 업데이트 하거나 복구한다. 파드는 이 컨테이너와 저장소 리소스들을 한 개의 관리 가능한 요소로 묶는다. - - [쿠버네티스 블로그](http://kubernetes.io/blog)에는 파드 사용 사례의 몇 가지 추가적인 정보가 있다. 더 많은 정보를 위해서 아래 내용을 참조하길 바란다. * [분산 시스템 툴킷: 복합 컨테이너를 위한 패턴](https://kubernetes.io/blog/2015/06/the-distributed-system-toolkit-patterns) * [컨테이너 디자인 패턴](https://kubernetes.io/blog/2016/06/container-design-patterns) - 각각의 파드는 주어진 애플리케이션에서 단일 인스턴스로 동작을 하는 것을 말한다. 만약 애플리케이션을 수평적으로 스케일하기를 원하면(예를 들면, 다중 인스턴스 동작하는 것), 각 인스턴스 당 한 개씩 다중 파드를 사용해야 한다. 쿠버네티스에서는, 일반적으로 이것을 _복제_ 라고 한다. 복제된 파드는 주로 컨트롤러라고 하는 추상화 개념의 그룹에 의해 만들어지고 관리된다. 더 많은 정보는 [파드와 컨트롤러](#pods-and-controllers)를 참고하길 바란다. - - ## 어떻게 파드가 다중 컨테이너를 관리하는가 파드는 결합도가 있는 단위의 서비스를 형성하는 다중 협력 프로세스(컨테이너)를 지원하도록 디자인 되었다. 파드 내부의 컨테이너는 자동으로 동일한 물리적 또는 가상의 머신의 클러스터에 함께 배치되고 스케쥴된다. 컨테이너는 리소스와 의존성 공유, 다른 컨테이너와의 통신 그리고 언제,어떻게 조절하는지를 공유할 수 있다. 단일 파드 내부에서 함께 배치되고 관리되는 컨테이너 그룹은 상대적으로 심화된 사용 예시임에 유의하자. 컨테이너가 강하게 결합된 특별한 인스턴스의 경우에만 이 패턴을 사용하는게 좋다. 예를 들어, 공유 볼륨 내부 파일의 웹 서버 역할을 하는 컨테이너와 원격 소스로부터 그 파일들을 업데이트하는 분리된 "사이드카" 컨테이너가 있는 경우 아래 다이어그램의 모습일 것이다. - {{< figure src="/images/docs/pod.svg" alt="example pod diagram" width="50%" >}} 몇몇의 파드는 {{< glossary_tooltip text="init containers" term_id="init-container" >}} 뿐만 아니라 {{< glossary_tooltip text="app containers" term_id="app-container" >}} 도 가진다. 초기 컨테이너는 앱 컨테이너 시작이 완료되기 전에 동작한다. @@ -62,18 +55,17 @@ card: ## 파드 작업 -직접 쿠버네티스에서 싱글톤 파드이더라도 개별 파드를 만들일이 거의 없을 것이다. 그 이유는 파드가 상대적으로 수명이 짧고 일시적이기 때문이다. 파드가 만들어지면(직접 만들거나, 컨트롤러에 의해서 간접적으로 만들어지거나), 그것은 클러스터의 {{< glossary_tooltip term_id="node" >}} 에서 동작할 것이다. 파드는 프로세스가 종료되거나, 파드 객체가 삭제되거나, 파드가 리소스의 부족으로 인해 *제거되거나*, 노드에 장애가 생기지 않는 한 노드에 남아있는다. +직접 쿠버네티스에서 싱글톤 파드이더라도 개별 파드를 만들일이 거의 없을 것이다. 그 이유는 파드가 상대적으로 수명이 짧고 일시적이기 때문이다. 파드가 만들어지면(직접 만들거나, 컨트롤러에 의해서 간접적으로 만들어지거나), 그것은 클러스터의 {{< glossary_tooltip term_id="node" >}} 에서 동작할 것이다. 파드는 프로세스가 종료되거나, 파드 객체가 삭제되거나, 파드가 리소스의 부족으로 인해 *제거되거나*, 노드에 장애가 생기지 않는 한 노드에 남아있는다. {{< note >}} 파드 내부에서 재시작되는 컨테이너를 파드와 함께 재시작되는 컨테이너로 혼동해서는 안된다. 파드는 자기 스스로 동작하지 않는다. 하지만 컨테이너 환경은 그것이 삭제될 때까지 계속 동작한다. {{< /note >}} -파드는 스스로 자신을 치료하지 않는다. 만약 파드가 스케줄링된 노드에 장애가 생기거나, 스케쥴링 동작이 스스로 실패할 경우 파드는 삭제된다. 그와 비슷하게, 파드는 리소스나 노드의 유지 부족으로 인해 제거되는 상황에서 살아남지 못할 것이다. -쿠버네티스는 상대적으로 일시적인 파드 인스턴스를 관리하는 작업을 처리하는 *컨트롤러* 라고 하는 고수준의 추상적 개념을 사용한다. 즉, 파드를 직접적으로 사용가능 하지만, 컨트롤러를 사용하여 파드를 관리하는 것이 쿠버네티스에서 훨씬 더 보편적이다. 쿠버네티스가 어떻게 파드 스케일링과 치료하는지 보려면 [파드와 컨트롤러](#pods-and-controllers)를 참고하길 바란다. +파드는 스스로 자신을 치료하지 않는다. 만약 파드가 스케줄링된 노드에 장애가 생기거나, 스케쥴링 동작이 스스로 실패할 경우 파드는 삭제된다. 그와 비슷하게, 파드는 리소스나 노드의 유지 부족으로 인해 제거되는 상황에서 살아남지 못할 것이다. 쿠버네티스는 상대적으로 일시적인 파드 인스턴스를 관리하는 작업을 처리하는 *컨트롤러* 라고 하는 고수준의 추상적 개념을 사용한다. 즉, 파드를 직접적으로 사용가능 하지만, 컨트롤러를 사용하여 파드를 관리하는 것이 쿠버네티스에서 훨씬 더 보편적이다. 쿠버네티스가 어떻게 파드 스케일링과 치료하는지 보려면 [파드와 컨트롤러](#pods-and-controllers)를 참고하길 바란다. ### 파드와 컨트롤러 -컨트롤러는 다중 파드를 생성하고 관리해 주는데, 클러스터 범위 내에서의 레플리케이션 핸들링, 롤아웃 그리고 셀프힐링 기능 제공을 한다. 예를 들어, 만약 노드가 고장났을 때, 컨트롤러는 다른 노드에 파드를 스케줄링 함으로써 자동으로 교체할 것이다. +컨트롤러는 다중 파드를 생성하고 관리해 주는데, 클러스터 범위 내에서의 레플리케이션 핸들링, 롤아웃 그리고 셀프힐링 기능 제공을 한다. 예를 들어, 만약 노드가 고장났을 때, 컨트롤러는 다른 노드에 파드를 스케줄링 함으로써 자동으로 교체할 것이다. 한 가지 또는 그 이상의 파드를 보유한 컨트롤러의 몇 가지 예시. @@ -84,7 +76,11 @@ card: 일반적으로, 컨트롤러는 책임을 지고 제공한 파드 템플릿을 사용한다. ## 파드 템플릿 -파드 템플릿은 [레플리케이션 컨트롤러](/docs/concepts/workloads/controllers/replicationcontroller/), [잡](/docs/concepts/jobs/run-to-completion-finite-workloads/), [데몬 셋](/docs/concepts/workloads/controllers/daemonset/)과 같은 다른 객체를 포함하는 파드 명세서이다. 컨트롤러는 파드 템플릿을 사용하여 실제 파드를 만든다. + +파드 템플릿은 [레플리케이션 컨트롤러](/docs/concepts/workloads/controllers/replicationcontroller/), +[잡](/docs/concepts/jobs/run-to-completion-finite-workloads/), +[데몬 셋](/docs/concepts/workloads/controllers/daemonset/)과 같은 다른 객체를 포함하는 파드 명세서이다. +컨트롤러는 파드 템플릿을 사용하여 실제 파드를 만든다. 아래 예시는 메시지를 출력하는 컨테이너를 포함하는 파드에 대한 간단한 매니페스트이다. ```yaml @@ -98,7 +94,7 @@ spec: containers: - name: myapp-container image: busybox - command: ['sh', '-c', 'echo Hello Kubernetes! && sleep 3600'] + command: ['sh', '-c', 'echo 안녕하세요 쿠버네티스! && sleep 3600'] ``` 모든 레플리카의 현재 원하는 상태를 지정하는 대신, 파드 템플릿은 쿠키 틀과 같다. 쿠키가 한 번 잘리면, 그 쿠키는 쿠키 틀과 더이상 관련이 없다. 양자 얽힘이 없는 것이다. 그 이후 템플릿을 변경하거나 새로운 템플릿으로 바꿔도 이미 만들어진 파드에는 직접적인 영향이 없다. 마찬가지로, 레플리케이션 컨트롤러에 의해 만들어진 파드는 아마 그 이후 직접 업데이트될 수 있다. 이것은 모든 컨테이너가 속해있는 파드에서 현재 원하는 상태를 명시하는 것과 의도적으로 대비가 된다. 이러한 접근은 시스템의 의미를 철저히 단순화하고 유연성을 증가시킨다. @@ -106,7 +102,8 @@ spec: {{% /capture %}} {{% capture whatsnext %}} -* [파드](/docs/concepts/workloads/pods/pod/)의 다른 동작들을 더 배워보자. +* [파드](/docs/concepts/workloads/pods/pod/)에 대해 더 배워보자. +* 파드의 동작에 대해 더 알아보자. * [파드 종료](/docs/concepts/workloads/pods/pod/#termination-of-pods) * [파드 라이프사이클](/ko/docs/concepts/workloads/pods/pod-lifecycle/) {{% /capture %}} diff --git a/content/ko/docs/concepts/workloads/pods/podpreset.md b/content/ko/docs/concepts/workloads/pods/podpreset.md index 8f2134a686eda..788157231af8d 100644 --- a/content/ko/docs/concepts/workloads/pods/podpreset.md +++ b/content/ko/docs/concepts/workloads/pods/podpreset.md @@ -5,8 +5,8 @@ weight: 50 --- {{% capture overview %}} -이 페이지는 파드 프리셋에 대한 개요를 제공한다. 파드 프리셋은 파드 생성 시간에 파드에 -특정 정보를 주입하기 위한 오브젝트이다. 해당 정보에는 +이 페이지는 파드 프리셋에 대한 개요를 제공한다. 파드 프리셋은 파드 생성 시간에 파드에 +특정 정보를 주입하기 위한 오브젝트이다. 해당 정보에는 시크릿, 볼륨, 볼륨 마운트, 환경 변수가 포함될 수 있다. {{% /capture %}} @@ -14,12 +14,12 @@ weight: 50 {{% capture body %}} ## 파드 프리셋 이해하기 -`Pod Preset`은 파드 생성 시간에 파드에 추가적인 런타임 요구사항을 -주입하기 위한 API 리소스이다. -주어진 파드 프리셋이 적용되도록 파드에 명시하기 위해서는 +`Pod Preset`은 파드 생성 시간에 파드에 추가적인 런타임 요구사항을 +주입하기 위한 API 리소스이다. +주어진 파드 프리셋이 적용되도록 파드에 명시하기 위해서는 [레이블 셀렉터](/docs/concepts/overview/working-with-objects/labels/#label-selectors)를 사용한다. -파드 프리셋을 사용하는 것은 파드 템플릿 작성자에게 모든 파드를 위한 모든 정보를 명시적으로 +파드 프리셋을 사용하는 것은 파드 템플릿 작성자에게 모든 파드를 위한 모든 정보를 명시적으로 제공하지는 않아도 되도록 한다. 이렇게 하면, 어떤 특정 서비스를 사용할 파드의 파드 템플릿 작성자는 해당 서비스에 대한 모든 세부 사항을 알 필요가 없다. @@ -28,52 +28,54 @@ weight: 50 ## 어떻게 동작하는가 쿠버네티스는 어드미션 컨트롤러(`PodPreset`)를 제공한다. 어드미션 컨트롤러가 활성화되면, -파드 프리셋을 파드 생성 요청에 적용한다. +파드 프리셋을 파드 생성 요청에 적용한다. 파드 생성 요청이 발생하면, 시스템은 다음의 내용을 수행한다. 1. 사용 가능한 모든 `PodPresets`을 검색한다. -1. `PodPreset`의 레이블 셀렉터들 중 하나라도 생성되는 파드의 레이블과 일치하는 - 것이 있는지 확인한다. -1. `PodPreset`에 의해서 정의된 다양한 리소스가 생성되는 파드에 +1. `PodPreset`의 레이블 셀렉터들 중 하나라도 생성되는 파드의 레이블과 일치하는 + 것이 있는지 확인한다. +1. `PodPreset`에 의해서 정의된 다양한 리소스가 생성되는 파드에 병합되도록 시도한다. -1. 오류 시, 파드의 병합 오류를 문서화하는 이벤트를 발생시키고, `PodPreset`으로 - 부터 주입된 어떤 리소스도 _없이_ 파드를 생성한다. -1. 수정된 파드 스펙의 결과에 어노테이션을 달아 `PodPreset`에 의해서 +1. 오류 시, 파드의 병합 오류를 문서화하는 이벤트를 발생시키고, `PodPreset`으로 + 부터 주입된 어떤 리소스도 _없이_ 파드를 생성한다. +1. 수정된 파드 스펙의 결과에 어노테이션을 달아 `PodPreset`에 의해서 수정되었음을 표시한다. 해당 어노테이션은 다음의 양식을 따른다. `podpreset.admission.kubernetes.io/podpreset-<파드-프리셋 이름>: "<리소스 버전>"`. -각 파드는 0개 이상의 파드 프리셋에 일치될 수 있고, 각 `PodPreset`은 0개 이상의 -파드에 적용될 수 있다. 하나의 `PodPreset`이 한 개 이상의 파드에 적용되었을 -때, 쿠버네티스는 해당 파드의 스펙을 수정한다. `Env`, `EnvFrom`, `VolumeMounts`의 -변경에 대해서는, 쿠버네티스가 파드 내의 모든 컨테이너의 컨테이너 스펙을 +각 파드는 0개 이상의 파드 프리셋에 일치될 수 있고, 각 `PodPreset`은 0개 이상의 +파드에 적용될 수 있다. 하나의 `PodPreset`이 한 개 이상의 파드에 적용되었을 +때, 쿠버네티스는 해당 파드의 스펙을 수정한다. `Env`, `EnvFrom`, `VolumeMounts`의 +변경에 대해서는, 쿠버네티스가 파드 내의 모든 컨테이너의 컨테이너 스펙을 수정한다. `Volume` 변경에 대해서는, 쿠버네티스는 해당 파드의 스펙을 수정한다. {{< note >}} -파드 프리셋은 적절한 경우 파드 스펙의 `.spec.containers` 필드를 -수정할 수도 있다. 파드 프리셋으로부터의 리소스 정의 *없음* 은 `initContainers` -필드에 적용될 것이다. +파드 프리셋은 적절한 경우 파드 스펙의 다음 필드를 수정할 수도 있다. +- `.spec.containers` 필드 +- `initContainers` 필드(쿠버네티스 버전 1.14.0 이후에서 필요) {{< /note >}} ### 특정 파드의 파드 프리셋 비활성화하기 -어떠한 파드 프리셋 변이에 의해서도 파드에 변경이 일어나지 않게 하고 싶은 경우가 -있을 것이다. 이 경우에는, 다음과 같은 양식으로 어노테이션을 파드 스펙에 +어떠한 파드 프리셋 변이에 의해서도 파드에 변경이 일어나지 않게 하고 싶은 경우가 +있을 것이다. 이 경우에는, 다음과 같은 양식으로 어노테이션을 파드 스펙에 추가한다. `podpreset.admission.kubernetes.io/exclude: "true"`. ## 파드 프리셋 활성화하기 클러스터에서 파드 프리셋을 사용하기 위해서는 다음 사항이 반드시 이행되어야 한다. -1. API 타입 `settings.k8s.io/v1alpha1/podpreset`을 활성화하였다. - 예를 들면, 이것은 API 서버의 `--runtime-config` 옵션에 `settings.k8s.io/v1alpha1=true`을 포함하여 완료할 수 있다. - minikube에서는 클러스터가 시작할 때 `--extra-config=apiserver.runtime-config=settings.k8s.io/v1alpha1=true` +1. API 타입 `settings.k8s.io/v1alpha1/podpreset`을 활성화하였다. + 예를 들면, 이것은 API 서버의 `--runtime-config` 옵션에 `settings.k8s.io/v1alpha1=true`을 포함하여 완료할 수 있다. + minikube에서는 클러스터가 시작할 때 + `--extra-config=apiserver.runtime-config=settings.k8s.io/v1alpha1=true` 플래그를 추가한다. -1. 어드미션 컨트롤러 `PodPreset`을 활성화하였다. 이것을 이루는 방법 중 하나는 +1. 어드미션 컨트롤러 `PodPreset`을 활성화하였다. + 이것을 이루는 방법 중 하나는 API 서버를 위해서 명시된 `--enable-admission-plugins` 옵션에 `PodPreset`을 포함하는 것이다. - minikube에서는 클러스터가 시작할 때 `--extra-config=apiserver.enable-admission-plugins=Initializers,NamespaceLifecycle,LimitRanger,ServiceAccount,DefaultStorageClass,DefaultTolerationSeconds,NodeRestriction,MutatingAdmissionWebhook,ValidatingAdmissionWebhook,ResourceQuota,PodPreset` + minikube에서는 클러스터가 시작할 때 `--extra-config=apiserver.enable-admission-plugins=NamespaceLifecycle,LimitRanger,ServiceAccount,DefaultStorageClass,DefaultTolerationSeconds,NodeRestriction,MutatingAdmissionWebhook,ValidatingAdmissionWebhook,ResourceQuota,PodPreset` 플래그를 추가한다. -1. 사용할 네임스페이스 안에서 `PodPreset` 오브젝트를 생성하여 - 파드 프리셋을 정의하였다. +1. 사용할 네임스페이스 안에서 `PodPreset` 오브젝트를 생성하여 + 파드 프리셋을 정의하였다. {{% /capture %}} diff --git a/content/ko/docs/reference/glossary/container-env-variables.md b/content/ko/docs/reference/glossary/container-env-variables.md index 093fe822cfe64..dc12e65839ba6 100755 --- a/content/ko/docs/reference/glossary/container-env-variables.md +++ b/content/ko/docs/reference/glossary/container-env-variables.md @@ -2,11 +2,11 @@ title: 컨테이너 환경 변수(Container Environment Variables) id: container-env-variables date: 2018-04-12 -full_link: /ko/docs/concepts/containers/container-environment-variables.md +full_link: /ko/docs/concepts/containers/container-environment-variables/ short_description: > 컨테이너 환경 변수는 파드에서 동작 중인 컨테이너에 유용한 정보를 제공하기 위한 이름=값 쌍이다. -aka: +aka: tags: - fundamental --- @@ -14,4 +14,4 @@ tags: -컨테이너 환경 변수는 중요한 리소스에 대한 정보와 함께 실행 중인 컨테이너화 된 애플리케이션이 요구하는 정보를 해당 {{< glossary_tooltip text="컨테이너" term_id="container" >}}에 제공한다. 예를 들면, 파일 시스템 상세 정보, 컨테이너 스스로에 대한 정보, 서비스 엔드포인트와 같은 다른 클러스터 리소스에 대한 정보 등이 있다. +컨테이너 환경 변수는 중요한 리소스에 대한 정보와 함께 실행 중인 컨테이너화 된 애플리케이션이 요구하는 정보를 해당 {{< glossary_tooltip text="컨테이너" term_id="container" >}}에 제공한다. 예를 들면, 파일 시스템 상세 정보, 컨테이너 스스로에 대한 정보, 서비스 엔드포인트와 같은 다른 클러스터 리소스에 대한 정보 등이 있다. \ No newline at end of file diff --git a/content/ko/docs/reference/glossary/container-runtime.md b/content/ko/docs/reference/glossary/container-runtime.md new file mode 100644 index 0000000000000..8a26ee81479fa --- /dev/null +++ b/content/ko/docs/reference/glossary/container-runtime.md @@ -0,0 +1,21 @@ +--- +title: 컨테이너 런타임 +id: container-runtime +date: 2019-06-05 +full_link: /docs/reference/generated/container-runtime +short_description: > + 컨테이너 런타임은 컨테이너 실행을 담당하는 소프트웨어이다. + +aka: +tags: +- fundamental +- workload +--- + 컨테이너 런타임은 컨테이너 실행을 담당하는 소프트웨어이다. + + + +쿠버네티스느 여러 컨테이너 런타임을 지원한다. [Docker](http://www.docker.com), +[containerd](https://containerd.io), [cri-o](https://cri-o.io/), +[rktlet](https://github.com/kubernetes-incubator/rktlet)과 +[Kubernetes CRI (컨테이너 런타임 인터페이스)](https://github.com/kubernetes/community/blob/master/contributors/devel/sig-node/container-runtime-interface.md)를 구현한 모든 소프트웨어. diff --git a/content/ko/docs/reference/glossary/etcd.md b/content/ko/docs/reference/glossary/etcd.md index 2521590b6ddde..ea5a38d015bf1 100644 --- a/content/ko/docs/reference/glossary/etcd.md +++ b/content/ko/docs/reference/glossary/etcd.md @@ -13,7 +13,10 @@ tags: --- 모든 클러스터 데이터를 담는 쿠버네티스 뒷단의 저장소로 사용되는 일관성·고가용성 키-값 저장소. - + -쿠버네티스 클러스터 정보를 담고 있는 etcd 데이터에 대한 백업 계획은 필수이다. etcd에 대한 자세한 정보는, [etcd 문서](https://github.com/coreos/etcd/blob/master/Documentation/docs.md)를 참고한다. +쿠버네티스 클러스터에서 etcd를 뒷단의 저장소로 사용한다면, +이 데이터를 [백업](/docs/tasks/administer-cluster/configure-upgrade-etcd/#backing-up-an-etcd-cluster)하는 계획은 +필수이다. +etcd에 대한 자세한 정보는, [etcd 문서](https://github.com/coreos/etcd/blob/master/Documentation/docs.md)를 참고한다. diff --git a/content/ko/docs/reference/glossary/kube-proxy.md b/content/ko/docs/reference/glossary/kube-proxy.md index 22f55677ae395..5f8a4fc612af6 100755 --- a/content/ko/docs/reference/glossary/kube-proxy.md +++ b/content/ko/docs/reference/glossary/kube-proxy.md @@ -6,14 +6,17 @@ full_link: /docs/reference/generated/kube-proxy short_description: > `kube-proxy`는 클러스터의 각 노드에서 실행되는 네트워크 프록시이다. -aka: +aka: tags: - fundamental - core-object --- `kube-proxy`는 클러스터의 각 노드에서 실행되는 네트워크 프록시이다. - +이는 호스트의 네트워크 규칙을 관리하고 접속 포워딩을 수행하여 +쿠버네티스 서비스 추상화를 가능케 한다. + + `kube-proxy`는 요청에 대한 포워딩을 책임진다. `kube-proxy`는 TCP 및 UDP 스트림 포워딩을 허용하거나 TCP 및 UDP 포워딩을 백 엔드 기능 집합에 걸쳐 라운드 로빈을 제공한다. diff --git a/content/ko/docs/reference/glossary/minikube.md b/content/ko/docs/reference/glossary/minikube.md index 205219f9a9f19..71ba64ef3985a 100755 --- a/content/ko/docs/reference/glossary/minikube.md +++ b/content/ko/docs/reference/glossary/minikube.md @@ -2,18 +2,20 @@ title: Minikube id: minikube date: 2018-04-12 -full_link: /docs/getting-started-guides/minikube/ +full_link: /docs/setup/learning-environment/minikube/ short_description: > - 내부적으로 쿠버네티스를 실행하기 위한 도구. + 로컬에서 쿠버네티스를 실행하기 위한 도구. -aka: +aka: tags: - fundamental - tool --- - 내부적으로 쿠버네티스를 실행하기 위한 도구. + 로컬에서 쿠버네티스를 실행하기 위한 도구. - + Minikube는 VM이나 사용자 컴퓨터에서 단일 노드 클러스터를 실행한다. +Minikube를 사용하여 +[학습 환경에서 쿠버네티스 시도하기](/docs/setup/learning-environment/)를 할 수 있다. diff --git a/content/ko/docs/reference/glossary/node.md b/content/ko/docs/reference/glossary/node.md index 2fafe15d07d11..b92bd5468e448 100755 --- a/content/ko/docs/reference/glossary/node.md +++ b/content/ko/docs/reference/glossary/node.md @@ -4,15 +4,14 @@ id: node date: 2018-04-12 full_link: /docs/concepts/architecture/nodes/ short_description: > - 노드는 쿠버네티스의 워커 머신이다. + 노드는 쿠버네티스의 작업 장비(worker machine)이다. -aka: +aka: tags: - fundamental --- - 노드는 쿠버네티스의 워커 머신이다. + 노드는 쿠버네티스의 작업 장비(worker machine)이다. - - -워커 머신은 클러스터에 따라 VM이거나 물리 머신일 것이다. 그것은 실행해야 하는 {{< glossary_tooltip text="서비스" term_id="service" >}}와 {{< glossary_tooltip text="파드" term_id="pod" >}}를 가지고 있으며, 마스터 컴포넌트에 의해서 관리된다. 노드에 있는 {{< glossary_tooltip text="서비스" term_id="service" >}}는 Docker, kubelet, kube-proxy를 포함한다. + +작업 노드는 클러스터에 따라 VM이거나 물리 머신일 것이다. {{< glossary_tooltip text="파드" term_id="pod" >}} 실행에 필요한 로컬 데몬과 서비스를 가지고 있으며, 콘트롤 플레인에 의해서 관리된다. 노드에 있는 데몬은 {{< glossary_tooltip text="kubelet" term_id="kubelet" >}}, {{< glossary_tooltip text="kube-proxy" term_id="kube-proxy" >}}와 {{< glossary_tooltip term_id="docker" >}} 같이 컨테이너 런타임을 구현한 {{< glossary_tooltip text="CRI" term_id="cri" >}}를 포함한다. diff --git a/content/ko/docs/reference/glossary/service.md b/content/ko/docs/reference/glossary/service.md index 3034640c5aa85..65a0d17787ed0 100755 --- a/content/ko/docs/reference/glossary/service.md +++ b/content/ko/docs/reference/glossary/service.md @@ -4,16 +4,15 @@ id: service date: 2018-04-12 full_link: /docs/concepts/services-networking/service/ short_description: > - 파드의 집합과 같은 애플리케이션에 엑세스하는 방법을 기술하는 API 오브젝트이며, 포트와 로드밸런서를 기술할 수 있다. + 네트워크 서비스로 파드 집합에서 실행 중인 애플리케이션을 노출하는 방법 aka: tags: - fundamental - core-object --- - {{< glossary_tooltip text="파드" term_id="pod" >}}의 집합과 같은 애플리케이션에 엑세스하는 방법을 기술하는 API 오브젝트이며, 포트와 로드밸런서를 기술할 수 있다. +{{< glossary_tooltip text="파드" term_id="pod" >}} 집합에서 실행중인 애플리케이션을 네트워크 서비스로 노출하는 추상화 방법 - - -엑세스 포인트는 클러스터의 내부이거나 외부일 수 있다. + +서비스의 대상이 되는 파드 집합은 (보통) {{< glossary_tooltip text="셀렉터" term_id="selector" >}}로 결정된다. 많은 파드가 추가되거나 제거되면, 셀렉터와 일치하는 파드의 집합도 변경된다. 서비스는 네트워크 트래픽을 현재 워크로드를 위한 파드 집합으로 보낼 수 있는지 확인한다. diff --git a/content/ko/docs/reference/kubectl/cheatsheet.md b/content/ko/docs/reference/kubectl/cheatsheet.md index ed0158e3a5854..7eea2cdb11e1e 100644 --- a/content/ko/docs/reference/kubectl/cheatsheet.md +++ b/content/ko/docs/reference/kubectl/cheatsheet.md @@ -6,11 +6,6 @@ card: weight: 30 --- - - - - - {{% capture overview %}} 참고 항목: [Kubectl 개요](/docs/reference/kubectl/overview/)와 [JsonPath 가이드](/docs/reference/kubectl/jsonpath). @@ -182,6 +177,9 @@ echo $(kubectl get pods --selector=$sel --output=jsonpath={.items..metadata.name # 마찬가지로 "jq"를 사용 for item in $( kubectl get pod --output=name); do printf "Labels for %s\n" "$item" | grep --color -E '[^/]+$' && kubectl get "$item" --output=json | jq -r -S '.metadata.labels | to_entries | .[] | " \(.key)=\(.value)"' 2>/dev/null; printf "\n"; done +# 혹은 이 명령어를 파드와 연관된 모든 레이블을 조회하는데 사용할 수 있다. +kubectl get pods --show-labels + # 어떤 노드가 준비됐는지 확인 JSONPATH='{range .items[*]}{@.metadata.name}:{range @.status.conditions[*]}{@.type}={@.status};{end}{end}' \ && kubectl get nodes -o jsonpath="$JSONPATH" | grep "Ready=True" @@ -229,7 +227,7 @@ kubectl autoscale deployment foo --min=2 --max=10 # 디플로이 ```bash kubectl patch node k8s-node-1 -p '{"spec":{"unschedulable":true}}' # 노드를 부분적으로 업데이트 -# 컨테이너의 이미지를 업데이트. 병합(merge) 키이므로, spec.containers[*].name이 필요. +# 컨테이너의 이미지를 업데이트. 병합(merge) 키이므로, spec.containers[*].name이 필요. kubectl patch pod valid-pod -p '{"spec":{"containers":[{"name":"kubernetes-serve-hostname","image":"new image"}]}}' # 위치 배열을 이용한 json 패치를 사용하여, 컨테이너의 이미지를 업데이트. diff --git a/content/ko/docs/setup/release/_index.md b/content/ko/docs/setup/release/_index.md index 4f2fadb8add8c..fcef7a59ab390 100755 --- a/content/ko/docs/setup/release/_index.md +++ b/content/ko/docs/setup/release/_index.md @@ -1,5 +1,5 @@ --- -title: "릴리스 노트와 버전 정책" +title: "릴리스 노트와 버전 차이 지원(skew)" weight: 10 --- diff --git a/content/ko/docs/tasks/access-application-cluster/communicate-containers-same-pod-shared-volume.md b/content/ko/docs/tasks/access-application-cluster/communicate-containers-same-pod-shared-volume.md index 2cbc6f69bc2b7..262588a6dbe22 100644 --- a/content/ko/docs/tasks/access-application-cluster/communicate-containers-same-pod-shared-volume.md +++ b/content/ko/docs/tasks/access-application-cluster/communicate-containers-same-pod-shared-volume.md @@ -6,8 +6,8 @@ weight: 110 {{% capture overview %}} -이 페이지는 동일한 파드(Pod)에서 실행 중인 두 개의 컨테이너 간에 통신할 때에, 어떻게 볼륨(Volume)을 이용하는지 -살펴본다. +이 페이지에서는 동일한 파드(Pod)에서 실행 중인 두 개의 컨테이너 간에 통신할 때에, 어떻게 볼륨(Volume)을 이용하는지 +살펴본다. 컨테이너 간에 [프로세스 네임스페이스 공유하기](/docs/tasks/configure-pod-container/share-process-namespace/)를 통해 통신할 수 있는 방법을 참고하자. {{% /capture %}} @@ -135,11 +135,13 @@ Debian 컨테이너에서 nginx 웹 서버가 호스팅하는 문서의 루트 * [합성 컨테이너(composite container) 패턴](https://kubernetes.io/blog/2015/06/the-distributed-system-toolkit-patterns)에 관하여 더 공부한다. -* [모듈 구조를 위한 컴포지트 컨테이너](http://www.slideshare.net/Docker/slideshare-burns)에 관하여 -공부한다. +* [모듈 구조를 위한 합성 컨테이너 구조](http://www.slideshare.net/Docker/slideshare-burns)에 관하여 +더 공부한다. + +* [파드에서 저장소로 볼룸을 사용하도록 구성하기](/docs/tasks/configure-pod-container/configure-volume-storage/)에 관하여 +확인한다. -* [저장소로 볼륨을 사용하는 파드 구성 방법](/docs/tasks/configure-pod-container/configure-volume-storage/)을 -참고한다. +* [파드에서 컨테이너 간에 프로세스 네임스페이스를 공유하는 파드 구성하는 방법](/docs/tasks/configure-pod-container/share-process-namespace/)을 참고한다. * [볼륨](/docs/reference/generated/kubernetes-api/{{< param "version" >}}/#volume-v1-core)을 확인한다. diff --git a/content/ko/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough.md b/content/ko/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough.md index 93c6cb5096c9c..ee7cf0093aaad 100644 --- a/content/ko/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough.md +++ b/content/ko/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough.md @@ -6,7 +6,9 @@ weight: 100 {{% capture overview %}} -Horizontal Pod Autoscaler는 CPU 사용량(또는 베타 지원의 다른 애플리케이션 지원 메트릭)을 관찰하여 레플리케이션 컨트롤러, 디플로이먼트 또는 레플리카 셋의 파드 개수를 자동으로 스케일한다. +Horizontal Pod Autoscaler는 +CPU 사용량(또는 베타 지원의 다른 애플리케이션 지원 메트릭)을 관찰하여 +레플리케이션 컨트롤러, 디플로이먼트 또는 레플리카 셋의 파드 개수를 자동으로 스케일한다. 이 문서는 php-apache 서버를 대상으로 Horizontal Pod Autoscaler를 동작해보는 예제이다. Horizontal Pod Autoscaler 동작과 관련된 더 많은 정보를 위해서는 [Horizontal Pod Autoscaler 사용자 가이드](/docs/tasks/run-application/horizontal-pod-autoscale/)를 참고하기 바란다. @@ -17,9 +19,16 @@ Horizontal Pod Autoscaler는 CPU 사용량(또는 베타 지원의 다른 애플 {{% capture prerequisites %}} 이 예제는 버전 1.2 또는 이상의 쿠버네티스 클러스터와 kubectl을 필요로 한다. -[메트릭-서버](https://github.com/kubernetes-incubator/metrics-server/) 모니터링을 클러스터에 배포하여 리소스 메트릭 API를 통해 메트릭을 제공해야 한다. Horizontal Pod Autoscaler가 메트릭을 수집할때 해당 API를 사용한다. 메트릭-서버를 배포하는 지침은 [메트릭-서버](https://github.com/kubernetes-incubator/metrics-server/)의 GitHub 저장소에 있고, [GCE 가이드](/docs/setup/turnkey/gce/)로 클러스터를 올리는 경우 메트릭-서버 모니터링은 디폴트로 활성화된다. +[메트릭-서버](https://github.com/kubernetes-incubator/metrics-server/) 모니터링을 클러스터에 배포하여 리소스 메트릭 API를 통해 메트릭을 제공해야 한다. +Horizontal Pod Autoscaler가 메트릭을 수집할때 해당 API를 사용한다. +메트릭-서버를 배포하는 지침은 [메트릭-서버](https://github.com/kubernetes-incubator/metrics-server/)의 GitHub 저장소에 있고, [GCE 가이드](/docs/setup/turnkey/gce/)로 클러스터를 올리는 경우 메트릭-서버 모니터링은 디폴트로 활성화된다. -Horizontal Pod Autoscaler에 다양한 자원 메트릭을 적용하고자 하는 경우, 버전 1.6 또는 이상의 쿠버네티스 클러스터와 kubectl를 사용해야 한다. 또한, 사용자 정의 메트릭을 사용하기 위해서는, 클러스터가 사용자 정의 메트릭 API를 제공하는 API 서버와 통신할 수 있어야 한다. 마지막으로, 쿠버네티스 오브젝트와 관련이 없는 메트릭을 사용하는 경우 버전 1.10 또는 이상의 쿠버네티스 클러스터와 kubectl을 사용해야 하며, 외부 메트릭 API와 통신이 가능해야 한다. 자세한 사항은 [Horizontal Pod Autoscaler 사용자 가이드](/docs/tasks/run-application/horizontal-pod-autoscale/#support-for-custom-metrics)를 참고하길 바란다. +Horizontal Pod Autoscaler에 다양한 자원 메트릭을 적용하고자 하는 경우, +버전 1.6 또는 이상의 쿠버네티스 클러스터와 kubectl를 사용해야 한다. +또한, 사용자 정의 메트릭을 사용하기 위해서는, 클러스터가 사용자 정의 메트릭 API를 제공하는 API 서버와 통신할 수 있어야 한다. +마지막으로 쿠버네티스 오브젝트와 관련이 없는 메트릭을 사용하는 경우, +버전 1.10 또는 이상의 쿠버네티스 클러스터와 kubectl을 사용해야 하며, 외부 메트릭 API와 통신이 가능해야 한다. +자세한 사항은 [Horizontal Pod Autoscaler 사용자 가이드](/docs/tasks/run-application/horizontal-pod-autoscale/#support-for-custom-metrics)를 참고하길 바란다. {{% /capture %}} @@ -30,7 +39,6 @@ Horizontal Pod Autoscaler에 다양한 자원 메트릭을 적용하고자 하 Horizontal Pod Autoscaler 시연을 위해 php-apache 이미지를 맞춤 제작한 Docker 이미지를 사용한다. Dockerfile은 다음과 같다. - ``` FROM php:5-apache ADD index.php /var/www/html/index.php @@ -61,9 +69,14 @@ deployment.apps/php-apache created ## Horizontal Pod Autoscaler 생성 -이제 서비스가 동작중이므로, [kubectl autoscale](/docs/reference/generated/kubectl/kubectl-commands#autoscale)를 -사용하여 오토스케일러를 생성한다. 다음 명령어는 첫 번째 단계에서 만든 php-apache 디플로이먼트 파드의 개수를 1부터 10 사이로 유지하는 Horizontal Pod Autoscaler를 생성한다. -간단히 얘기하면, HPA는 (디플로이먼트를 통한) 평균 CPU 사용량을 50%로 유지하기 위하여 레플리카의 개수를 늘리고 줄인다. ([kubectl run](https://github.com/kubernetes/kubernetes/blob/{{< param "githubbranch" >}}/docs/user-guide/kubectl/kubectl_run.md)으로 각 파드는 200 밀리코어까지 요청할 수 있고, 따라서 여기서 말하는 평균 CPU 사용은 100 밀리코어를 말한다.) 이에 대한 자세한 알고리즘은 [여기](https://git.k8s.io/community/contributors/design-proposals/autoscaling/horizontal-pod-autoscaler.md#autoscaling-algorithm)를 참고하기 바란다. +이제 서비스가 동작중이므로, +[kubectl autoscale](/docs/reference/generated/kubectl/kubectl-commands#autoscale)를 사용하여 오토스케일러를 생성한다. +다음 명령어는 첫 번째 단계에서 만든 php-apache 디플로이먼트 파드의 개수를 +1부터 10 사이로 유지하는 Horizontal Pod Autoscaler를 생성한다. +간단히 얘기하면, HPA는 (디플로이먼트를 통한) 평균 CPU 사용량을 50%로 유지하기 위하여 레플리카의 개수를 늘리고 줄인다. +[kubectl run](https://github.com/kubernetes/kubernetes/blob/{{< param "githubbranch" >}}/docs/user-guide/kubectl/kubectl_run.md)으로 각 파드는 200 밀리코어까지 요청할 수 있고, +따라서 여기서 말하는 평균 CPU 사용은 100 밀리코어를 말한다). +이에 대한 자세한 알고리즘은 [여기](/docs/tasks/run-application/horizontal-pod-autoscale/#algorithm-details)를 참고하기 바란다. ```shell kubectl autoscale deployment php-apache --cpu-percent=50 --min=1 --max=10 @@ -109,7 +122,8 @@ php-apache Deployment/php-apache/scale 305% / 50% 305% 1 10 ``` -CPU 소비가 305%까지 증가하였다. 결과적으로, 디플로이먼트의 레플리카 개수는 7개까지 증가하였다. +CPU 소비가 305%까지 증가하였다. +결과적으로, 디플로이먼트의 레플리카 개수는 7개까지 증가하였다. ```shell kubectl get deployment php-apache @@ -120,13 +134,19 @@ php-apache 7 7 7 7 19m ``` {{< note >}} -레플리카의 개수를 안정화시키는데 몇 분이 걸릴 수 있다. 부하의 양은 환경에 따라 다르기 때문에, 최종 레플리카의 개수는 본 예제와 다를 수 있다. +레플리카의 개수를 안정화시키는데 몇 분이 걸릴 수 있다. +부하의 양은 환경에 따라 다르기 때문에, +최종 레플리카의 개수는 본 예제와 다를 수 있다. {{< /note >}} ## 부하 중지 본 예제를 마무리하기 위해 부하를 중단시킨다. -`busybox` 컨테이너를 띄운 터미널에서, ` + C`로 부하 발생을 중단시킨다. 그런 다음 (몇 분 후에) 결과를 확인한다. + +`busybox` 컨테이너를 띄운 터미널에서, +` + C`로 부하 발생을 중단시킨다. + +그런 다음 (몇 분 후에) 결과를 확인한다. ```shell kubectl get hpa @@ -156,7 +176,8 @@ CPU 사용량은 0으로 떨어졌고, HPA는 레플리카의 개수를 1로 낮 ## 다양한 메트릭 및 사용자 정의 메트릭을 기초로한 오토스케일링 -`php-apache` 디플로이먼트를 오토스케일링할 때 `autoscaling/v2beta2` API 버전을 사용하여 추가적인 메트릭을 제공할 수 있다. +`php-apache` 디플로이먼트를 오토스케일링할 때, +`autoscaling/v2beta2` API 버전을 사용하여 추가적인 메트릭을 제공할 수 있다. 첫 번째로, `autoscaling/v2beta2` 형식으로 HorizontalPodAutoscaler YAML 파일을 생성한다. @@ -200,15 +221,26 @@ status: averageValue: 0 ``` -`targetCPUUtilizationPercentage` 필드가 `metrics` 배열로 대체되었다. CPU 사용량 메트릭은 *resource metric* 으로 파드 컨테이너 자원의 백분율로 표현된다. CPU 외에 다른 메트릭을 지정할 수 있는데, 기본적으로 지원되는 다른 메트릭은 메모리뿐이다. 이 자원들은 한 클러스터에서 다른 클러스터로 이름을 변경할 수 없으며, `metrics.k8s.io` API가 가용한 경우 언제든지 사용할 수 있어야 한다. +`targetCPUUtilizationPercentage` 필드가 `metrics` 배열로 대체되었다. +CPU 사용량 메트릭은 *resource metric* 으로 파드 컨테이너 자원의 백분율로 표현된다. +CPU 외에 다른 메트릭을 지정할 수 있는데, 기본적으로 지원되는 다른 메트릭은 메모리뿐이다. +이 자원들은 한 클러스터에서 다른 클러스터로 이름을 변경할 수 없으며, +`metrics.k8s.io` API가 가용한 경우 언제든지 사용할 수 있어야 한다. -또한, `AverageUtilization` 대신 `AverageValue`의 `target` 타입을, 그리고 `target.averageUtilization` 대신 `target.averageValue`로 설정하여 자원 메트릭을 퍼센트 대신 값으로 명시할 수 있다. +또한, `AverageUtilization` 대신 `AverageValue`의 `target` 타입을, +그리고 `target.averageUtilization` 대신 `target.averageValue`로 설정하여 +자원 메트릭을 퍼센트 대신 값으로 명시할 수 있다. -파드 메트릭과 오브젝트 메트릭 두 가지의 *사용자 정의 메트릭* 이 있다. 파드 메트릭과 오브젝트 메트릭. 이 메트릭은 클러스터에 특화된 이름을 가지고 있으며, 더 고급화된 클러스터 모니터링 설정이 필요하다. +파드 메트릭과 오브젝트 메트릭 두 가지의 *사용자 정의 메트릭* 이 있다. +파드 메트릭과 오브젝트 메트릭. 이 메트릭은 클러스터에 특화된 이름을 가지고 있으며, +더 고급화된 클러스터 모니터링 설정이 필요하다. -이러한 대체 메트릭 타입중 첫 번째는 *파드 메트릭* 이다. 이 메트릭은 파드들을 설명하고, 파드들간의 평균을 내며, 대상 값과 비교하여 레플리카 개수를 결정한다. +이러한 대체 메트릭 타입중 첫 번째는 *파드 메트릭* 이다. +이 메트릭은 파드들을 설명하고, 파드들간의 평균을 내며, +대상 값과 비교하여 레플리카 개수를 결정한다. -이것들은 `AverageValue`의 `target`만을 지원한다는 것을 제외하면, 자원 메트릭과 매우 유사하게 동작한다. +이것들은 `AverageValue`의 `target`만을 지원한다는 것을 제외하면, +자원 메트릭과 매우 유사하게 동작한다. 파드 메트릭은 이처럼 메트릭 블록을 사용하여 정의된다. @@ -223,7 +255,13 @@ pods: averageValue: 1k ``` -두 번째 대체 메트릭 타입은 *오브젝트 메트릭* 이다. 이 메트릭은 파드를 기술하는 대신에 동일한 네임스페이스 내에 다른 오브젝트를 표현한다. 이 메트릭은 반드시 오브젝트로부터 가져올 필요는 없다. 단지 오브젝트를 기술할 뿐이다. 오브젝트 메트릭은 `Value`과 `AverageValue`의 `target` 타입을 지원한다. `Value`를 사용할 경우 대상은 API로부터 반환되는 메트릭과 직접 비교된다. `AverageValue`를 사용할 경우, 대상 값과 비교되기 이전에 사용자 정의 메트릭 API로부터 반환된 값은 파드의 개수로 나눠진다. 다음은 `requests-per-second` 메트릭을 YAML로 기술한 예제이다. +두 번째 대체 메트릭 타입은 *오브젝트 메트릭* 이다. +이 메트릭은 파드를 기술하는 대신에 동일한 네임스페이스 내에 다른 오브젝트를 표현한다. +이 메트릭은 반드시 오브젝트로부터 가져올 필요는 없다. 단지 오브젝트를 기술할 뿐이다. +오브젝트 메트릭은 `Value`과 `AverageValue`의 `target` 타입을 지원한다. +`Value`를 사용할 경우 대상은 API로부터 반환되는 메트릭과 직접 비교된다. +`AverageValue`를 사용할 경우, 대상 값과 비교되기 이전에 사용자 정의 메트릭 API로부터 반환된 값은 파드의 개수로 나눠진다. +다음은 `requests-per-second` 메트릭을 YAML로 기술한 예제이다. ```yaml type: Object @@ -239,9 +277,12 @@ object: value: 2k ``` -이러한 메트릭 블록을 여러 개 제공하면, HorizontalPodAutoscaler는 각 메트릭을 차례로 고려한다. HorizontalPodAutoscaler는 각 메트릭에 대해 제안된 레플리카 개수를 계산하고, 그중 가장 높은 레플리카 개수를 선정한다. +이러한 메트릭 블록을 여러 개 제공하면, HorizontalPodAutoscaler는 각 메트릭을 차례로 고려한다. +HorizontalPodAutoscaler는 각 메트릭에 대해 제안된 레플리카 개수를 계산하고, +그중 가장 높은 레플리카 개수를 선정한다. -예를 들어, 네트워크 트래픽 메트릭을 수집하는 모니터링 시스템이 있는 경우, `kubectl edit` 명령어를 이용하여 다음과 같이 정의를 업데이트 할 수 있다. +예를 들어, 네트워크 트래픽 메트릭을 수집하는 모니터링 시스템이 있는 경우, +`kubectl edit` 명령어를 이용하여 다음과 같이 정의를 업데이트 할 수 있다. ```yaml apiVersion: autoscaling/v2beta1 @@ -303,11 +344,17 @@ status: value: 10k ``` -이후, HorizontalPodAutoscaler는 각 파드가 요청 된 약 50%의 CPU 사용률을 소모하는지, 초당 1000 패킷을 처리하는지, 메인-루트 인그레스 뒤의 모든 파드들이 초당 10000 요청을 처리하는지 확인한다. +이후, HorizontalPodAutoscaler는 각 파드가 요청 된 약 50%의 CPU 사용률을 소모하는지, +초당 1000 패킷을 처리하는지, +메인-루트 인그레스 뒤의 모든 파드들이 초당 10000 요청을 처리하는지 확인한다. ### 보다 구체적인 메트릭을 기초로한 오토스케일링 -많은 메트릭 파이프라인들을 사용하면 이름 또는 _labels_ 이라 불리는 추가적인 식별자로 메트릭을 설명할 수 있다. 그리고, 모든 비 자원 메트릭 타입(파드, 오브젝트 그리고 아래 기술된 외부 타입)에 대해, 메트릭 파이프라인으로 전달되는 추가 레이블 셀렉터를 지정할 수 있다. 예를 들면, `verb` 레이블로 `http_requests` 메트릭을 수집하는 경우, 다음과 같이 메트릭 블록을 지정하여 GET 요청에 대해 크기를 조정할 수 있다. +많은 메트릭 파이프라인들을 사용하면 이름 또는 _labels_ 이라 불리는 추가적인 식별자로 메트릭을 설명할 수 있다. +그리고, 모든 비 자원 메트릭 타입(파드, 오브젝트 그리고 아래 기술된 외부 타입)에 대해, +메트릭 파이프라인으로 전달되는 추가 레이블 셀렉터를 지정할 수 있다. +예를 들면, `verb` 레이블로 `http_requests` 메트릭을 수집하는 경우, +다음과 같이 메트릭 블록을 지정하여 GET 요청에 대해 크기를 조정할 수 있다. ```yaml type: Object @@ -317,18 +364,30 @@ object: selector: `verb=GET` ``` -이 셀렉터는 쿠버네티스의 레이블 셀렉터와 동일한 문법이다. 모니터링 파이프라인은 네임과 셀렉터가 여러 시리즈와 일치하는 경우, 해당 여러 시리즈를 단일 값으로 축소하는 방법을 결정한다. 셀렉터는 부가적인 속성이며, 대상 오브젝트(`Pods` 타입의 대상 파드, `Object` 타입으로 기술된 오브젝트)가 아닌 메트릭을 선택할 수 없다. +이 셀렉터는 쿠버네티스의 레이블 셀렉터와 동일한 문법이다. +모니터링 파이프라인은 네임과 셀렉터가 여러 시리즈와 일치하는 경우, +해당 여러 시리즈를 단일 값으로 축소하는 방법을 결정한다. +셀렉터는 부가적인 속성이며, +대상 오브젝트(`Pods` 타입의 대상 파드, `Object` 타입으로 기술된 오브젝트)가 아닌 메트릭을 선택할 수 없다. ### 쿠버네티스 오브젝트와 관련이 없는 메트릭을 기초로한 오토스케일링 -쿠버네티스 위에서 동작하는 애플리케이션은 쿠버네티스 클러스터의 어떤 오브젝트와도 관련이 없는 메트릭에 기반하여 오토스케일링을 할 수도 있다. 예로, 쿠버네티스 네임스페이스와 관련이 없는 서비스를 기초로한 메트릭을 들 수 있다. 쿠버네티스 버전 1.10 포함 이후 버전에서, *외부 메트릭* 을 사용하여 이러한 유스케이스를 해결할 수 있다. +쿠버네티스 위에서 동작하는 애플리케이션은, 쿠버네티스 클러스터의 어떤 오브젝트와도 관련이 없는 메트릭에 기반하여 +오토스케일링을 할 수도 있다. +예로, 쿠버네티스 네임스페이스와 관련이 없는 서비스를 기초로한 메트릭을 들 수 있다. +쿠버네티스 버전 1.10 포함 이후 버전에서, *외부 메트릭* 을 사용하여 이러한 유스케이스를 해결할 수 있다. -외부 메트릭 사용시, 먼저 모니터링 시스템에 대한 이해가 있어야 한다. 이 설치는 사용자 정의 메트릭과 유사하다. +외부 메트릭 사용시, 먼저 모니터링 시스템에 대한 이해가 있어야 한다. +이 설치는 사용자 정의 메트릭과 유사하다. 외부 메트릭을 사용하면 모니터링 시스템의 사용 가능한 메트릭에 기반하여 클러스터를 오토스케일링 할 수 있다. -위의 예제처럼 `name`과 `selector`를 갖는 `metric` 블록을 제공하고, `Object` 대신에 `External` 메트릭 타입을 사용한다. +위의 예제처럼 `name`과 `selector`를 갖는 `metric` 블록을 제공하고, +`Object` 대신에 `External` 메트릭 타입을 사용한다. 만일 여러개의 시계열이 `metricSelector`와 일치하면, HorizontalPodAutoscaler가 값의 합을 사용한다. -외부 메트릭들은 `Value`와 `AverageValue` 대상 타입을 모두 지원하고, `Object` 타입을 사용할 때와 똑같이 동작한다. -예를 들면 애플리케이션이 호스팅 된 대기열 서비스에서 작업을 처리하는 경우, 다음과 같이 HorizontalPodAutoscaler 매니퍼스트에 30개의 미해결 태스크 당 한 개의 워커를 지정하도록 추가할 수 있다. +외부 메트릭들은 `Value`와 `AverageValue` 대상 타입을 모두 지원하고, +`Object` 타입을 사용할 때와 똑같이 동작한다. + +예를 들면 애플리케이션이 호스팅 된 대기열 서비스에서 작업을 처리하는 경우, +다음과 같이 HorizontalPodAutoscaler 매니퍼스트에 30개의 미해결 태스크 당 한 개의 워커를 지정하도록 추가할 수 있다. ```yaml - type: External @@ -341,13 +400,19 @@ object: averageValue: 30 ``` -가능하다면, 외부 메트릭 대신 사용자 정의 메트릭 대상 타입을 사용하길 권장한다. 왜냐하면, 클러스터 관리자가 사용자 정의 메트릭 API를 보안관점에서 더 쉽게 보호할 수 있기 때문이다. 외부 메트릭 API는 잠재적으로 어떠한 메트릭에도 접근할 수 있기에, 클러스터 관리자는 API를 노출시킬때 신중해야 한다. +가능하다면, 외부 메트릭 대신 사용자 정의 메트릭 대상 타입을 사용하길 권장한다. +왜냐하면, 클러스터 관리자가 사용자 정의 메트릭 API를 보안관점에서 더 쉽게 보호할 수 있기 때문이다. +외부 메트릭 API는 잠재적으로 어떠한 메트릭에도 접근할 수 있기에, 클러스터 관리자는 API를 노출시킬때 신중해야 한다. ## 부록: Horizontal Pod Autoscaler 상태 조건 -HorizontalPodAutoscaler의 `autoscaling/v2beta2` 형식을 사용하면, HorizontalPodAutoscaler에서 쿠버네티스가 설정한 *상태 조건* 을 확인할 수 있다. 이 상태 조건들은 HorizontalPodAutoscaler가 스케일을 할 수 있는지, 어떤 방식으로든 제한되어 있는지 여부를 나타낸다. +HorizontalPodAutoscaler의 `autoscaling/v2beta2` 형식을 사용하면, +HorizontalPodAutoscaler에서 쿠버네티스가 설정한 *상태 조건* 을 확인할 수 있다. +이 상태 조건들은 HorizontalPodAutoscaler가 스케일을 할 수 있는지, +어떤 방식으로든 제한되어 있는지 여부를 나타낸다. -이 조건은 `status.conditions`에 나타난다. HorizontalPodAutoscaler에 영향을 주는 조건을 보기 위해 `kubectl describe hpa`를 사용할 수 있다. +이 조건은 `status.conditions`에 나타난다. +HorizontalPodAutoscaler에 영향을 주는 조건을 보기 위해 `kubectl describe hpa`를 사용할 수 있다. ```shell kubectl describe hpa cm-test @@ -373,17 +438,32 @@ Conditions: Events: ``` -이 HorizontalPodAutoscaler 경우, 건강 상태의 여러 조건들을 볼 수 있다. 첫 번째 `AbleToScale`는 HPA가 스케일을 가져오고 업데이트할 수 있는지, 백 오프 관련 조건으로 스케일링이 방지되는지 여부를 나타낸다. 두 번째 `ScalingActive`는 HPA가 활성화되어있는지(즉 대상 레플리카 개수가 0이 아닌지), 원하는 스케일을 계산할 수 있는지 여부를 나타낸다. 만약 `False` 인 경우, 일반적으로 메트릭을 가져오는데 문제가 있다. 마지막으로, 마지막 조건인 `ScalingLimited`는 원하는 스케일 한도가 HorizontalPodAutoscaler의 최대/최소값으로 제한돼있음을 나타낸다. 이는 HorizontalPodAutoscaler에서 레플리카의 개수 제한을 최대/최소값으로 올리거나 낮추려는 것이다. +이 HorizontalPodAutoscaler 경우, 건강 상태의 여러 조건들을 볼 수 있다. +첫 번째 `AbleToScale`는 HPA가 스케일을 가져오고 업데이트할 수 있는지, +백 오프 관련 조건으로 스케일링이 방지되는지 여부를 나타낸다. +두 번째 `ScalingActive`는 HPA가 활성화되어있는지(즉 대상 레플리카 개수가 0이 아닌지), +원하는 스케일을 계산할 수 있는지 여부를 나타낸다. 만약 `False` 인 경우, +일반적으로 메트릭을 가져오는데 문제가 있다. +마지막으로, 마지막 조건인 `ScalingLimited`는 +원하는 스케일 한도가 HorizontalPodAutoscaler의 최대/최소값으로 제한돼있음을 나타낸다. +이는 HorizontalPodAutoscaler에서 레플리카의 개수 제한을 최대/최소값으로 올리거나 낮추려는 것이다. ## 부록: 수량 -HorizontalPodAutoscaler와 메트릭 API에서 모든 메트릭은 쿠버네티스에서 사용하는 *수량* 숫자 표기법을 사용한다. 예를 들면, `10500m` 수량은 10진법 `10.5`으로 쓰인다. 메트릭 API들은 가능한 경우 접미사 없이 정수를 반환하며, 일반적으로 수량을 밀리단위로 반환한다. 10진수로 표현했을때, `1`과 `1500m` 또는 `1`과 `1.5` 로 메트릭 값을 나타낼 수 있다. 더 많은 정보를 위해서는 [수량에 관한 용어집](/docs/reference/glossary?core-object=true#term-quantity) 을 참고하기 바란다. +HorizontalPodAutoscaler와 메트릭 API에서 모든 메트릭은 +쿠버네티스에서 사용하는 *수량* 숫자 표기법을 사용한다. +예를 들면, `10500m` 수량은 10진법 `10.5`으로 쓰인다. +메트릭 API들은 가능한 경우 접미사 없이 정수를 반환하며, +일반적으로 수량을 밀리단위로 반환한다. +10진수로 표현했을때, `1`과 `1500m` 또는 `1`과 `1.5` 로 메트릭 값을 나타낼 수 있다. +더 많은 정보를 위해서는 [수량에 관한 용어집](/docs/reference/glossary?core-object=true#term-quantity) 을 참고하기 바란다. ## 부록: 다른 가능한 시나리오 ### 명시적으로 오토스케일러 만들기 -HorizontalPodAutoscaler를 생성하기 위해 `kubectl autoscale` 명령어를 사용하지 않고 명시적으로 다음 파일을 사용하여 만들 수 있다. +HorizontalPodAutoscaler를 생성하기 위해 `kubectl autoscale` 명령어를 사용하지 않고, +명시적으로 다음 파일을 사용하여 만들 수 있다. {{< codenew file="application/hpa/php-apache.yaml" >}} diff --git a/content/ko/docs/tasks/run-application/horizontal-pod-autoscale.md b/content/ko/docs/tasks/run-application/horizontal-pod-autoscale.md index e56999790511d..6dd55a1fe1737 100644 --- a/content/ko/docs/tasks/run-application/horizontal-pod-autoscale.md +++ b/content/ko/docs/tasks/run-application/horizontal-pod-autoscale.md @@ -12,14 +12,14 @@ weight: 90 {{% capture overview %}} Horizontal Pod Autoscaler는 CPU 사용량 -(또는 [사용자 정의 메트릭](https://git.k8s.io/community/contributors/design-proposals/instrumentation/custom-metrics-api.md), -아니면 다른 애플리케이션 지원 메트릭)을 관찰하여 레플리케이션 +(또는 [사용자 정의 메트릭](https://git.k8s.io/community/contributors/design-proposals/instrumentation/custom-metrics-api.md), +아니면 다른 애플리케이션 지원 메트릭)을 관찰하여 레플리케이션 컨트롤러, 디플로이먼트 또는 레플리카 셋의 파드 개수를 자동으로 스케일한다. Horizontal Pod Autoscaler는 크기를 조정할 수 없는 오브젝트(예: 데몬 셋)에는 적용되지 않는다. Horizontal Pod Autoscaler는 쿠버네티스 API 리소스 및 컨트롤러로 구현된다. 리소스는 컨트롤러의 동작을 결정한다. -컨트롤러는 관찰된 평균 CPU 사용률이 사용자가 지정한 대상과 일치하도록 레플리케이션 +컨트롤러는 관찰된 평균 CPU 사용률이 사용자가 지정한 대상과 일치하도록 레플리케이션 컨트롤러 또는 디플로이먼트에서 레플리카 개수를 주기적으로 조정한다. {{% /capture %}} @@ -31,43 +31,43 @@ Horizontal Pod Autoscaler는 쿠버네티스 API 리소스 및 컨트롤러로 ![Horizontal Pod Autoscaler 다이어그램](/images/docs/horizontal-pod-autoscaler.svg) -Horizontal Pod Autoscaler는 컨트롤러 -관리자의 `--horizontal-pod-autoscaler-sync-period` 플래그(기본값은 +Horizontal Pod Autoscaler는 컨트롤러 +관리자의 `--horizontal-pod-autoscaler-sync-period` 플래그(기본값은 15초)에 의해 제어되는 주기를 가진 컨트롤 루프로 구현된다. -각 주기 동안 컨트롤러 관리자는 각 HorizontalPodAutoscaler 정의에 -지정된 메트릭에 대해 리소스 사용률을 질의한다. 컨트롤러 관리자는 리소스 -메트릭 API(파드 단위 리소스 메트릭 용) +각 주기 동안 컨트롤러 관리자는 각 HorizontalPodAutoscaler 정의에 +지정된 메트릭에 대해 리소스 사용률을 질의한다. 컨트롤러 관리자는 리소스 +메트릭 API(파드 단위 리소스 메트릭 용) 또는 사용자 지정 메트릭 API(다른 모든 메트릭 용)에서 메트릭을 가져온다. -* 파드 단위 리소스 메트릭(예 : CPU)의 경우 컨트롤러는 HorizontalPodAutoscaler가 -대상으로하는 각 파드에 대한 리소스 메트릭 API에서 메트릭을 가져온다. -그런 다음, 목표 사용률 값이 설정되면, 컨트롤러는 각 파드의 -컨테이너에 대한 동등한 자원 요청을 퍼센트 단위로 하여 사용률 값을 -계산한다. 대상 원시 값이 설정된 경우 원시 메트릭 값이 직접 사용된다. -그리고, 컨트롤러는 모든 대상 파드에서 사용된 사용률의 평균 또는 원시 값(지정된 -대상 유형에 따라 다름)을 가져와서 원하는 레플리카의 개수를 스케일하는데 +* 파드 단위 리소스 메트릭(예 : CPU)의 경우 컨트롤러는 HorizontalPodAutoscaler가 +대상으로하는 각 파드에 대한 리소스 메트릭 API에서 메트릭을 가져온다. +그런 다음, 목표 사용률 값이 설정되면, 컨트롤러는 각 파드의 +컨테이너에 대한 동등한 자원 요청을 퍼센트 단위로 하여 사용률 값을 +계산한다. 대상 원시 값이 설정된 경우 원시 메트릭 값이 직접 사용된다. +그리고, 컨트롤러는 모든 대상 파드에서 사용된 사용률의 평균 또는 원시 값(지정된 +대상 유형에 따라 다름)을 가져와서 원하는 레플리카의 개수를 스케일하는데 사용되는 비율을 생성한다. -파드의 컨테이너 중 일부에 적절한 리소스 요청이 설정되지 않은 경우, -파드의 CPU 사용률은 정의되지 않으며, 따라서 오토스케일러는 -해당 메트릭에 대해 아무런 조치도 취하지 않는다. 오토스케일링 -알고리즘의 작동 방식에 대한 자세한 내용은 아래 [알고리즘 세부 정보](#알고리즘-세부-정보) +파드의 컨테이너 중 일부에 적절한 리소스 요청이 설정되지 않은 경우, +파드의 CPU 사용률은 정의되지 않으며, 따라서 오토스케일러는 +해당 메트릭에 대해 아무런 조치도 취하지 않는다. 오토스케일링 +알고리즘의 작동 방식에 대한 자세한 내용은 아래 [알고리즘 세부 정보](#알고리즘-세부-정보) 섹션을 참조하기 바란다. -* 파드 단위 사용자 정의 메트릭의 경우, 컨트롤러는 사용률 값이 아닌 원시 값을 사용한다는 점을 +* 파드 단위 사용자 정의 메트릭의 경우, 컨트롤러는 사용률 값이 아닌 원시 값을 사용한다는 점을 제외하고는 파드 단위 리소스 메트릭과 유사하게 작동한다. -* 오브젝트 메트릭 및 외부 메트릭의 경우, 문제의 오브젝트를 표현하는 -단일 메트릭을 가져온다. 이 메트릭은 목표 값과 -비교되어 위와 같은 비율을 생성한다. `autoscaling/v2beta2` API -버전에서는, 비교가 이루어지기 전에 해당 값을 파드의 개수로 +* 오브젝트 메트릭 및 외부 메트릭의 경우, 문제의 오브젝트를 표현하는 +단일 메트릭을 가져온다. 이 메트릭은 목표 값과 +비교되어 위와 같은 비율을 생성한다. `autoscaling/v2beta2` API +버전에서는, 비교가 이루어지기 전에 해당 값을 파드의 개수로 선택적으로 나눌 수 있다. -HorizontalPodAutoscaler는 보통 일련의 API 집합(`metrics.k8s.io`, -`custom.metrics.k8s.io`, `external.metrics.k8s.io`)에서 메트릭을 가져온다. `metrics.k8s.io` API는 대개 별도로 -시작해야 하는 메트릭-서버에 의해 제공된다. 가이드는 -[메트릭-서버](/docs/tasks/debug-application-cluster/resource-metrics-pipeline/#metrics-server)를 +HorizontalPodAutoscaler는 보통 일련의 API 집합(`metrics.k8s.io`, +`custom.metrics.k8s.io`, `external.metrics.k8s.io`)에서 메트릭을 가져온다. `metrics.k8s.io` API는 대개 별도로 +시작해야 하는 메트릭-서버에 의해 제공된다. 가이드는 +[메트릭-서버](/docs/tasks/debug-application-cluster/resource-metrics-pipeline/#metrics-server)를 참조한다. HorizontalPodAutoscaler는 힙스터(Heapster)에서 직접 메트릭을 가져올 수도 있다. {{< note >}} @@ -79,194 +79,202 @@ HorizontalPodAutoscaler는 보통 일련의 API 집합(`metrics.k8s.io`, 오토스케일러는 스케일 하위 리소스를 사용하여 상응하는 확장 가능 컨트롤러(예: 레플리케이션 컨트롤러, 디플로이먼트, 레플리케이션 셋)에 접근한다. 스케일은 레플리카의 개수를 동적으로 설정하고 각 현재 상태를 검사 할 수 있게 해주는 인터페이스이다. -하위 리소스 스케일에 대한 자세한 내용은 +하위 리소스 스케일에 대한 자세한 내용은 [여기](https://git.k8s.io/community/contributors/design-proposals/autoscaling/horizontal-pod-autoscaler.md#scale-subresource)에서 확인할 수 있다. ### 알고리즘 세부 정보 -가장 기본적인 관점에서, Horizontal Pod Autoscaler 컨트롤러는 -원하는(desired) 메트릭 값과 현재(current) 메트릭 값 사이의 비율로 +가장 기본적인 관점에서, Horizontal Pod Autoscaler 컨트롤러는 +원하는(desired) 메트릭 값과 현재(current) 메트릭 값 사이의 비율로 작동한다. ``` 원하는 레플리카 수 = ceil[현재 레플리카 수 * ( 현재 메트릭 값 / 원하는 메트릭 값 )] ``` -예를 들어 현재 메트릭 값이 `200m`이고 원하는 값이 -`100m`인 경우 `200.0 / 100.0 == 2.0`이므로 복제본 수가 두 배가 -된다. 만약 현재 값이 `50m` 이면, `50.0 / 100.0 == 0.5` 이므로 -복제본 수를 반으로 줄일 것이다. 비율이 1.0(0.1을 기본값으로 사용하는 -`-horizontal-pod-autoscaler-tolerance` 플래그를 사용하여 +예를 들어 현재 메트릭 값이 `200m`이고 원하는 값이 +`100m`인 경우 `200.0 / 100.0 == 2.0`이므로 복제본 수가 두 배가 +된다. 만약 현재 값이 `50m` 이면, `50.0 / 100.0 == 0.5` 이므로 +복제본 수를 반으로 줄일 것이다. 비율이 1.0(0.1을 기본값으로 사용하는 +`-horizontal-pod-autoscaler-tolerance` 플래그를 사용하여 전역적으로 구성 가능한 허용 오차 내)에 충분히 가깝다면 스케일링을 건너 뛸 것이다. -`targetAverageValue` 또는 `targetAverageUtilization`가 지정되면, -`currentMetricValue`는 HorizontalPodAutoscaler의 스케일 목표 -안에 있는 모든 파드에서 주어진 메트릭의 평균을 취하여 계산된다. -허용치를 확인하고 최종 값을 결정하기 전에, 파드 +`targetAverageValue` 또는 `targetAverageUtilization`가 지정되면, +`currentMetricValue`는 HorizontalPodAutoscaler의 스케일 목표 +안에 있는 모든 파드에서 주어진 메트릭의 평균을 취하여 계산된다. +허용치를 확인하고 최종 값을 결정하기 전에, 파드 준비 상태와 누락된 메트릭을 고려한다. -삭제 타임 스탬프가 설정된 모든 파드(즉, 종료 +삭제 타임 스탬프가 설정된 모든 파드(즉, 종료 중인 파드) 및 실패한 파드는 모두 폐기된다. -특정 파드에 메트릭이 누락된 경우, 나중을 위해 처리를 미뤄두는데, 이와 +특정 파드에 메트릭이 누락된 경우, 나중을 위해 처리를 미뤄두는데, 이와 같이 누락된 메트릭이 있는 모든 파드는 최종 스케일 량을 조정하는데 사용된다. -CPU를 스케일할 때, 어떤 파드라도 아직 준비가 안되었거나 (즉, 여전히 -초기화 중인 경우) * 또는 * 파드의 최신 메트릭 포인트가 준비되기 +CPU를 스케일할 때, 어떤 파드라도 아직 준비가 안되었거나 (즉, 여전히 +초기화 중인 경우) * 또는 * 파드의 최신 메트릭 포인트가 준비되기 전이라면, 마찬가지로 해당 파드는 나중에 처리된다. 기술적 제약으로 인해, HorizontalPodAutoscaler 컨트롤러는 - 특정 CPU 메트릭을 나중에 사용할지 말지 결정할 때, 파드가 준비되는 -시작 시간을 정확하게 알 수 없다. 대신, 파드가 아직 준비되지 -않았고 시작 이후 짧은 시간 내에 파드가 준비되지 않은 상태로 + 특정 CPU 메트릭을 나중에 사용할지 말지 결정할 때, 파드가 준비되는 +시작 시간을 정확하게 알 수 없다. 대신, 파드가 아직 준비되지 +않았고 시작 이후 짧은 시간 내에 파드가 준비되지 않은 상태로 전환된다면, 해당 파드를 "아직 준비되지 않음(not yet ready)"으로 간주한다. 이 값은 `--horizontal-pod-autoscaler-initial-readiness-delay` 플래그로 설정되며, 기본값은 30초 -이다. 일단 파드가 준비되고 시작된 후 구성 가능한 시간 이내이면, -준비를 위한 어떠한 전환이라도 이를 시작 시간으로 간주한다. 이 -값은 `--horizontal-pod-autoscaler-cpu-initialization-period` 플래그로 설정되며 +이다. 일단 파드가 준비되고 시작된 후 구성 가능한 시간 이내이면, +준비를 위한 어떠한 전환이라도 이를 시작 시간으로 간주한다. 이 +값은 `--horizontal-pod-autoscaler-cpu-initialization-period` 플래그로 설정되며 기본값은 5분이다. -`현재 메트릭 값 / 원하는 메트릭 값` 기본 스케일 비율은 나중에 +`현재 메트릭 값 / 원하는 메트릭 값` 기본 스케일 비율은 나중에 사용하기로 되어 있거나 위에서 폐기되지 않은 남아있는 파드를 사용하여 계산된다. -누락된 메트릭이 있는 경우, 파드가 스케일 다운의 경우 -원하는 값의 100%를 소비하고 스케일 업의 경우 0%를 소비한다고 -가정하여 평균을 보다 보수적으로 재계산한다. 이것은 잠재적인 +누락된 메트릭이 있는 경우, 파드가 스케일 다운의 경우 +원하는 값의 100%를 소비하고 스케일 업의 경우 0%를 소비한다고 +가정하여 평균을 보다 보수적으로 재계산한다. 이것은 잠재적인 스케일의 크기를 약화시킨다. -또한 아직-준비되지-않은 파드가 있는 경우 누락된 메트릭이나 -아직-준비되지-않은 파드를 고려하지 않고 스케일 업했을 경우, -아직-준비되지-않은 파드가 원하는 메트릭의 0%를 소비한다고 +또한 아직-준비되지-않은 파드가 있는 경우 누락된 메트릭이나 +아직-준비되지-않은 파드를 고려하지 않고 스케일 업했을 경우, +아직-준비되지-않은 파드가 원하는 메트릭의 0%를 소비한다고 보수적으로 가정하고 스케일 확장의 크기를 약화시킨다. -아직-준비되지-않은 파드나 누락된 메트릭을 고려한 후에 사용 -비율을 다시 계산한다. 새 비율이 스케일 방향을 -바꾸거나, 허용 오차 내에 있으면 스케일링을 건너뛴다. 그렇지 않으면, 새 +아직-준비되지-않은 파드나 누락된 메트릭을 고려한 후에 사용 +비율을 다시 계산한다. 새 비율이 스케일 방향을 +바꾸거나, 허용 오차 내에 있으면 스케일링을 건너뛴다. 그렇지 않으면, 새 비율을 사용하여 스케일한다. -평균 사용량에 대한 *원래* 값은 새로운 사용 비율이 사용되는 -경우에도 아직-준비되지-않은 파드 또는 누락된 메트릭에 대한 -고려없이 HorizontalPodAutoscaler 상태를 통해 다시 -보고된다. +평균 사용량에 대한 *원래* 값은 새로운 사용 비율이 사용되는 +경우에도 아직-준비되지-않은 파드 또는 누락된 메트릭에 대한 +고려없이 HorizontalPodAutoscaler 상태를 통해 다시 +보고된다. -HorizontalPodAutoscaler에 여러 메트릭이 지정된 경우, 이 계산은 -각 메트릭에 대해 수행된 다음 원하는 레플리카 수 중 가장 -큰 값이 선택된다. 이러한 메트릭 중 어떠한 것도 원하는 -레플리카 수로 변환할 수 없는 경우(예 : 메트릭 API에서 메트릭을 +HorizontalPodAutoscaler에 여러 메트릭이 지정된 경우, 이 계산은 +각 메트릭에 대해 수행된 다음 원하는 레플리카 수 중 가장 +큰 값이 선택된다. 이러한 메트릭 중 어떠한 것도 원하는 +레플리카 수로 변환할 수 없는 경우(예 : 메트릭 API에서 메트릭을 가져오는 중 오류 발생) 스케일을 건너뛴다. -마지막으로, HPA가 목표를 스케일하기 직전에 스케일 권장 사항이 기록된다. 컨트롤러는 -구성 가능한 창(window) 내에서 가장 높은 권장 사항을 선택하도록 해당 창 내의 -모든 권장 사항을 고려한다. 이 값은 `--horizontal-pod-autoscaler-downscale-stabilization` 플래그를 사용하여 설정할 수 있고, 기본 값은 5분이다. -즉, 스케일 다운이 점진적으로 발생하여 급격히 변동하는 메트릭 값의 +마지막으로, HPA가 목표를 스케일하기 직전에 스케일 권장 사항이 기록된다. 컨트롤러는 +구성 가능한 창(window) 내에서 가장 높은 권장 사항을 선택하도록 해당 창 내의 +모든 권장 사항을 고려한다. 이 값은 `--horizontal-pod-autoscaler-downscale-stabilization` 플래그를 사용하여 설정할 수 있고, 기본 값은 5분이다. +즉, 스케일 다운이 점진적으로 발생하여 급격히 변동하는 메트릭 값의 영향을 완만하게 한다. ## API 오브젝트 -Horizontal Pod Autoscaler는 쿠버네티스 `autoscaling` API 그룹의 API 리소스이다. -CPU에 대한 오토스케일링 지원만 포함하는 안정된 버전은 +Horizontal Pod Autoscaler는 쿠버네티스 `autoscaling` API 그룹의 API 리소스이다. +CPU에 대한 오토스케일링 지원만 포함하는 안정된 버전은 `autoscaling/v1` API 버전에서 찾을 수 있다. -메모리 및 사용자 정의 메트릭에 대한 스케일링 지원을 포함하는 베타 버전은 -`autoscaling/v2beta2`에서 확인할 수 있다. `autoscaling/v2beta2`에서 소개된 +메모리 및 사용자 정의 메트릭에 대한 스케일링 지원을 포함하는 베타 버전은 +`autoscaling/v2beta2`에서 확인할 수 있다. `autoscaling/v2beta2`에서 소개된 새로운 필드는 `autoscaling/v1`로 작업할 때 어노테이션으로 보존된다. -API 오브젝트에 대한 자세한 내용은 +API 오브젝트에 대한 자세한 내용은 [HorizontalPodAutoscaler 오브젝트](https://git.k8s.io/community/contributors/design-proposals/autoscaling/horizontal-pod-autoscaler.md#horizontalpodautoscaler-object)에서 찾을 수 있다. ## kubectl에서 Horizontal Pod Autoscaler 지원 -Horizontal Pod Autoscaler는 모든 API 리소스와 마찬가지로 `kubectl`에 의해 표준 방식으로 지원된다. -`kubectl create` 커맨드를 사용하여 새로운 오토스케일러를 만들 수 있다. -`kubectl get hpa`로 오토스케일러 목록을 조회할 수 있고, `kubectl describe hpa`로 세부 사항을 확인할 수 있다. +Horizontal Pod Autoscaler는 모든 API 리소스와 마찬가지로 `kubectl`에 의해 표준 방식으로 지원된다. +`kubectl create` 커맨드를 사용하여 새로운 오토스케일러를 만들 수 있다. +`kubectl get hpa`로 오토스케일러 목록을 조회할 수 있고, `kubectl describe hpa`로 세부 사항을 확인할 수 있다. 마지막으로 `kubectl delete hpa`를 사용하여 오토스케일러를 삭제할 수 있다. -또한 Horizontal Pod Autoscaler를 쉽게 생성 할 수 있는 `kubectl autoscale`이라는 특별한 명령이 있다. -예를 들어 `kubectl autoscale rs foo --min=2 --max=5 --cpu-percent=80`을 -실행하면 레플리케이션 셋 *foo* 에 대한 오토스케일러가 생성되고, 목표 CPU 사용률은 `80 %`, -그리고 2와 5 사이의 레플리카 개수로 설정된다. +또한 Horizontal Pod Autoscaler를 쉽게 생성 할 수 있는 `kubectl autoscale`이라는 특별한 명령이 있다. +예를 들어 `kubectl autoscale rs foo --min=2 --max=5 --cpu-percent=80`을 +실행하면 레플리케이션 셋 *foo* 에 대한 오토스케일러가 생성되고, 목표 CPU 사용률은 `80 %`, +그리고 2와 5 사이의 레플리카 개수로 설정된다. `kubectl autoscale`에 대한 자세한 문서는 [여기](/docs/reference/generated/kubectl/kubectl-commands/#autoscale)에서 찾을 수 있다. ## 롤링 업데이트 중 오토스케일링 -현재 쿠버네티스에서는 레플리케이션 컨트롤러를 직접 관리하거나, -기본 레플리카 셋를 관리하는 디플로이먼트 오브젝트를 사용하여 [롤링 업데이트](/docs/tasks/run-application/rolling-update-replication-controller/)를 수행 할 수 있다. -Horizontal Pod Autoscaler는 후자의 방법을 지원한다. Horizontal Pod Autoscaler는 디플로이먼트 오브젝트에 바인딩되고, +현재 쿠버네티스에서는 레플리케이션 컨트롤러를 직접 관리하거나, +기본 레플리카 셋를 관리하는 디플로이먼트 오브젝트를 사용하여 [롤링 업데이트](/docs/tasks/run-application/rolling-update-replication-controller/)를 수행 할 수 있다. +Horizontal Pod Autoscaler는 후자의 방법을 지원한다. Horizontal Pod Autoscaler는 디플로이먼트 오브젝트에 바인딩되고, 디플로이먼트 오브젝트를 위한 크기를 설정하며, 디플로이먼트는 기본 레플리카 셋의 크기를 결정한다. -Horizontal Pod Autoscaler는 레플리케이션 컨트롤러를 직접 조작하는 롤링 업데이트에서 작동하지 않는다. -즉, Horizontal Pod Autoscaler를 레플리케이션 컨트롤러에 바인딩하고 롤링 업데이트를 수행할 수 없다. (예 : `kubectl rolling-update`) -작동하지 않는 이유는 롤링 업데이트에서 새 레플리케이션 컨트롤러를 만들 때, +Horizontal Pod Autoscaler는 레플리케이션 컨트롤러를 직접 조작하는 롤링 업데이트에서 작동하지 않는다. +즉, Horizontal Pod Autoscaler를 레플리케이션 컨트롤러에 바인딩하고 롤링 업데이트를 수행할 수ㄴ 없다. (예 : `kubectl rolling-update`) +작동하지 않는 이유는 롤링 업데이트에서 새 레플리케이션 컨트롤러를 만들 때, Horizontal Pod Autoscaler가 새 레플리케이션 컨트롤러에 바인딩되지 않기 때문이다. ## 쿨-다운 / 지연에 대한 지원 -Horizontal Pod Autoscaler를 사용하여 레플리카 그룹의 스케일을 관리할 때, -평가된 메트릭의 동적인 특징 때문에 레플리카 수가 +Horizontal Pod Autoscaler를 사용하여 레플리카 그룹의 스케일을 관리할 때, +평가된 메트릭의 동적인 특징 때문에 레플리카 수가 자주 변동할 수 있다. 이것은 때로는 *스래싱 (thrashing)* 이라고도 한다. -v1.6부터 클러스터 운영자는 `kube-controller-manager` 구성 +v1.6부터 클러스터 운영자는 `kube-controller-manager` 구성 요소의 플래그로 노출된 글로벌 HPA 설정을 조정하여 이 문제를 완화할 수 있다. -v1.12부터는 새로운 알고리즘 업데이트가 업스케일 지연에 대한 +v1.12부터는 새로운 알고리즘 업데이트가 업스케일 지연에 대한 필요성을 제거하였다. -- `--horizontal-pod-autoscaler-downscale-delay` : 이 옵션 값은 - 오토스케일러가 현재의 작업이 완료된 후에 다른 다운스케일 작업을 - 수행하기까지 기다려야 하는 시간을 지정하는 지속 시간이다. +- `--horizontal-pod-autoscaler-downscale-delay` : 이 옵션 값은 + 오토스케일러가 현재의 작업이 완료된 후에 다른 다운스케일 작업을 + 수행하기까지 기다려야 하는 시간을 지정하는 지속 시간이다. 기본값은 5분(`5m0s`)이다. {{< note >}} -이러한 파라미터 값을 조정할 때 클러스터 운영자는 가능한 결과를 알아야 -한다. 지연(쿨-다운) 값이 너무 길면, Horizontal Pod Autoscaler가 -워크로드 변경에 반응하지 않는다는 불만이 있을 수 있다. 그러나 지연 값을 -너무 짧게 설정하면, 레플리카 셋의 크기가 평소와 같이 계속 스래싱될 수 +이러한 파라미터 값을 조정할 때 클러스터 운영자는 가능한 결과를 알아야 +한다. 지연(쿨-다운) 값이 너무 길면, Horizontal Pod Autoscaler가 +워크로드 변경에 반응하지 않는다는 불만이 있을 수 있다. 그러나 지연 값을 +너무 짧게 설정하면, 레플리카 셋의 크기가 평소와 같이 계속 스래싱될 수 있다. {{< /note >}} ## 멀티 메트릭을 위한 지원 -Kubernetes 1.6은 멀티 메트릭을 기반으로 스케일링을 지원한다. `autoscaling/v2beta2` API -버전을 사용하여 Horizontal Pod Autoscaler가 스케일을 조정할 멀티 메트릭을 지정할 수 있다. 그런 다음 Horizontal Pod -Autoscaler 컨트롤러가 각 메트릭을 평가하고, 해당 메트릭을 기반으로 새 스케일을 제안한다. +Kubernetes 1.6은 멀티 메트릭을 기반으로 스케일링을 지원한다. `autoscaling/v2beta2` API +버전을 사용하여 Horizontal Pod Autoscaler가 스케일을 조정할 멀티 메트릭을 지정할 수 있다. 그런 다음 Horizontal Pod +Autoscaler 컨트롤러가 각 메트릭을 평가하고, 해당 메트릭을 기반으로 새 스케일을 제안한다. 제안된 스케일 중 가장 큰 것이 새로운 스케일로 사용된다. ## 사용자 정의 메트릭을 위한 지원 {{< note >}} -쿠버네티스 1.2는 특수 어노테이션을 사용하여 애플리케이션 관련 메트릭을 기반으로 하는 스케일의 알파 지원을 추가했다. -쿠버네티스 1.6에서는 이러한 어노테이션 지원이 제거되고 새로운 오토스케일링 API가 추가되었다. 이전 사용자 정의 -메트릭 수집 방법을 계속 사용할 수는 있지만, Horizontal Pod Autoscaler에서는 이 메트릭을 사용할 수 없다. 그리고 +쿠버네티스 1.2는 특수 어노테이션을 사용하여 애플리케이션 관련 메트릭을 기반으로 하는 스케일의 알파 지원을 추가했다. +쿠버네티스 1.6에서는 이러한 어노테이션 지원이 제거되고 새로운 오토스케일링 API가 추가되었다. 이전 사용자 정의 +메트릭 수집 방법을 계속 사용할 수는 있지만, Horizontal Pod Autoscaler에서는 이 메트릭을 사용할 수 없다. 그리고 Horizontal Pod Autoscaler 컨트롤러에서는 더 이상 스케일 할 사용자 정의 메트릭을 지정하는 이전 어노테이션을 사용할 수 없다. {{< /note >}} 쿠버네티스 1.6에서는 Horizontal Pod Autoscaler에서 사용자 정의 메트릭을 사용할 수 있도록 지원한다. -`autoscaling/v2beta2` API에서 사용할 Horizontal Pod Autoscaler에 대한 사용자 정의 메트릭을 추가 할 수 있다. +`autoscaling/v2beta2` API에서 사용할 Horizontal Pod Autoscaler에 대한 사용자 정의 메트릭을 추가 할 수 있다. 그리고 쿠버네티스는 새 사용자 정의 메트릭 API에 질의하여 적절한 사용자 정의 메트릭의 값을 가져온다. 요구 사항은 [메트릭을 위한 지원](#메트릭-API를-위한-지원)을 참조한다. ## 메트릭 API를 위한 지원 -기본적으로 HorizontalPodAutoscaler 컨트롤러는 일련의 API에서 메트릭을 검색한다. 이러한 +기본적으로 HorizontalPodAutoscaler 컨트롤러는 일련의 API에서 메트릭을 검색한다. 이러한 API에 접속하려면 클러스터 관리자는 다음을 확인해야 한다. * [API 집합 레이어](/docs/tasks/access-kubernetes-api/configure-aggregation-layer/) 활성화 * 해당 API 등록: - * 리소스 메트릭의 경우, 일반적으로 이것은 [메트릭-서버](https://github.com/kubernetes-incubator/metrics-server)가 제공하는 `metrics.k8s.io` API이다. + * 리소스 메트릭의 경우, 일반적으로 이것은 [메트릭-서버](https://github.com/kubernetes-incubator/metrics-server)가 제공하는 `metrics.k8s.io` API이다. 클러스터 애드온으로 시작할 수 있다. - * 사용자 정의 메트릭의 경우, 이것은 `custom.metrics.k8s.io` API이다. 메트릭 솔루션 공급 업체에서 제공하는 "어댑터" API 서버에서 제공한다. - 메트릭 파이프라인 또는 [알려진 솔루션 목록](https://github.com/kubernetes/metrics/blob/master/IMPLEMENTATIONS.md#custom-metrics-api)으로 확인한다. + * 사용자 정의 메트릭의 경우, 이것은 `custom.metrics.k8s.io` API이다. 메트릭 솔루션 공급 업체에서 제공하는 "어댑터" API 서버에서 제공한다. + 메트릭 파이프라인 또는 [알려진 솔루션 목록](https://github.com/kubernetes/metrics/blob/master/IMPLEMENTATIONS.md#custom-metrics-api)으로 확인한다. 직접 작성하고 싶다면 [샘플](https://github.com/kubernetes-incubator/custom-metrics-apiserver)을 확인하라. * 외부 메트릭의 경우, 이것은 `external.metrics.k8s.io` API이다. 위에 제공된 사용자 정의 메트릭 어댑터에서 제공될 수 있다. * `--horizontal-pod-autoscaler-use-rest-clients`는 `true`이거나 설정되지 않음. 이것을 false로 설정하면 더 이상 사용되지 않는 힙스터 기반 오토스케일링으로 전환된다. +이런 다양한 메트릭 경로와 각각의 다른 점에 대한 상세 내용은 관련 디자인 제안서인 +[HPA V2](https://github.com/kubernetes/community/blob/master/contributors/design-proposals/autoscaling/hpa-v2.md), +[custom.metrics.k8s.io](https://github.com/kubernetes/community/blob/master/contributors/design-proposals/instrumentation/custom-metrics-api.md), +[external.metrics.k8s.io](https://github.com/kubernetes/community/blob/master/contributors/design-proposals/instrumentation/external-metrics-api.md)를 참조한다. + +어떻게 사용하는지에 대한 예시는 [커스텀 메트릭 사용하는 작업 과정](/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough/#autoscaling-on-multiple-metrics-and-custom-metrics)과 +[외부 메트릭스 사용하는 작업 과정](/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough/#autoscaling-on-metrics-not-related-to-kubernetes-objects)을 참조한다. + {{% /capture %}} {{% capture whatsnext %}} diff --git a/content/ko/docs/tasks/tools/install-minikube.md b/content/ko/docs/tasks/tools/install-minikube.md index 24d22266933db..80100f534d654 100644 --- a/content/ko/docs/tasks/tools/install-minikube.md +++ b/content/ko/docs/tasks/tools/install-minikube.md @@ -15,12 +15,10 @@ card: {{% capture prerequisites %}} -컴퓨터의 바이오스(BIOS)에서 VT-x 또는 AMD-v 가상화는 필수적으로 활성화되어 있어야 한다. - {{< tabs name="minikube_before_you_begin" >}} {{% tab name="리눅스" %}} 리눅스에서 가상화 지원 여부를 확인하려면, 아래의 명령을 실행하고 출력이 비어있지 않은지 확인한다. -``` +```shell egrep --color 'vmx|svm' /proc/cpuinfo ``` {{% /tab %}} @@ -44,6 +42,12 @@ Hyper-V Requirements: VM Monitor Mode Extensions: Yes Data Execution Prevention Available: Yes ``` +다음의 출력을 확인할 수 있다면, 이미 하이퍼바이저가 설치되어 있는 것으로 다음 단계를 건너 뛸 수 있다. +``` +Hyper-V Requirements: A hypervisor has been detected. Features required for Hyper-V will not be displayed. +``` + + {{% /tab %}} {{< /tabs >}} @@ -51,87 +55,125 @@ Hyper-V Requirements: VM Monitor Mode Extensions: Yes {{% capture steps %}} -## 하이퍼바이저(hypervisor) 설치 {#install-a-hypervisor} +# minikube 설치하기 + +{{< tabs name="tab_with_md" >}} +{{% tab name="리눅스" %}} + +### kubectl 설치 + +kubectl이 설치되었는지 확인한다. kubectl은 [kubectl 설치하고 설정하기](/docs/tasks/tools/install-kubectl/#install-kubectl-on-linux)의 요령을 따라서 설치할 수 있다. + +## 하이퍼바이저(hypervisor) 설치 하이퍼바이저를 설치하지 않다면, 운영체제에 적합한 하이퍼바이저를 지금 설치한다. -운영체제 | 지원하는 하이퍼바이저 -:----------------|:--------------------- -맥OS | [VirtualBox](https://www.virtualbox.org/wiki/Downloads), [VMware Fusion](https://www.vmware.com/products/fusion), [HyperKit](https://github.com/moby/hyperkit) -리눅스 | [VirtualBox](https://www.virtualbox.org/wiki/Downloads), [KVM](http://www.linux-kvm.org/) -윈도우 | [VirtualBox](https://www.virtualbox.org/wiki/Downloads), [Hyper-V](https://msdn.microsoft.com/en-us/virtualization/hyperv_on_windows/quick_start/walkthrough_install) +• [KVM](https://www.linux-kvm.org/), 또한 QEMU를 사용한다 + +• [VirtualBox](https://www.virtualbox.org/wiki/Downloads) {{< note >}} -Minikube는 쿠버네티스 컴포넌트를 VM이 아닌 호스트에서도 동작하도록 `--vm-driver=none` 옵션도 지원한다. 이 드라이버를 사용하기 위해서는 하이퍼바이저가 아닌 Docker와 리눅스 환경을 필요로 한다. +Minikube는 쿠버네티스 컴포넌트를 VM이 아닌 호스트에서도 동작하도록 `--vm-driver=none` 옵션도 지원한다. 이 드라이버를 사용하기 위해서는 하이퍼바이저가 아닌 [도커](https://www.docker.com/products/docker-desktop)와 리눅스 환경을 필요로 한다. {{< /note >}} -## kubectl 설치 +### 패키지를 이용하여 Minikube 설치 -* [kubectl 설치하고 설정하기](/docs/tasks/tools/install-kubectl/) 지침에 따라 kubectl을 설치한다. +Minikube를 위한 *실험적인* 패키지가 있다. +리눅스 (AMD64) 패키지는 GitHub의 Minikube의 [릴리스](https://github.com/kubernetes/minikube/releases)에서 찾을 수 있다. -## Minikube 설치 {#install-minikube} +적절한 패키지를 설치하기 위해 리눅스 배포판의 패키지 도구를 사용한다. -### 맥OS {#macos} +### Minikube를 직접 다운로드하여 설치 -맥OS에 Minikube를 설치하는 가장 쉬운 방법은 [Homebrew](https://brew.sh)을 사용하는 것이다. +패키지를 통해 설치하지 못하였다면, +바이너리 자체를 다운로드 받고 사용할 수 있다. ```shell -brew cask install minikube +curl -Lo minikube https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64 \ + && chmod +x minikube ``` -정적 바이너리를 내려받아서 맥OS에 설치할 수도 있다. +Minikube 실행 파일을 사용자 실행 경로에 추가하는 가장 쉬운 방법은 다음과 같다. ```shell -curl -Lo minikube https://storage.googleapis.com/minikube/releases/latest/minikube-darwin-amd64 \ - && chmod +x minikube +sudo install minikube /usr/local/bin ``` -Minikube 실행 파일을 경로에 추가하는 쉬운 방법은 다음과 같다. +{{% /tab %}} +{{% tab name="맥OS" %}} +### kubectl 설치 -```shell -sudo mv minikube /usr/local/bin -``` +kubectl이 설치되었는지 확인한다. kubectl은 [kubectl 설치하고 설정하기](/docs/tasks/tools/install-kubectl/#install-kubectl-on-macos)의 요령을 따라서 설치할 수 있다. -### 리눅스 {#linux} +### 하이퍼바이저(hypervisor) 설치 -{{< note >}} -이 문서는 Minikube를 리눅스에 정적 바이너리를 사용해서 설치하는 방법을 설명한다. -{{< /note >}} +하이퍼바이저를 설치하지 않았다면, 다음 중 하나를 지금 설치한다. + +• [HyperKit](https://github.com/moby/hyperkit) + +• [VirtualBox](https://www.virtualbox.org/wiki/Downloads) -정적 바이너리를 내려받아서 리눅스에 Minikube를 설치할 수 있다. +• [VMware Fusion](https://www.vmware.com/products/fusion) + +### Minikube 설치 +가장 쉽게 맥OS에 Minikube를 설치하는 방법은 [Homebrew](https://brew.sh)를 이용하는 것이다. ```shell -curl -Lo minikube https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64 \ +brew cask install minikube +``` + +실행 바이너리를 다운로드 받아서 맥OS에 설치할 수도 있다. + +```shell +curl -Lo minikube https://storage.googleapis.com/minikube/releases/latest/minikube-darwin-amd64 \ && chmod +x minikube ``` -Minikube 실행 파일을 경로에 추가하는 쉬운 방법은 다음과 같다. +Minikube 실행 파일을 사용자 실행 경로에 추가하는 가장 쉬운 방법은 다음과 같다. ```shell -sudo cp minikube /usr/local/bin && rm minikube +sudo mv minikube /usr/local/bin ``` -### 윈도우 {#windows} +{{% /tab %}} +{{% tab name="Windows" %}} +### kubectl 설치하기 + +kubectl이 설치되었는지 확인한다. kubectl은 [kubectl 설치하고 설정하기](/docs/tasks/tools/install-kubectl/#install-kubectl-on-windows)의 요령을 따라서 설치할 수 있다. + +### 하이퍼바이저(hypervisor) 설치하기 + +하이퍼바이저가 설치 안 되어 있다면 아래중 하나를 지금 설치한다. + +• [Hyper-V](https://msdn.microsoft.com/en-us/virtualization/hyperv_on_windows/quick_start/walkthrough_install) + +• [VirtualBox](https://www.virtualbox.org/wiki/Downloads) {{< note >}} -Minikube를 윈도우에서 실행하려면, 먼저 [VirtualBox](https://www.virtualbox.org/) 또는 [Hyper-V](https://docs.microsoft.com/en-us/virtualization/hyper-v-on-windows/quick-start/enable-hyper-v)를 설치해야 한다. Hyper-V는 Windows 10 엔터프라이즈, Windows 10 프로페셔널, Windows 10 에듀케이션 세 버전의 Windows 10에서 동작한다. Minikube 공식 GitHub 레포지토리에 추가적인 [설치 방법](https://github.com/kubernetes/minikube/#installation)을 확인한다. +Hyper-V는 다음 세 버전의 윈도우 10에서 실행할 수 있다. Windows 10 Enterprise, Windows 10 Professional, Windows 10 Education. {{< /note >}} -윈도우에서 Minikube를 설치하는 가장 쉬운 방법은 [Chocolatey](https://chocolatey.org/)를 사용하는 것이다. (관리자 권한으로 실행) +### Chocolatey를 이용한 Minikube 설치 + +윈도우에서 Minikube를 설치하는 가장 쉬운 방법은 [Chocolatey](https://chocolatey.org/)를 사용하는 것이다(관리자 권한으로 실행). ```shell choco install minikube kubernetes-cli ``` -Minikube 설치를 마친 후, 현재 CLI 세션을 닫고 재시작한다. Minikube가 실행 경로에 자동으로 추가되어 있어야 한다. +Minikube 설치를 마친 후, 현재 CLI 세션을 닫고 재시작한다. Minikube 실행 파일의 경로는 실행 경로(path)에 자동으로 추가된다. + +### 인스톨러 실행파일을 통한 Minikube 설치 + +윈도우에서 수동으로 [Windows 인스톨러](https://docs.microsoft.com/en-us/windows/desktop/msi/windows-installer-portal)로 설치하려면, [`minikube-installer.exe`](https://github.com/kubernetes/minikube/releases/latest/minikube-installer.exe)를 다운로드 받고, 이 인스톨러를 실행한다. -#### 윈도우 수동 설치 {#windows-manual-installation} +### 직접 다운로드하여 Minikube 설치 -윈도우에서 Minikube를 수동으로 설치하려면, [`minikube-windows-amd64`](https://github.com/kubernetes/minikube/releases/latest)를 내려받아서 이름을 `minikube.exe`로 변경하고, 실행 경로에 추가한다. +윈도우에서 Minikube를 수동으로 설치하려면, [`minikube-windows-amd64`](https://github.com/kubernetes/minikube/releases/latest)를 다운로드 받아서, 파일 이름을 `minikube.exe`로 변경하고, 실행 경로에 추가한다. -#### 윈도우 인스톨러 {#windows-installer} +{{% /tab %}} +{{< /tabs >}} -[Windows 인스톨러](https://docs.microsoft.com/en-us/windows/desktop/msi/windows-installer-portal)으로 윈도우에서 Minikube를 수동으로 설치하려면 [`minikube-installer.exe`](https://github.com/kubernetes/minikube/releases/latest)를 내려받아서 인스톨러를 실행한다. {{% /capture %}} @@ -155,5 +197,5 @@ machine does not exist 구성 파일을 삭제해야 한다. ```shell -rm -rf ~/.minikube +minikube delete ``` diff --git a/content/ko/docs/tutorials/clusters/apparmor.md b/content/ko/docs/tutorials/clusters/apparmor.md index b370a7e613ae1..c5b84d2e4fbb9 100644 --- a/content/ko/docs/tutorials/clusters/apparmor.md +++ b/content/ko/docs/tutorials/clusters/apparmor.md @@ -158,7 +158,7 @@ container.apparmor.security.beta.kubernetes.io/: kubectl get events | grep Created ``` ``` -22s 22s 1 hello-apparmor Pod spec.containers{hello} Normal Created {kubelet e2e-test-stclair-minion-group-31nt} Created container with docker id 269a53b202d3; Security:[seccomp=unconfined apparmor=k8s-apparmor-example-deny-write] +22s 22s 1 hello-apparmor Pod spec.containers{hello} Normal Created {kubelet e2e-test-stclair-node-pool-31nt} Created container with docker id 269a53b202d3; Security:[seccomp=unconfined apparmor=k8s-apparmor-example-deny-write]apparmor=k8s-apparmor-example-deny-write] ``` 컨테이너의 루트 프로세스가 올바른 프로파일로 실행되는지는 proc attr을 확인하여 직접 검증할 수 있다. @@ -315,7 +315,7 @@ Events: FirstSeen LastSeen Count From SubobjectPath Type Reason Message --------- -------- ----- ---- ------------- -------- ------ ------- 23s 23s 1 {default-scheduler } Normal Scheduled Successfully assigned hello-apparmor-2 to e2e-test-stclair-minion-group-t1f5 - 23s 23s 1 {kubelet e2e-test-stclair-minion-group-t1f5} Warning AppArmor Cannot enforce AppArmor: profile "k8s-apparmor-example-allow-write" is not loaded + 23s 23s 1 {kubelet e2e-test-stclair-node-pool-t1f5} Warning AppArmor Cannot enforce AppArmor: profile "k8s-apparmor-example-allow-write" is not loaded ``` 파드 상태는 Failed이며 오류메시지는 `Pod Cannot enforce AppArmor: profile diff --git a/content/ko/docs/tutorials/kubernetes-basics/_index.html b/content/ko/docs/tutorials/kubernetes-basics/_index.html index 1f9659628a596..405572ef3084e 100644 --- a/content/ko/docs/tutorials/kubernetes-basics/_index.html +++ b/content/ko/docs/tutorials/kubernetes-basics/_index.html @@ -24,10 +24,10 @@

쿠버네티스 기초

이 튜토리얼에서는 쿠버네티스 클러스터 오케스트레이션 시스템의 기초를 익힐 수 있는 가이드를 제공한다. 각각의 모듈에는 쿠버네티스의 주요 기능과 개념에 대한 배경 지식이 담겨 있으며 대화형 온라인 튜토리얼도 포함되어 있다. 대화형 튜토리얼에서 간단한 클러스터와 그 클러스터 상의 컨테이너화 된 애플리케이션을 직접 관리해볼 수 있다.

대화형 튜토리얼을 사용해서 다음의 내용을 배울 수 있다.

    -
  • 컨테이너화된 애플리케이션을 클러스터에 배포하기
  • -
  • 디플로이먼트를 스케일링하기
  • -
  • 컨테이너화된 애플리케이션을 새로운 소프트웨어 버전으로 업데이트하기
  • -
  • 컨테이너화된 애플리케이션을 디버그하기
  • +
  • 컨테이너화된 애플리케이션을 클러스터에 배포하기.
  • +
  • 디플로이먼트를 스케일링하기.
  • +
  • 컨테이너화된 애플리케이션을 새로운 소프트웨어 버전으로 업데이트하기.
  • +
  • 컨테이너화된 애플리케이션을 디버그하기.

이 튜토리얼에서는 Katacoda를 사용해서 독자의 웹브라우저에서 Minikube가 동작하는 가상 터미널을 구동시킨다. Minikube는 로컬에 설치할 수 있는 작은 규모의 쿠버네티스로써 어디에서든 작동된다. 어떤 소프트웨어도 설치할 필요가 없고, 아무 것도 설정할 필요가 없다. 왜냐하면 대화형 튜토리얼이 웹브라우저 자체에서 바로 동작하기 때문이다.

@@ -104,12 +104,6 @@

쿠버네티스 기초 모듈

- - diff --git a/content/ko/docs/tutorials/services/source-ip.md b/content/ko/docs/tutorials/services/source-ip.md index a7946664c24c8..f6654f58911e4 100644 --- a/content/ko/docs/tutorials/services/source-ip.md +++ b/content/ko/docs/tutorials/services/source-ip.md @@ -34,7 +34,10 @@ content_template: templates/tutorial 작은 nginx 웹 서버를 이용한다. 다음과 같이 생성할 수 있다. ```console -$ kubectl run source-ip-app --image=k8s.gcr.io/echoserver:1.4 +kubectl run source-ip-app --image=k8s.gcr.io/echoserver:1.4 +``` +출력은 다음과 같다. +``` deployment.apps/source-ip-app created ``` @@ -59,13 +62,21 @@ deployment.apps/source-ip-app created Kube-proxy는 이 모드를 `proxyMode` 엔드포인트를 통해 노출한다. ```console -$ kubectl get nodes +kubectl get nodes +``` +출력은 다음과 유사하다 +``` NAME STATUS ROLES AGE VERSION -kubernetes-minion-group-6jst Ready 2h v1.13.0 -kubernetes-minion-group-cx31 Ready 2h v1.13.0 -kubernetes-minion-group-jj1t Ready 2h v1.13.0 - -kubernetes-minion-group-6jst $ curl localhost:10249/proxyMode +kubernetes-node-6jst Ready 2h v1.13.0 +kubernetes-node-cx31 Ready 2h v1.13.0 +kubernetes-node-jj1t Ready 2h v1.13.0 +``` +한 노드의 프록시 모드를 확인한다. +```console +kubernetes-node-6jst $ curl localhost:10249/proxyMode +``` +출력은 다음과 같다. +``` iptables ``` @@ -272,12 +283,12 @@ $ kubectl get svc loadbalancer -o yaml | grep -i healthCheckNodePort ``` $ kubectl get pod -o wide -l run=source-ip-app NAME READY STATUS RESTARTS AGE IP NODE -source-ip-app-826191075-qehz4 1/1 Running 0 20h 10.180.1.136 kubernetes-minion-group-6jst +source-ip-app-826191075-qehz4 1/1 Running 0 20h 10.180.1.136 kubernetes-node-6jst -kubernetes-minion-group-6jst $ curl localhost:32122/healthz +kubernetes-node-6jst $ curl localhost:32122/healthz 1 Service Endpoints found -kubernetes-minion-group-jj1t $ curl localhost:32122/healthz +kubernetes-node-jj1t $ curl localhost:32122/healthz No Service Endpoints Found ``` diff --git a/content/ko/docs/tutorials/stateful-application/zookeeper.md b/content/ko/docs/tutorials/stateful-application/zookeeper.md index a5055d6c872bb..f541864416de5 100644 --- a/content/ko/docs/tutorials/stateful-application/zookeeper.md +++ b/content/ko/docs/tutorials/stateful-application/zookeeper.md @@ -823,9 +823,9 @@ for i in 0 1 2; do kubectl get pod zk-$i --template {{.spec.nodeName}}; echo ""; `zk` `스테이트풀셋`에 모든 파드는 다른 노드에 배포된다. ```shell -kubernetes-minion-group-cxpk -kubernetes-minion-group-a5aq -kubernetes-minion-group-2g2d +kubernetes-node-cxpk +kubernetes-node-a5aq +kubernetes-node-2g2d ``` 이는 `zk` `스테이트풀셋`의 파드에 `파드안티어피니티(PodAntiAffinity)`를 지정했기 때문이다. @@ -897,9 +897,9 @@ kubectl get pods -w -l app=zk ```shell for i in 0 1 2; do kubectl get pod zk-$i --template {{.spec.nodeName}}; echo ""; done -kubernetes-minion-group-pb41 -kubernetes-minion-group-ixsl -kubernetes-minion-group-i4c4 +kubernetes-node-pb41 +kubernetes-node-ixsl +kubernetes-node-i4c4 ``` `zk-0`파드가 스케쥴되는 노드를 통제하기 위해 @@ -907,11 +907,11 @@ kubernetes-minion-group-i4c4 ```shell kubectl drain $(kubectl get pod zk-0 --template {{.spec.nodeName}}) --ignore-daemonsets --force --delete-local-data -node "kubernetes-minion-group-pb41" cordoned +node "kubernetes-node-group-pb41" cordoned -WARNING: Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-minion-group-pb41, kube-proxy-kubernetes-minion-group-pb41; Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-o5elz +WARNING: Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-node-group-pb41, kube-proxy-kubernetes-node-group-pb41; Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-o5elz pod "zk-0" deleted -node "kubernetes-minion-group-pb41" drained +node "kubernetes-node-group-pb41" drained ``` 클러스터에 4개 노드가 있기 때문에 `kubectl drain`이 성공하여 @@ -938,11 +938,11 @@ zk-0 1/1 Running 0 1m `zk-1` 이 스케쥴된 노드를 비워보자. ```shell -kubectl drain $(kubectl get pod zk-1 --template {{.spec.nodeName}}) --ignore-daemonsets --force --delete-local-data "kubernetes-minion-group-ixsl" cordoned +kubectl drain $(kubectl get pod zk-1 --template {{.spec.nodeName}}) --ignore-daemonsets --force --delete-local-data "kubernetes-node-ixsl" cordoned -WARNING: Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-minion-group-ixsl, kube-proxy-kubernetes-minion-group-ixsl; Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-voc74 +WARNING: Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-node-ixsl, kube-proxy-kubernetes-node-ixsl; Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-voc74 pod "zk-1" deleted -node "kubernetes-minion-group-ixsl" drained +node "kubernetes-node-ixsl" drained ``` `zk-1` 파드는 스케쥴되지 않는데 이는 `zk` `스테이트풀셋`이 오직 2개 노드가 스케쥴되도록 파드를 위치시키는 것을 금하는 `파드안티어피니티` 규칙을 포함하였기 때문이고 그 파드는 Pending 상태로 남을 것이다. @@ -977,10 +977,10 @@ zk-1 0/1 Pending 0 0s ```shell kubectl drain $(kubectl get pod zk-2 --template {{.spec.nodeName}}) --ignore-daemonsets --force --delete-local-data -node "kubernetes-minion-group-i4c4" cordoned +node "kubernetes-node-i4c4" cordoned -WARNING: Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-minion-group-i4c4, kube-proxy-kubernetes-minion-group-i4c4; Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-dyrog -WARNING: Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-dyrog; Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-minion-group-i4c4, kube-proxy-kubernetes-minion-group-i4c4 +WARNING: Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-node-i4c4, kube-proxy-kubernetes-node-i4c4; Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-dyrog +WARNING: Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-dyrog; Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-node-i4c4, kube-proxy-kubernetes-node-i4c4 There are pending pods when an error occurred: Cannot evict pod as it would violate the pod's disruption budget. pod/zk-2 ``` @@ -1017,9 +1017,9 @@ numChildren = 0 [`kubectl uncordon`](/docs/reference/generated/kubectl/kubectl-commands/#uncordon) 이용하여 첫 노드의 통제를 풀자. ```shell -kubectl uncordon kubernetes-minion-group-pb41 +kubectl uncordon kubernetes-node-pb41 -node "kubernetes-minion-group-pb41" uncordoned +node "kubernetes-node-pb41" uncordoned ``` `zk-1`은 이 노드에서 재스케쥴된다. `zk-1`이 Running과 Ready가 될 때까지 기다리자. @@ -1062,11 +1062,11 @@ kubectl drain $(kubectl get pod zk-2 --template {{.spec.nodeName}}) --ignore-dae 출력은 ``` -node "kubernetes-minion-group-i4c4" already cordoned -WARNING: Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-minion-group-i4c4, kube-proxy-kubernetes-minion-group-i4c4; Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-dyrog +node "kubernetes-node-i4c4" already cordoned +WARNING: Deleting pods not managed by ReplicationController, ReplicaSet, Job, or DaemonSet: fluentd-cloud-logging-kubernetes-node-i4c4, kube-proxy-kubernetes-node-i4c4; Ignoring DaemonSet-managed pods: node-problem-detector-v0.1-dyrog pod "heapster-v1.2.0-2604621511-wht1r" deleted pod "zk-2" deleted -node "kubernetes-minion-group-i4c4" drained +node "kubernetes-node-i4c4" drained ``` 이번엔 `kubectl drain` 이 성공한다. @@ -1074,11 +1074,11 @@ node "kubernetes-minion-group-i4c4" drained `zk-2`가 재스케줄되도록 두번째 노드의 통제를 풀어보자. ```shell -kubectl uncordon kubernetes-minion-group-ixsl +kubectl uncordon kubernetes-node-ixsl ``` ``` -node "kubernetes-minion-group-ixsl" uncordoned +node "kubernetes-node-ixsl" uncordoned ``` `kubectl drain`을 `PodDisruptionBudget`과 결합하면 유지보수중에도 서비스를 가용하게 할 수 있다. drain으로 노드를 통제하고 유지보수를 위해 노드를 오프라인하기 전에 파드를 추출하기 위해 사용한다면 서비스는 혼란 예산을 표기한 서비스는 그 예산이 존중은 존중될 것이다. 파드가 즉각적으로 재스케줄 할 수 있도록 항상 중요 서비스를 위한 추가 용량을 할당해야 한다. diff --git a/content/ko/docs/tutorials/stateless-application/expose-external-ip-address.md b/content/ko/docs/tutorials/stateless-application/expose-external-ip-address.md index 6f005b28aa116..23aeaa2165bd4 100644 --- a/content/ko/docs/tutorials/stateless-application/expose-external-ip-address.md +++ b/content/ko/docs/tutorials/stateless-application/expose-external-ip-address.md @@ -6,7 +6,8 @@ weight: 10 {{% capture overview %}} -이 페이지에서는 외부 IP 주소를 노출하는 쿠버네티스 서비스 오브젝트를 생성하는 방법에 대해 설명한다. +이 페이지에서는 외부 IP 주소를 노출하는 +쿠버네티스 서비스 오브젝트를 생성하는 방법에 대해 설명한다. {{% /capture %}} @@ -15,9 +16,13 @@ weight: 10 * [kubectl](/docs/tasks/tools/install-kubectl/)을 설치한다. - * Google Kubernetes Engine 또는 Amazon Web Services와 같은 클라우드 공급자를 사용하여 쿠버네티스 클러스터를 생성한다. 이 튜토리얼은 [외부 로드 밸런서](/docs/tasks/access-application-cluster/create-external-load-balancer/)를 생성하는데, 클라우드 공급자가 필요하다. + * Google Kubernetes Engine 또는 Amazon Web Services와 같은 클라우드 공급자를 사용하여 +쿠버네티스 클러스터를 생성한다. +이 튜토리얼은 [외부 로드 밸런서](/docs/tasks/access-application-cluster/create-external-load-balancer/)를 생성하는데, +클라우드 공급자가 필요하다. - * `kubectl`이 쿠버네티스 API 서버와 통신하도록 설정한다. 자세한 내용은 클라우드 공급자의 설명을 참고한다. + * `kubectl`이 쿠버네티스 API 서버와 통신하도록 설정한다. + 자세한 내용은 클라우드 공급자의 설명을 참고한다. {{% /capture %}} @@ -37,12 +42,18 @@ weight: 10 1. 클러스터에서 Hello World 애플리케이션을 실행한다. - kubectl run hello-world --replicas=5 --labels="run=load-balancer-example" --image=gcr.io/google-samples/node-hello:1.0 --port=8080 +{{< codenew file="service/load-balancer-example.yaml" >}} - 위의 명령어는 [디플로이먼트](/docs/concepts/workloads/controllers/deployment/) +```shell +kubectl apply -f https://k8s.io/examples/service/load-balancer-example.yaml +``` + + +위의 명령어는 + [디플로이먼트](/docs/concepts/workloads/controllers/deployment/) 오브젝트와 관련된 [레플리카 셋](/docs/concepts/workloads/controllers/replicaset/) - 오브젝트를 생성한다. 레플리카 셋은 다섯 개의 + 오브젝트를 생성한다. 레플리카 셋은 다섯 개의 [파드](/docs/concepts/workloads/pods/pod/)가 있으며, 각 파드는 Hello World 애플리케이션을 실행한다. @@ -69,7 +80,8 @@ weight: 10 NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE my-service LoadBalancer 10.3.245.137 104.198.205.71 8080/TCP 54s - 참고: 만약 외부 IP 주소가 \으로 표시되면 잠시 기다린 다음, 동일한 명령어를 다시 입력한다. + 참고: 만약 외부 IP 주소가 \으로 표시되면 잠시 기다린 다음, + 동일한 명령어를 다시 입력한다. 1. 서비스에 대한 자세한 정보를 확인한다. @@ -79,9 +91,9 @@ weight: 10 Name: my-service Namespace: default - Labels: run=load-balancer-example + Labels: app.kubernetes.io/name=load-balancer-example Annotations: - Selector: run=load-balancer-example + Selector: app.kubernetes.io/name=load-balancer-example Type: LoadBalancer IP: 10.3.245.137 LoadBalancer Ingress: 104.198.205.71 @@ -93,10 +105,13 @@ weight: 10 서비스에 의해 노출된 외부 IP 주소 (`LoadBalancer Ingress`)를 기억해두자. 예시에서 외부 IP 주소는 104.198.205.71이다. - 그리고 `Port`와`NodePort`의 값을 기억해두자. 예시에서 `Port`는 8080이고 `NodePort`는 32377이다. + 그리고 `Port`와`NodePort`의 값을 기억해두자. + 예시에서 `Port`는 8080이고 `NodePort`는 32377이다. 1. 위의 출력 결과를 통해, 서비스에 여러 엔드포인트가 있음을 알 수 있다. - 10.0.0.6:8080,10.0.1.6:8080,10.0.1.7:8080 + 2. 이 주소는 Hello World 애플리케이션을 실행 중인 파드의 내부 주소다. 해당 주소가 파드 주소인지 확인하려면, 아래 명령어를 입력하면 된다. + 10.0.0.6:8080,10.0.1.6:8080,10.0.1.7:8080 + 2. + 이 주소는 Hello World 애플리케이션을 실행 중인 파드의 내부 주소다. + 해당 주소가 파드 주소인지 확인하려면, 아래 명령어를 입력하면 된다. kubectl get pods --output=wide @@ -109,13 +124,16 @@ weight: 10 hello-world-2895499144-o4z13 ... 10.0.1.7 gke-cluster-1-default-pool-e0b8d269-1afc hello-world-2895499144-segjf ... 10.0.2.5 gke-cluster-1-default-pool-e0b8d269-cpuc -1. Hello World 애플리케이션에 접근하기 위해 외부 IP 주소 (`LoadBalancer Ingress`)를 사용한다. +1. Hello World 애플리케이션에 접근하기 위해 + 외부 IP 주소 (`LoadBalancer Ingress`)를 사용한다. curl http://: ``는 서비스의 외부 IP 주소 (`LoadBalancer Ingress`)를 의미하며, - ``는 서비스 정보에서 `Port` 값을 의미한다. - 만약 minikube를 사용하고 있다면, `minikube service my-service` 명령어를 통해 자동으로 브라우저 내에서 Hello World 애플리케이션에 접근할 수 있다. + ``는 서비스 정보에서 `Port` 값을 + 의미한다. + 만약 minikube를 사용하고 있다면, `minikube service my-service` 명령어를 통해, + 자동으로 브라우저 내에서 Hello World 애플리케이션에 접근할 수 있다. 성공적인 요청에 대한 응답으로 hello 메세지가 나타난다. @@ -130,7 +148,8 @@ weight: 10 kubectl delete services my-service -Hello World 애플리케이션을 실행 중인 디플로이먼트, 레플리카 셋, 파드를 삭제하려면, 아래의 명령어를 입력한다. +Hello World 애플리케이션을 실행 중인 디플로이먼트, 레플리카 셋, 파드를 삭제하려면, +아래의 명령어를 입력한다. kubectl delete deployment hello-world @@ -139,5 +158,6 @@ Hello World 애플리케이션을 실행 중인 디플로이먼트, 레플리카 {{% capture whatsnext %}} -[애플리케이션과 서비스 연결하기](/docs/concepts/services-networking/connect-applications-service/)에 대해 더 배워 본다. +[애플리케이션과 서비스 연결하기](/docs/concepts/services-networking/connect-applications-service/)에 대해 +더 배워 본다. {{% /capture %}} diff --git a/content/ko/examples/controllers/replication.yaml b/content/ko/examples/controllers/replication.yaml new file mode 100644 index 0000000000000..6eff0b9b57642 --- /dev/null +++ b/content/ko/examples/controllers/replication.yaml @@ -0,0 +1,19 @@ +apiVersion: v1 +kind: ReplicationController +metadata: + name: nginx +spec: + replicas: 3 + selector: + app: nginx + template: + metadata: + name: nginx + labels: + app: nginx + spec: + containers: + - name: nginx + image: nginx + ports: + - containerPort: 80 diff --git a/content/ko/examples/service/load-balancer-example.yaml b/content/ko/examples/service/load-balancer-example.yaml new file mode 100644 index 0000000000000..ea88fd154868c --- /dev/null +++ b/content/ko/examples/service/load-balancer-example.yaml @@ -0,0 +1,21 @@ +apiVersion: apps/v1 +kind: Deployment +metadata: + labels: + app.kubernetes.io/name: load-balancer-example + name: hello-world +spec: + replicas: 5 + selector: + matchLabels: + app.kubernetes.io/name: load-balancer-example + template: + metadata: + labels: + app.kubernetes.io/name: load-balancer-example + spec: + containers: + - image: gcr.io/google-samples/node-hello:1.0 + name: hello-world + ports: + - containerPort: 8080