alkstmshkn Infra repository
ssh -A -t [email protected] ssh [email protected]
ssh -i ~/.ssh/appuser [email protected]
#hw_6. TERRAFORM-1 создал ветку terraform-1, установил terraform, в корне terraform директории создал .gitignore, в main.tf определил провайдера с оффсайта; yandexcloud и соответствующие параметры собственного облака, добавил ресурсы инстанса, создал инстанс; пересоздал инстанс с двумя провижионерами files/puma.service, files/deploy.sh, external_ip_address_app = 158.160.102.153 определил переменные и пересоздал ресурсы, проверка пройдена; добавил инпут переменную для приватного ключа, дефолтное значение для зоны; применил формат конфиг файлов terraform fmt, создал terraform.tfvars.example.
HW_7. TERRAFORM-2 проверил очередность разворачивания инстансов при изменении зависимостей пересоздал образы под задание для app и db с установкой приложений разделил конфигурацию по файлам: app.tf, db.tf, vpc.tf, добавил outputs инстансы созданы, доступ есть, приложения установлены переделал конфигурацию, разбил на модули, создал инстансы external_ip_address_app = "51.250.83.23" external_ip_address_db = "51.250.89.190" проверил доступ к обоим инстансам, ок создал инфраструктуру для окружений stage и prod проверил оба окружения добавил описание backend для stage и prod
HW_8. Ansible-1 создал окружение и установил ansible с помощью pip поднял инфраструктуру контура stage external_ip_address_app = "158.160.55.243" external_ip_address_db = "62.84.127.171" создал inventory, проверил ддоступность хостов для ansible проверил рабооту инвентори в разных вариациях, создал inventory.yml проверил inventory.yml, проверил модули command, shell, service, git Создан и протестирован плейбук clone.yml успешный пинг ansible all -m ping -i inventory проверка динамического инвентори: ansible all -m ping -i inventory.sh 158.160.55.243 | SUCCESS => { "ansible_facts": { "discovered_interpreter_python": "/usr/bin/python3" }, "changed": false, "ping": "pong" } 62.84.127.171 | SUCCESS => { "ansible_facts": { "discovered_interpreter_python": "/usr/bin/python3" }, "changed": false, "ping": "pong" } HW_9. Ansible-2 создал плейбук по сценарию для mongodb + шаблон конфига .j2 сделал пробный прогон, добавил переменную, проерил работу добавил handlers, чекнул и затем применил плейбук добавил в сценарий юнит и шаблон для приложения, задал переменную применил таски плейбука с тегом app-tag для группы хостов app сделал деплой приложения и успешно проверил создал сценарий для mongoDB, создал сценарий для App, пересоздал инфру проверил работу сценариев, добавил сценарий для деплоя, проверил - ОК сделал несколько плейбуков, проверил работу приложения - ОК
HW_10. Ansible-3 создал роли для приложения и базы данных, пересоздал инфраструктуру, изменил адреса хостов, применил плэйбук, проверка успешная. создал окружение под prod и stage, изменил дефолтное значение определил переменные для групп хостов под оба окружения добавил таски вывода информации об окружении, организовал плейбуки скорретировал конфиг, проверил работу с окружениями на stage - OK поднял инфраструктур prod, поменял переменные, проверил работу приложения установил комюнити роль jdauphant.nginx, добавил переменные для проксирования добавил вызов роли jdauphant.nginx в плейбук app.yml применил плейбук, проверил доступность приложения на 80 порту - ОК подготовил плейбук для создания пользователей, изменил конфигурацию, создал файлы credentials, зашифровал, выполнил плейбук для stage