2363 lines
83 KiB
Markdown
2363 lines
83 KiB
Markdown
# laba/Вариант 1
|
||
|
||
## <p align="center"><b>МОДУЛЬ 1</b></p>
|
||
|
||
Задание :
|
||
Необходимо разработать и настроить инфраструктуру информационно коммуникационной системы согласно предложенной топологии (см. Рисунок 1). Задание включает базовую настройку устройств:
|
||
- присвоение имен устройствам,
|
||
- расчет IP-адресации,
|
||
- настройку коммутации и маршрутизации.
|
||
|
||
В ходе проектирования и настройки сетевой инфраструктуры следует вести отчет о своих действиях, включая таблицы и схемы, предусмотренные в задании. Итоговый отчет должен содержать одну таблицу и пять отчетов о ходе работы. Итоговый отчет по окончании работы следует сохранить на диске рабочего места
|
||
|
||
<p align="center">
|
||
<img src="images/module1/2. топология сети.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/1. Таблица IP-адресов.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center"><b>Чтобы зайти на стенд для 1 модуля.</b></p>
|
||
|
||
<p align="center"><b>User name: m1</b></p>
|
||
<p align="center"><b>Password: modul1</b></p>
|
||
|
||
Перед включением виртуалок Настроим вланы. По заданию HQ-SRV в 100 влане, а HQ-CLI в 200. По сути они уже преднастроены, Но можно проверить.
|
||
> **Примечание:**
|
||
> Основные сведения о настройке коммутатора и выбора реализации разделения на VLAN занесите в отчёт
|
||
|
||
>**Примечание:**
|
||
>Номер Vlan зависит от варианта, смотрите в задание
|
||
|
||
<p align="center">
|
||
<img src="images\module1\4. vlan.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images\module1\5. vlan.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images\module1\6. vlan.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images\module1\7. vlan.png" width="600" />
|
||
</p>
|
||
|
||
**ISP преднастроена, но включать ее надо**
|
||
|
||
<p align="center">
|
||
<img src="images\module1\table route.png" width="600" />
|
||
</p>
|
||
|
||
|
||
### <p align="center"><b>Сетевая связность - между HQ и BRANCH</b></p>
|
||
> **Примечание:**
|
||
> Сведения об адресах занесите в отчёт, в качестве примера используйте Таблицу 3
|
||
|
||
<p align="center"><b>*HQ-RTR*</b></p>
|
||
|
||
Задаём сразу FQDN - выбор имени домена произвольный:
|
||
|
||
<p align="center">
|
||
<img src="images/module1/9. сетевая связность.png" width="600" />
|
||
</p>
|
||
|
||
По такой же аналогии настройте остальные имена
|
||
|
||
Чтобы настроить адресацию переходим:
|
||
|
||
<p align="center">
|
||
<img src="images/module1/10..png" width="600" />
|
||
</p>
|
||
|
||
Заодно настроим GRE туннель
|
||
|
||
<p align="center">
|
||
<img src="images\module1\netowrk hq-rtr.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/12..png" width="600" />
|
||
</p>
|
||
|
||
Включаем пересылку пакетов между портами (интерфейсами)
|
||
|
||
<p align="center">
|
||
<img src="images/module1/13..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/14..png" width="600" />
|
||
</p>
|
||
|
||
Применяем:
|
||
|
||
***sysctl -p***
|
||
|
||
Прокинем PAT так, как по приколу тачки, что подключены к роутеру пинговать инет не будут.
|
||
|
||
<p align="center">
|
||
<img src="images/module1/15..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/nftables-hq-rtr.png" width="600" />
|
||
</p>
|
||
|
||
Обязательно добавим в автозагрузку и активируем
|
||
|
||
<p align="center">
|
||
<img src="images/module1/17..png" width="600" />
|
||
</p>
|
||
|
||
Туннель мы допустим подняли, но чтобы пакеты через него пошли, нужна маршрутизация.
|
||
> **Примечание:**
|
||
> Сведения о настройке и защите протокола(ospf) занесите в отчёт
|
||
|
||
Установим frr.
|
||
|
||
<p align="center">
|
||
<img src="images/module1/18..png" width="600" />
|
||
</p>
|
||
|
||
> **РЕКОМЕНДАЦИЯ:**
|
||
> ПОКА FRR СКАЧИВАЕТСЯ ПЕРЕХОДИМ К НАСТРОЙКЕ BR-RTR
|
||
|
||
В файле /etc/frr/daemons - включим поддержку OSPFv2 (IPv4)
|
||
|
||
<p align="center">
|
||
<img src="images/module1/19..png" width="600" />
|
||
</p>
|
||
|
||
Не забываем перезапускать, чтобы изменения вступили в силу
|
||
|
||
<p align="center">
|
||
<img src="images/module1/20..png" width="600" />
|
||
</p>
|
||
|
||
Переходим к настройке frr (ospf), Поставим пароль на frr
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/frr-hq-rtr.png" width="600" />
|
||
</p>
|
||
|
||
Не забываем перезапустить
|
||
|
||
<p align="center">
|
||
<img src="images/module1/23..png" width="600" />
|
||
</p>
|
||
|
||
И добавить в автозагрузку
|
||
|
||
<p align="center">
|
||
<img src="images/module1/24..png" width="600" />
|
||
</p>
|
||
|
||
|
||
<p align="center"><b>*BR-RTR*</b></p>
|
||
|
||
Произведем те же манипуляции
|
||
|
||
<p align="center">
|
||
<img src="images/module1/25..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/26..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images\module1\int br-rtr.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/28..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/29..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/30..png" width="600" />
|
||
</p>
|
||
|
||
Применяем:
|
||
|
||
***sysctl -p***
|
||
|
||
Прокинем PAT так, как по приколу тачки, что подключены к роутеру пинговать инет не будут.
|
||
|
||
***nano /etc/nftables.conf***
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/nftables-br-rtr.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/32..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/33..png" width="600" />
|
||
</p>
|
||
|
||
> **РЕКОМЕНДАЦИЯ:**
|
||
> ПОКА FRR СКАЧИВАЕТСЯ ДОДЕЛЫВАЕМ FRR НА HQ-RTR
|
||
|
||
<p align="center">
|
||
<img src="images/module1/34..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/35..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/36..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/frr-br-rtr.png" width="600" />
|
||
</p>
|
||
|
||
|
||
<p align="center">
|
||
<img src="images/module1/39..png" width="600" />
|
||
</p>
|
||
|
||
Ура сетевая связность у между hq и br настроена
|
||
|
||
Для проверки пингуем с br-rtr:
|
||
|
||
***ping 192.168.100.1***
|
||
|
||
> **РЕКОМЕНДАЦИЯ:**
|
||
> сразу на HQ-RTR скачаем: apt update && apt install –y isc-dhcp-server
|
||
|
||
|
||
<p align="center"><b>*HQ-SRV*</b></p>
|
||
|
||
Задаем имя:
|
||
|
||
<p align="center">
|
||
<img src="images/module1/hq-srv.FQDN.png" width="600" />
|
||
</p>
|
||
|
||
Прокинем инет:
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/int-hq-srv.png" width="600" />
|
||
</p>
|
||
|
||
Перезапускаем сервис:
|
||
|
||
***Systemctl restart networking***
|
||
|
||
Проверяем:
|
||
|
||
<p align="center">
|
||
<img src="images/module1/41..png" width="600" />
|
||
</p>
|
||
|
||
|
||
<p align="center"><b>*BR-SRV*</b></p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/hostname-br-srv.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/int-br-srv.png" width="600" />
|
||
</p>
|
||
|
||
Перезапускаем сервис:
|
||
|
||
***Systemctl restart networking***
|
||
|
||
Проверяем:
|
||
|
||
<p align="center">
|
||
<img src="images/module1/41..png" width="600" />
|
||
</p>
|
||
|
||
> **РЕКОМЕНДАЦИЯ:**
|
||
> сразу скачиваем на HQ-SRV: apt update && apt install -y dnsmasq
|
||
|
||
|
||
### <p align="center"><b>Создание локальных учетных записей</b></p>
|
||
|
||
<p align="center"><b>Создайте пользователя sshuser на серверах HQ-SRV и BR-SRV</b></p>
|
||
|
||
- Пароль пользователя sshuser - "P@ssw0rd"
|
||
- Идентификатор пользователя 2026
|
||
- Пользователь sshuser должен иметь возможность запускать sudo без дополнительной аутентификации
|
||
|
||
<p align="center"><b>*HQ-SRV и BR-SRV*</b></p>
|
||
|
||
<p align="center">
|
||
<img src="images\module1\sshuser.png" width="600" />
|
||
</p>
|
||
|
||
В дебиане нету судо поэтому скачаем:
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/ssh-user2.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/46..png" width="600" />
|
||
</p>
|
||
|
||
НА BR-SRV СДЕЛАЙТЕ ТОЖЕ САМОЕ
|
||
|
||
|
||
<p align="center"><b>Создайте пользователя net_admin на маршрутизаторах HQ-RTR и BR-RTR</b></p>
|
||
|
||
- Пароль пользователя net_admin - "P@ssw0rd"
|
||
- При настройке на EcoRouter пользователь net_admin должен обладать максимальными привилегиями
|
||
- При настройке ОС на базе Linux, запускать sudo без дополнителььной аутентификации
|
||
|
||
<p align="center"><b>*HQ-RTR и BR-RTR*</b></p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/47. net_admin.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/48..png" width="600" />
|
||
</p>
|
||
|
||
В дебиане нет sudo поэтому скачаем
|
||
|
||
<p align="center">
|
||
<img src="images/module1/49..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/50..png" width="600" />
|
||
</p>
|
||
|
||
СДЕЛАЙТЕ ТОЖЕ САМОЕ НА BR-RTR
|
||
|
||
|
||
### <p align="center"><b>Настройка безопасного удаленного доступа на серверах HQ-SRV и BR-SRV:</b></p>
|
||
|
||
- Для подключения используйте порт 2026
|
||
- Разрешите подключения только пользователю sshuser
|
||
- Ограничьте количество попыток входа до двух
|
||
- Настройте баннер «Authorized access only»
|
||
|
||
<p align="center"><b>*HQ-SRV и BR-SRV*</b></p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/51. ssh.png" width="600" />
|
||
</p>
|
||
|
||
Редактируем файл /etc/ssh/sshd_config:
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2\ssh port.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/53..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/54..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/55..png" width="600" />
|
||
</p>
|
||
|
||
ДУБЛИРУЕМ ТОЖЕ САМОЕ НА BR-SRV
|
||
|
||
|
||
### <p align="center"><b>Установим и настроим DHCP-сервер</b></p>
|
||
|
||
и зарезервируем адрес для HQ-SRV, чтобы потом на всех остальных оконечных устройствах задавая адреса сразу создавать пользователей
|
||
|
||
<p align="center"><b>*HQ-RTR:*</b></p>
|
||
|
||
Скачаем: ***apt install –y isc-dhcp-server***
|
||
|
||
Первым делом нам необходимо указать, что наш DHCP сервер должен принимать запросы только с ens20 интерфейса.
|
||
|
||
<p align="center">
|
||
<img src="images/module1/56. dhcp.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/57..png" width="600" />
|
||
</p>
|
||
|
||
Настройка протокола динамической конфигурации хостов.
|
||
|
||
- Настройте нужную подсеть
|
||
- Для офиса HQ в качестве сервера DHCP выступает маршрутизатор HQ-RTR.
|
||
- Клиентом является машина HQ-CLI.
|
||
- Исключите из выдачи адрес маршрутизатора
|
||
- Адрес шлюза по умолчанию – адрес маршрутизатора HQ-RTR.
|
||
- Адрес DNS-сервера для машины HQ-CLI – адрес сервера HQ-SRV.
|
||
- DNS-суффикс для офисов HQ – au-team.irpo
|
||
- Сведения о настройке протокола занесите в отчёт
|
||
|
||
<p align="center">
|
||
<img src="images/module1/58..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/59..png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/restart-dhcp.png" width="600" />
|
||
</p>
|
||
|
||
> **Примечание:**
|
||
> Сведения о настройке протокола занесите в отчёт
|
||
|
||
|
||
### <p align="center"><b>Настройка DNS для офисов HQ и BR.</b></p>
|
||
|
||
- Основной DNS-сервер реализован на HQ-SRV.
|
||
- Сервер должен обеспечивать разрешение имён в сетевые адреса устройств и обратно в соответствии с таблицей 2
|
||
- В качестве DNS сервера пересылки используйте любой общедоступный DNS сервер
|
||
|
||
Нам необходимо настроить DNS сервер. Будем использовать dnsmasq.
|
||
|
||
<p align="center"><b>*HQ-SRV*</b></p>
|
||
|
||
<p align="center">
|
||
<img src="images/module1/61. dns.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images\module1\dnsmasq1.png" width="600" />
|
||
</p>
|
||
|
||
Теперь открываем скрипт-инициализации сервиса dnsmasq
|
||
|
||
<p align="center">
|
||
<img src="images/module1/64..png" width="600" />
|
||
</p>
|
||
|
||
ищем строчку DNSMASQ_OPTS
|
||
|
||
<p align="center">
|
||
<img src="images/module1/65.png" width="600" />
|
||
</p>
|
||
|
||
Убираем оттуда –local-service
|
||
|
||
<p align="center">
|
||
<img src="images/module1/66..png" width="600" />
|
||
</p>
|
||
|
||
Перезагружаем службу dnsmasq:
|
||
|
||
***systemctl restart dnsmasq***
|
||
|
||
После настройки dns-сервера прописываем всем машинам -"HQ-SRV, HQ-RTR, BR-RTR, BR-SRV", кроме HQ-CLI (так как настроили для него dhcp) в /etc/resolv.conf:
|
||
|
||
***nameserver 192.168.100.2***
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/dns-tables.png" width="600" />
|
||
</p>
|
||
|
||
|
||
### <p align="center"><b>Настройте часовой пояс на всех устройствах, согласно месту проведения экзамена.</b></p>
|
||
|
||
<p align="center"><b>*HQ-SRV, HQ-CLI, BR-SRV*</b></p>
|
||
|
||
Проверяем какой часовой пояс установлен:
|
||
|
||
***timedatectl status***
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/hq-cli-timedate.png" width="600" />
|
||
</p>
|
||
|
||
Если отличается, то устанавливаем:
|
||
|
||
***timedatectl set-timezone Asia/Yekaterinburg***
|
||
|
||
|
||
|
||
## <p align="center"><b>МОДУЛЬ 2</b></p>
|
||
|
||
<p align="center"><b>Чтобы зайти на стенд для 2-3 модуля.</b></p>
|
||
|
||
<p align="center"><b>User name: m2</b></p>
|
||
<p align="center"><b>Password: module2</b></p>
|
||
|
||
### <p align="center"><b>1. Настройте доменный контроллер Samba на машине BR-SRV.</b></p>
|
||
|
||
**<p align="center"><b>(СДЕЛАТЬ СРАЗУ 3 СНАПШОТА НА BR-SRV(samba), HQ-CLI(Active Directory), HQ-SRV(mdadm))</b></p>**
|
||
|
||
- Создайте 5 пользователей для офиса HQ: имена пользователей формата user№.hq. Создайте группу hq, введите в эту группу созданных пользователей
|
||
- Введите в домен машину HQ-CLI
|
||
- Пользователи группы hq имеют право аутентифицироваться на клиентском ПК
|
||
- Пользователи группы hq должны иметь возможность повышать привилегии для выполнения ограниченного набора команд: cat, grep, id. Запускать другие команды с повышенными привилегиями пользователи группы не имеют права
|
||
- Выполните импорт пользователей из файла users.csv. Файл будет располагаться на виртуальной машине BR-SRV в папке /opt
|
||
|
||
<p align="center"><b>*BR-SRV*</b></p>
|
||
|
||
> **Обязательно:**
|
||
> Временно заменяем в /etc/resolv.conf 192.168.100.2 на 10.0.1.4, чтобы samba быстрее скачивалось
|
||
|
||
Переходим к настройкам самого контроллера домена на BR-SRV
|
||
|
||
<p align="center">
|
||
<img src="images/module2/1.samba.png" width="600" />
|
||
</p>
|
||
|
||
> **РЕКОМЕНДАЦИЯ:**
|
||
> НА CLI: apt-get update && apt-get remove -y alterator-datetime && apt-get install -y task-auth-ad-sssd && apt-get install -y admc && apt-get install -y openssh-server
|
||
> НА CLI: systemctl restart sshd.
|
||
> НА HQ-SRV: apt update && apt install mdadm -y
|
||
|
||
Появится синее окно, не пугайтесь, так и должно быть. В первом окне вводим имя домена au-team.irpo, а во втором — имя нашего сервера hq-srv
|
||
|
||
Удаляем докер:
|
||
|
||
>**ip link delete docker0;***
|
||
|
||
- Проверяем что установлено имя в формате FQDN;
|
||
- Задаём domainname;
|
||
- Очищаем конфигурацию samba;
|
||
- Разворачиваем контроллер домена Active Directory на базе SambaDC с Dnsmasq в качестве DNS
|
||
|
||
<p align="center">
|
||
<img src="images/module2/2.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module2/3.png" width="600" />
|
||
</p>
|
||
|
||
Подготовка домена: Samba-tool --realm=au-team.irpo --domain=au-team –adminpass=”P@ssw0rd” --dnsbackend=SAMBA_INTERNAL --option=”dns forwrder=192.168.100.2” --server-role=dc
|
||
|
||
>ВЫ МОЖЕТЕ НАПИСАТЬ ТОЛЬКО «Samba-tool domain provision», А ОСТАЛЬНОЕ ОНО СПРОСИТ САМО
|
||
|
||
<p align="center">
|
||
<img src="images/module2/4.png" width="600" />
|
||
</p>
|
||
|
||
Как видим че то не так, надо перезапустить машинку:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/5.png" width="600" />
|
||
</p>
|
||
|
||
***systemctl restart samba***
|
||
|
||
Проверяем:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/6.png" width="600" />
|
||
</p>
|
||
|
||
> **Обязательно:**
|
||
> ВВОДИМ МАШИНУ обратно В ДОМЕН:
|
||
> nano /etc/resolv.conf – nameserver 192.168.100.2
|
||
|
||
> **РЕКОМЕНДАЦИЯ:**
|
||
> НА BR-SRV здесь же скачиваем: apt install ansible -y
|
||
> НА HQ-SRV скачиваем: apt install nfs-kernel-server -y
|
||
|
||
<p align="center"><b>На клиента ставим необходимые пакеты</b></p>
|
||
|
||
|
||
|
||
<p align="center"><b>*CLI*</b></p>
|
||
|
||
При установке пакета task-auth-ad-sssd у вас возникнет ошибка, связанная с конфликтом с пакетом alterator-datetime, его необходимо удалить:
|
||
|
||
***apt-get update && apt-get remove -y alterator-datetime***
|
||
|
||
После пропишем инсталл:
|
||
|
||
***apt-get install -y task-auth-ad-sssd***
|
||
|
||
Переходим к редактированию временного соединения и в качестве DNS-сервера прописываем адрес HQ-SRV, а также указываем поисковый домен:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/7.png" width="600" />
|
||
</p>
|
||
|
||
Переходим в Центр управления системой, на вкладке Пользователи выбираем Аутентификация
|
||
|
||
<p align="center">
|
||
<img src="images/module2/8.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module2/9.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module2/10.png" width="600" />
|
||
</p>
|
||
|
||
Вводим пароль администратора домена:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/11.png" width="600" />
|
||
</p>
|
||
|
||
Нажимаем ОК и перезагружаем систему:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/12.png" width="600" />
|
||
</p>
|
||
|
||
> **РЕКОМЕНДАЦИЯ:**
|
||
> НА BR-SRV скачиваем: apt install -y docker.io docker-compose
|
||
> НА HQ-SRV скачиваем: apt install -y apache* -y && apt install -y php php8.2 php-curl php-zip php-xml libapache2-mod-php php-mysql php-mbstring php-gd php-intl php-soap -y
|
||
|
||
В качестве проверки после перезагрузки можно выполнить аутентификацию от имени доменного пользователя Administrator:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/13.png" width="600" />
|
||
</p>
|
||
|
||
Организуем отслеживание подключения к домену: CLI: На клиенте с граф. интерфейсом установим Модуль удаленного управления базой данных конфигурации (ADMC) • Установим пакет admc:
|
||
|
||
***apt-get install -y admc***
|
||
|
||
Для использования ADMC необходимо предварительно получить ключ Kerberos для администратора домена. Получить ключ Kerberos можно, например, выполнив следующую команду, из под обычного пользователя:
|
||
|
||
***kinit Administrator***
|
||
|
||
ADMC запускается из меню запуска приложений: пункт «Системные» → ADMC или из командной строки (команда admc).
|
||
|
||
_____________________________________________________________________________________
|
||
|
||
Если admc долго не может запуститься(не выдает ошибок, но не запускается), то внесите изменения в файл /etc/krb5.conf
|
||
|
||
<p align="center">
|
||
<img src="images/module2/14.png" width="600" />
|
||
</p>
|
||
|
||
_____________________________________________________________________________________
|
||
|
||
На вкладке «Компьютеры» в графическом режиме удобно отслеживать подключение к домену.
|
||
|
||
Создаем пять юзеров(формата: hquser-1, hquser-2):
|
||
|
||
<p align="center">
|
||
<img src="images/module2/15.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/create-user.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center"><b>Создаем группу hq и в нее добавляем раннее созданных пользователей</b></p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/create-group.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/add-to-group.png" width="600" />
|
||
</p>
|
||
|
||
Пользователи группы hq должны иметь возможность повышать привилегии для выполнения ограниченного набора команд: cat, grep, id. Запускать другие команды с повышенными привилегиями пользователи группы не имеют права
|
||
|
||
<p align="center"><b>*CLI*</b></p>
|
||
|
||
Настройте файл */etc/sudoers* на рабочей станции Linux, как описано в предыдущем ответе, используя синтаксис для доменных групп:
|
||
|
||
***%hq ALL=(ALL) NOPASSWD: /bin/cat, /bin/grep, /usr/bin/id***
|
||
|
||
### <p align="center"><b>2. Сконфигурируйте файловое хранилище</b></p>
|
||
|
||
<p align="center"><b>(СДЕЛАТЬ SNAPSHOT, если не сделали, на HQ-SRV)</b></p>
|
||
|
||
- При помощи двух подключенных к серверу дополнительных дисков размером 1 Гб сконфигурируйте дисковый массив уровня 0
|
||
- Имя устройства – md0, при необходимости конфигурация массива размещается в файле /etc/mdadm.conf
|
||
- Создайте раздел, отформатируйте раздел, в качестве файловой системы используйте ext4
|
||
- Обеспечьте автоматическое монтирование в папку /raid
|
||
|
||
Подготовка дисков
|
||
|
||
<p align="center"><b>*HQ-SRV*</b></p>
|
||
|
||
Убедитесь, что дополнительные диски распознаны системой. Список подключенных дисков можно проверить командой:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\disk.png" width="600" />
|
||
</p>
|
||
|
||
Создайте RAID 0 массив из двух 1Гб дисков (предположим, они определены как /dev/sda, /dev/sdb:
|
||
|
||
Скачаем службу mdadm:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/18.png" width="600" />
|
||
</p>
|
||
|
||
Зануление суперблоков на дисках, которые будут использоваться для построения RAID-массива:
|
||
>mdadm --zero-superblock --force /dev/sda /dev/sdb
|
||
|
||
Создание RAID-массива:
|
||
где:
|
||
|
||
/dev/md0 — устройство RAID, которое появится после сборки;
|
||
-l 0 — уровень RAID;
|
||
-n 2 — количество дисков, из которых собирается массив;
|
||
/dev/sd{b,c} — сборка выполняется из дисков sdb, sdc и sdd.
|
||
|
||
> mdadm --create --verbose /dev/md0 -l 0 -n 2 /dev/sda /dev/sdb
|
||
|
||
Результат:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\mdadm.png" width="600" />
|
||
</p>
|
||
|
||
Проверяем:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\lsblk.png" width="600" />
|
||
</p>
|
||
|
||
Сохраняем конфигурацию массива в файле /etc/mdadm.conf:
|
||
|
||
>mdadm --detail --scan --verbose | tee -a /etc/mdadm.conf
|
||
|
||
Результат:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\save mdadm conf.png" width="600" />
|
||
</p>
|
||
|
||
Создание файловой системы для массива
|
||
|
||
>mkfs.ext4 /dev/md0
|
||
|
||
Результат:
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/mdadm-4.png" width="600" />
|
||
</p>
|
||
|
||
Чтобы данный раздел также монтировался при загрузке системы, добавляем в fstab
|
||
|
||
>nano /etc/fstab
|
||
|
||
следующую информацию:
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/mdadm-5.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images\module2\fstab.png" width="600" />
|
||
</p>
|
||
|
||
Выполняем монтирование:
|
||
|
||
>mount -av
|
||
|
||
Результат:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\mount -av.png" width="600" />
|
||
</p>
|
||
|
||
Проверяем:
|
||
|
||
>df -h
|
||
|
||
Результат:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\df -h.png" width="600" />
|
||
</p>
|
||
|
||
### <p align="center"><b>3. Настройте сервер сетевой файловой системы (nfs) на HQ-SRV</b></p>
|
||
|
||
- В качестве папки общего доступа выберите /raid/nfs, доступ для чтения и записи исключительно для сети в сторону HQ-CLI
|
||
- На HQ-CLI настройте автомонтирование в папку /mnt/nfs
|
||
- Основные параметры сервера отметьте в отчёте
|
||
|
||
<p align="center"><b>*HQ-SRV*</b></p>
|
||
|
||
Устанавливаем пакеты для NFS сервера:
|
||
|
||
>apt-get install -y nfs-server cifs-utils
|
||
|
||
Создаём директорию для общего доступа /raid/nfs, куда ранее был смонтирован RAID - массив:
|
||
|
||
>mkdir /raid0/nfs
|
||
|
||
Назначаем права на созданную директорию (полный доступ):
|
||
|
||
>chmod 777 /raid0/nfs
|
||
|
||
Редактируем файл /etc/exports:
|
||
|
||
>nano /etc/exports
|
||
|
||
Добавляем туда следующую информацию, где:
|
||
/raid/nfs - общий ресурс
|
||
192.168.200.0/24 - клиентская сеть, которой разрешено монтирования общего ресурса
|
||
rw — разрешены чтение и запись
|
||
no_root_squash — отключение ограничения прав root
|
||
|
||
<p align="center">
|
||
<img src="images\module2\exports.png" width="600" />
|
||
</p>
|
||
|
||
Экспортируем файловую систему, указанную выше в /etc/exports:
|
||
|
||
> exportfs -arv
|
||
|
||
Результат:
|
||
exportfs с флагом -a, означающим экспортировать или отменить экспорт всех каталогов
|
||
-r означает повторный экспорт всех каталогов, синхронизируя /var/lib/nfs/etab с /etc/exports и файлами в /etc/exports.d
|
||
а флаг -v включает подробный вывод:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\export.png" width="600" />
|
||
</p>
|
||
|
||
Запускаем и добавляем в автозагрузку NFS - сервер:
|
||
>systemctl enable --now nfs-server
|
||
|
||
<p align="center"><b>*HQ-CLI*</b></p>
|
||
|
||
Выполняем установку пакетов для NFS - клиента:
|
||
|
||
>apt-get update && apt-get install -y nfs-utils nfs-clients
|
||
|
||
Создадим директорию для монтирования общего ресурса:
|
||
|
||
>mkdir /mnt/nfs
|
||
|
||
Задаём права на созданную директорию:
|
||
|
||
>chmod 777 /mnt/nfs
|
||
|
||
Настраиваем автомонтирование общего ресурса через fstab:
|
||
|
||
>nano /etc/fstab
|
||
|
||
Добавляем следующую информацию:
|
||
где: 192.168.100.2 - адрес файлового сервера (HQ-SRV)
|
||
|
||
<p align="center">
|
||
<img src="images\module2\fstab cli.png" width="600" />
|
||
</p>
|
||
|
||
Выполняем монтирование общего ресурса:
|
||
|
||
>mount -av
|
||
|
||
Результат:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\mount.png" width="600" />
|
||
</p>
|
||
|
||
Проверяем:
|
||
|
||
>df -h
|
||
|
||
Результат:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\df -h cli.png" width="600" />
|
||
</p>
|
||
|
||
### <p align="center"><b>4. Настройте службу сетевого времени на базе сервиса chrony</b></p>
|
||
|
||
- В качестве сервера выступает ISP
|
||
- На ISP настройте сервер chrony, выберите стратум 5
|
||
- В качестве клиентов настройте HQ-SRV, HQ-CLI, BR-RTR, BR-SRV
|
||
|
||
1. Настройка NTP сервера:
|
||
|
||
<p align="center"><b>*ISP*</b></p>
|
||
|
||
Установим пакет chrony на каждой машине:
|
||
|
||
***apt update && apt install -y chrony***
|
||
|
||
Приводим конфигурационный файл "chrony.conf" к следующему виду:
|
||
|
||
***nano /etc/chrony/chrony.conf***
|
||
|
||
<p align="center">
|
||
<img src="images/module2/36.chrony.png" width="600" />
|
||
</p>
|
||
|
||
> где:
|
||
> - server 127.0.0.1 iburst prefer - указываем сервером синхронизации самого себя, опция «iburst» принудительно отправляет сразу несколько пакетов для точности синхронизации,
|
||
> - hwtimestamp * - опция, чтобы сетевой интерфейс считал собственный источник времени верным и синхронизировал клиентов с ним;
|
||
> - local stratum 5 - устанавливаем для себя значение по stratum = 5;
|
||
> - allow - кому разрешается подключаться к серверу и запрашивать время: чтобы не перечеслять все используемые в задании IPv4 и IPv6 сети, используется 0/0 и ::/0;
|
||
|
||
Запускаем и добавляем в автозагрузку службу chronyd, и не забываем рестартать сервис:
|
||
|
||
***systemctl enable --now chrony***
|
||
***systemctl restart chrony***
|
||
|
||
<p align="center">
|
||
<img src="images/module2/37.png" width="600" />
|
||
</p>
|
||
|
||
Проверяем:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/38.png" width="600" />
|
||
</p>
|
||
|
||
2. Настройка NTP клиентов:
|
||
|
||
<p align="center"><b>*HQ-SRV, BR-SRV, BR-RTR, HQ-CLI*</b></p>
|
||
|
||
Установим пакет chrony:
|
||
|
||
***apt install -y chrony***
|
||
|
||
Приводим конфигурационный файл "chrony.conf" к следующему виду:
|
||
|
||
***nano /etc/chrony/chrony.conf***
|
||
> На HQ-CLI /etc/chrony.conf
|
||
|
||
<p align="center">
|
||
<img src="images\module2\chrony cli.png" width="600" />
|
||
</p>
|
||
|
||
> где: 172.16.1.1 - IPv4 адрес ISP;
|
||
|
||
Запускаем и добавляем в автозагрузку службу chronyd:
|
||
|
||
systemctl enable --now chrony
|
||
> на cli chronyd
|
||
|
||
systemctl restart chrony
|
||
> на cli chronyd
|
||
|
||
Проверяем с клиента HQ-SRV:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/40.png" width="600" />
|
||
</p>
|
||
|
||
Проверяем с сервера ISP :
|
||
> Не пугайтесь что там только два клиента, так и должно быть
|
||
|
||
<p align="center">
|
||
<img src="images/module2/41.png" width="600" />
|
||
</p>
|
||
|
||
BR-RTR | BR-SRV | CLI: Настройка аналогична HQ-SRV - за исключением указания соответствующих адресов
|
||
|
||
> **РЕКОМЕНДАЦИЯ:**
|
||
> НА HQ-SRV скачиваем: apt install -y git
|
||
> НА HQ-RTR скачиваем: apt install nginx -y
|
||
|
||
### <p align="center"><b>5. Сконфигурируйте ansible на сервере BR-SRV</b></p>
|
||
|
||
<p align="center"><b>(СДЕЛАЙ SNAPSHOT НА BR-SRV)</b></p>
|
||
|
||
- Сформируйте файл инвентаря, в инвентарь должны входить HQ-SRV, HQ-CLI, HQ-RTR и BR-RTR
|
||
- Рабочий каталог ansible должен располагаться в /etc/ansible
|
||
- Все указанные машины должны без предупреждений и ошибок отвечать pong на команду ping в ansible посланную с BR-SRV
|
||
|
||
<p align="center"><b>*BR-SRV*</b></p>
|
||
|
||
1. Установите Ansible (если он еще не установлен):
|
||
|
||
***apt update && apt install ansible -y***
|
||
|
||
2. Создание рабочего каталога Ansible
|
||
|
||
Ansible обычно уже использует /etc/ansible как рабочий каталог, но если его нет, создайте его вручную:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/42.png" width="600" />
|
||
</p>
|
||
|
||
3. Создание файла инвентаря
|
||
|
||
Создайте инвентарь файла : /etc/ansible/hosts. Открываем файл /etc/ansible/hosts
|
||
|
||
- Скачиваем файл с github, в нужную директорию:
|
||
> !dos2unix и curl на BR-SRV уже скачаны!
|
||
|
||
***curl -o /etc/ansible/hosts https://raw.githubusercontent.com/shiraorie/demo2026-1/main/files/hosts.file***
|
||
|
||
***dos2unix /etc/ansible/hosts***
|
||
|
||
- Проверяем его наличие:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/43.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/ansible-hosts.png" width="600" />
|
||
</p>
|
||
|
||
4. Настройка SSH-доступа к машинам
|
||
|
||
Для того чтобы Ansible мог управлять машинами без необходимости ввода пароля, настройте SSH-доступ:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/45.png" width="600" />
|
||
</p>
|
||
|
||
______________________________________________________________________________________
|
||
|
||
<p align="center"><b>(ДОПОЛНЕНИЕ)</b></p>
|
||
|
||
<p align="center"><b>*HQ-CLI*</b></p>
|
||
|
||
> Ранее в рекомендациях должно было быть скачено
|
||
|
||
Для hq-cli нужно установить ssh службу: ***apt-get install -y openssh-server***
|
||
|
||
Перезагружаем ssh на hq-cli: ***systemctl restart sshd***
|
||
|
||
> Ранне в рекомнедациях должно было быть перезагружено
|
||
|
||
Для того чтобы зайти в конфиг ssh на альт линукс(cli) нужно ввести команду:
|
||
***nano /etc/openssh/sshd_config***
|
||
|
||
______________________________________________________________________________________
|
||
|
||
Скопируйте SSH-ключ на всех машинах в инвентаре : Выполните эту команду для каждой машины, чтобы разрешить безпарольный доступ:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/46.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images\module2\copy id.png" width="600" />
|
||
</p>
|
||
|
||
> Дмитрий Игоревич забыл прописать порт 2026 в /etc/ssh/sshd_config на HQ-SRV и BR-SRV, так что прописываем за него и перезагружаем службу systemctl restart sshd
|
||
|
||
<p align="center">
|
||
<img src="images/module2/new-ansible2.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module2/49.png" width="600" />
|
||
</p>
|
||
|
||
5. Проверка подключения в Ansible
|
||
|
||
Выполните команду "ansible all -m ping" для проверки соединения со всеми хостами из инвентаря файла:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/50.png" width="600" />
|
||
</p>
|
||
|
||
### <p align="center"><b>6. Развертывание приложений в Docker на сервере BR-SRV.</b></p>
|
||
|
||
-• Средствами docker должен создаваться стек контейнеров с веб
|
||
приложением и базой данных
|
||
|
||
• Используйте образы site_latestи mariadb_latestрасполагающиеся в
|
||
директории docker в образе Additional.iso
|
||
|
||
• Основной контейнер testapp должен называться tespapp
|
||
|
||
• Контейнер с базой данных должен называться db
|
||
|
||
• Импортируйте образы в docker, укажите в yaml файле параметры
|
||
подключения к СУБД, имя БД - testdb, пользователь testс паролем
|
||
P@ssw0rd, порт приложения 8080, при необходимости другие
|
||
параметры
|
||
|
||
• Приложение должно быть доступно для внешних подключений через
|
||
порт 8080
|
||
|
||
|
||
<p align="center"><b>*BR-SRV*</b></p>
|
||
|
||
1. Скачиваем докер:
|
||
|
||
***apt install -y docker.io docker-compose***
|
||
|
||
2. Включаем и добавляем в автозагрузку службу docker:
|
||
|
||
***systemctl enable --now docker.service***
|
||
|
||
3. Выполнить монтирование Additional.iso в директорию /mnt:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\mount additional.iso.png" width="600" />
|
||
</p>
|
||
|
||
- Выполнить импорт образа mariadb_latest и site_latest:
|
||
|
||
>docker load < /mnt/docker/site_latest.tar
|
||
|
||
<p align="center">
|
||
<img src="images\module2\load site.png" width="600" />
|
||
</p>
|
||
|
||
> docker load < /mnt/docker/mariadb_latest.tar
|
||
|
||
<p align="center">
|
||
<img src="images\module2\load mariadb.png" width="600" />
|
||
</p>
|
||
|
||
- Проверить:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\image ls.png" width="600" />
|
||
</p>
|
||
|
||
- Скачиваем curl
|
||
|
||
<p align="center">
|
||
<img src="images\module2\install curl br-srv.png" width="600" />
|
||
</p>
|
||
- Скачиваем файл compose.yaml и помещаем его в корневую директорию:
|
||
|
||
>curl -o ~/compose.yaml https://raw.githubusercontent.com/shiraorie/demo2026-1/main/files/compose.yaml
|
||
|
||
<p align="center">
|
||
<img src="images\module2\compose.yaml.png" width="600" />
|
||
</p>
|
||
|
||
- Запустить набор контейнеров с веб приложением и базой данных:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\docker-compose.png" width="600" />
|
||
</p>
|
||
|
||
- Проверяем набор контейнеров с веб приложением и базой данных:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\compose ps.png" width="600" />
|
||
</p>
|
||
|
||
- Проверяем доступ до веб приложения с браузера:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\site.png" width="600" />
|
||
</p>
|
||
|
||
### <p align="center"><b>7. Разверните веб приложениена сервере HQ-SRV:</b></p>
|
||
|
||
- Используйте веб-сервер apache
|
||
- В качестве системы управления базами данных используйте mariadb
|
||
- Файлы веб приложения и дамп базы данных находятся в директории web
|
||
образа Additional.iso
|
||
- Выполните импорт схемы и данных из файла dump.sql в базу данных
|
||
webdb
|
||
66
|
||
- Создайте пользователя webс паролем P@ssw0rd и предоставьте ему
|
||
права доступа к этой базе данных
|
||
- Файлы index.php и директорию images скопируйте в каталог веб сервера
|
||
apache
|
||
- В файле index.php укажите правильные учётные данные для
|
||
подключения к БД
|
||
- Запустите веб сервер и убедитесь в работоспособности приложения
|
||
- Основные параметры отметьте в отчёте
|
||
|
||
<p align="center"><b>*HQ-SRV*</b></p>
|
||
|
||
> Ранее в "рекомендациях" должно было быть скачено
|
||
|
||
Устанавливаем веб-сервер Apache2 и необходимые пакеты:
|
||
|
||
>apt install -y apache* -y
|
||
|
||
Устанавливаем PHP и необходимые модули:
|
||
|
||
>apt install -y php php8.2 php-curl php-zip php-xml libapache2-mod-php php-mysql php-mbstring php-gd php-intl php-soap -y
|
||
|
||
Установка СУБД MySQL:
|
||
|
||
> apt install -y mariadb-* -y
|
||
> Ранее в "рекомендациях" должно было быть скачено
|
||
|
||
Включаем и добавляем в автозагрузку MySQL:
|
||
|
||
***systemctl enable --now mariadb***
|
||
***systemctl enable --now apache2***
|
||
|
||
Выполнить монтирование Additional.iso в директорию /mnt:
|
||
|
||
> mount /dev/sr0 /mnt/
|
||
|
||
<p align="center">
|
||
<img src="images\module2\mount additional.iso.png" width="600" />
|
||
</p>
|
||
Произвести копирование файлов веб приложения index.php и logo.png в директорию /var/www/html:
|
||
|
||
>cp /mnt/web/index.php /var/www/html
|
||
|
||
>cp /mnt/web/logo.png /var/www/html
|
||
|
||
В файле /var/www/html/index.php указать правильные учётные данные для подключения к БД:
|
||
|
||
> nano /var/www/html/index.php
|
||
|
||
<p align="center">
|
||
<img src="images\module2\index.php1.png" width="600" />
|
||
</p>
|
||
|
||
Перейти в интерфейс управления MariaDB:
|
||
|
||
>mariadb –u root
|
||
|
||
Создать базу данных с именем webdb:
|
||
|
||
>CREATE DATABASE webdb;
|
||
|
||
Создать пользователя webc с паролем P@ssw0rd:
|
||
|
||
>CREATE USER ‘webc’@’localhost’ IDENTIFIED BY ‘P@ssw0rd’;
|
||
|
||
Назначить пользователю webc полные права на базу данных webdb, после чего выйти из интерфейса управления MariaDB:
|
||
|
||
>GRANT ALL PRIVILEGES ON webdb.* TO ‘webc’@’localhost’ WITH GRANT OPTION;
|
||
EXIT;
|
||
|
||
Изменить кодировку файла
|
||
|
||
<p align="center">
|
||
<img src="images\module2\iconv.png" width="600" />
|
||
</p>
|
||
|
||
Выполнить импорт схемы и данных из файла dump.sql в базу данных webdb:
|
||
|
||
>mariadb –u webc –p –D webdb < ~/dump.sql
|
||
|
||
Проверить:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\maria.png" width="600" />
|
||
</p>
|
||
|
||
Удалить стандартную станицу
|
||
|
||
> rm /var/www/html/index.html
|
||
|
||
Включить и добавить в автозагрузку службу httpd2:
|
||
|
||
>systemctl enable --now apache2
|
||
>systemctl restart apache2
|
||
|
||
Проверяем доступ до веб приложения с браузера:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\web-apa.png" width="600" />
|
||
</p>
|
||
|
||
### <p align="center"><b>8. На маршрутизаторах сконфигурируйте статическую трансляцию портов</b></p>
|
||
|
||
- Пробросьте порт 8080 в порт приложения testapp BR-SRV на маршрутизаторе BR-RTR, для обеспечения работы приложения testapp извне
|
||
- Пробросьте порт 8080 в порт веб приложения на HQ-SRV на маршрутизаторе HQ-RTR, для обеспечения работы веб приложения извне
|
||
- Пробросьте порт 2026 на маршрутизаторе HQ-RTR в порт 2026 сервера HQ-SRV, для подключения к серверу по протоколу ssh из внешних сетей
|
||
- Пробросьте порт 2026 на маршрутизаторе BR-RTR в порт 2026 сервера BR-SRV, для подключения к серверу по протоколу ssh из внешних сетей.
|
||
|
||
<p align="center"><b>*BR-RTR*</b></p>
|
||
|
||
<p align="center">
|
||
<img src="images\module2\nftables BR-rtr.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center"><b>*HQ-RTR*</b></p>
|
||
|
||
<p align="center">
|
||
<img src="images\module2\nftables HQ-rtr.png" width="600" />
|
||
</p>
|
||
|
||
### <p align="center"><b>9. Настройте веб-сервер nginx как обратный прокси-сервер на HQ-RTR</b></p>
|
||
|
||
- При обращении по доменному имени web.au-team.irpo у клиента должно открываться веб приложение на HQ-SRV
|
||
- При обращении по доменному имени docker.au-team.irpo клиента должно открываться веб приложение testapp.
|
||
|
||
<p align="center"><b>*ISP*</b></p>
|
||
|
||
Установить пакет nginx:
|
||
|
||
>apt-get install -y nginx
|
||
|
||
Запустите и активируйте Nginx:
|
||
|
||
***systemctl start nginx***
|
||
***systemctl enable nginx***
|
||
|
||
Настройка Nginx как обратного прокси
|
||
|
||
Создадим конфигурационный файл для сайта в Nginx, в котором настроим виртуальные хосты. Добавьте конфигурацию для проксирования запросов в файл reverse-proxy.conf:
|
||
|
||
- Скачиваем файл с github в необходимую директорию:
|
||
|
||
***apt install dos2unix -y***
|
||
|
||
***apt install curl -y***
|
||
|
||
***curl -o /etc/nginx/sites-available/default https://raw.githubusercontent.com/shiraorie/demo2026-1/main/files/reverse-proxy.conf***
|
||
|
||
***dos2unix /etc/nginx/sites-available/reverse-proxy.conf***
|
||
|
||
- Проверяем его наличие:
|
||
|
||
<p align="center">
|
||
<img src="images/module2/93.nginx.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module2/94.png" width="600" />
|
||
</p>
|
||
|
||
> Сохраните файл и закройте редактор.
|
||
|
||
Добавить символическую ссылку на данный файл:
|
||
|
||
>ln -s /etc/nginx/sites-available/default /etc/nginx/sites-enabled/
|
||
|
||
Проверить наличие ошибок в конфигурационных файлах:
|
||
<p align="center">
|
||
<img src="images\module2\test nginx.png" width="600" />
|
||
</p>
|
||
|
||
Запустить и активировать службу nginx:
|
||
>systemctl enable --now nginx
|
||
|
||
<p align="center"><b>*HQ-CLI*</b></p>
|
||
|
||
Поскольку в домене SambaDC нет DNS записей ссылающихся на необходимые имена, а на HQ-CLI в качестве DNS-сервера задан адрес именно контроллера домена, поэтому необходимо добавить записи в файл /etc/hosts на виртуальной машине HQ-CLI:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\hosts.png" width="600" />
|
||
</p>
|
||
|
||
Проверяем возможность доступа до веб ресурсов с браузера на клиенте:
|
||
|
||
>http://web.au-team.irpo
|
||
|
||
>http://docker.au-team.irpo
|
||
|
||
### <p align="center"><b>10. На маршрутизаторе ISP настройте web-based аутентификацию</b></p>
|
||
|
||
- При обращении к сайту web.au-team.irpo клиенту должно быть предложено ввести аутентификационные данные
|
||
- В качестве логина для аутентификации выберите WEB с паролем P@ssw0rd
|
||
- Выберите файл /etc/nginx/.htpasswd в качестве хранилища учётных записей
|
||
- При успешной аутентификации клиент должен перейти на веб сайт.
|
||
|
||
<p align="center"><b>*ISP*</b></p>
|
||
|
||
Установить пакет apache2:
|
||
|
||
|
||
>apt install -y apache2
|
||
|
||
Средствами утилиты htpasswd создать пользователя WEB и добавить информацию о нём в файл /etc/nginx/.htpasswd, задав пароль P@ssw0rd:
|
||
|
||
htpasswd –c /etc/nginx/.htpasswd WEB
|
||
|
||
<p align="center">
|
||
<img src="images\module2\htpasswd.png" width="600" />
|
||
</p>
|
||
|
||
Добавить web-based аутентификацию для доступа к сайту web.au-team.irpo в конфигурационный файл /etc/nginx/sites-available.d/default.conf:
|
||
|
||
>nano /etc/nginx/sites-available/default
|
||
|
||
<p align="center">
|
||
<img src="images\module2\nginx web based.png" width="600" />
|
||
</p>
|
||
|
||
Проверить наличие ошибок в конфигурационных файлах:
|
||
|
||
<p align="center">
|
||
<img src="images\module2\test nginx.png" width="600" />
|
||
</p>
|
||
|
||
Перезапустить службу nginx:
|
||
|
||
>systemctl restart nginx
|
||
|
||
<p align="center"><b>*HQ-CLI*</b></p>
|
||
|
||
Проверяем возможность доступа до веб ресурса с браузера на клиенте:
|
||
|
||
Имя пользователя: WEB
|
||
Пароль: P@ssw0rd
|
||
|
||
<p align="center">
|
||
<img src="images\module2\auth.png" width="600" />
|
||
</p>
|
||
|
||
### <p align="center"><b>11. Удобным способом установите приложение Яндекс Браузере для организаций</b></p>
|
||
|
||
<p align="center"><b>*HQ-CLI*</b></p>
|
||
|
||
<p align="center">
|
||
<img src="images/module2/97.yandex.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module2/98.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module2/99.png" width="600" />
|
||
</p>
|
||
|
||
> **ПРИМЕЧАНИЕ:**
|
||
> Установку браузера отметьте в отчёте
|
||
|
||
> **РЕКОМЕНДАЦИЯ:**
|
||
> Скачиваем на HQ-SRV: apt install cups cups-pdf -y
|
||
> Скачиваем на HQ-CLI: apt-get install cups cups-pdf -y
|
||
|
||
## <p align="center"><b>МОДУЛЬ 3</b></p>
|
||
<p align="center"><b></b></p>
|
||
|
||
### <p align="center"><b>1. Выполните импорт пользователей из файла users.csv. Файл будет располагаться на виртуальной машине BR-SRV в папке /opt</b></p>
|
||
|
||
<p align="center"><b>*BR-SRV*</b></p>
|
||
|
||
- Сначала скачаем необходимую утилиту на *BR-SRV*:
|
||
|
||
***apt install dos2unix -y***
|
||
|
||
***apt install curl -y***
|
||
|
||
- Заберем с iso файл Users.csv
|
||
|
||
>cp /mnt/Users.csv /opt/
|
||
|
||
- Потом на BR-SRV скачиваем скрипт, который выполнит за нас задание, в нужную директорию:
|
||
|
||
***curl -o /opt/import_users.sh https://raw.githubusercontent.com/shiraorie/demo2026-1/main/files/import_users.sh***
|
||
|
||
***ls /opt***
|
||
|
||
***dos2unix /opt/import_users.sh***
|
||
|
||
<p align="center">
|
||
<img src="images/module2/dos2unix.png" width="600" />
|
||
</p>
|
||
|
||
- Проверяем наличие скрипта:
|
||
|
||
***nano /opt/import_users.sh***
|
||
|
||
<p align="center">
|
||
<img src="images/module2/import_users.png" width="600" />
|
||
</p>
|
||
|
||
- Делаем файл исполняемым и выполняем его:
|
||
|
||
***chmod +x /opt/import__users.sh***
|
||
|
||
***/opt/import_users.sh***
|
||
|
||
### <p align="center"><b>2. Выполните настройку центра сертификации на базе HQ-SRV</b></p>
|
||
|
||
- Необходимо использовать отечественные алгоритмы шифрования
|
||
- Сертификаты выдаются на 30дней
|
||
- Обеспечьте доверие сертификату для HQ-CLI
|
||
- Выдайте сертификаты веб серверам
|
||
- Перенастройте ранее настроенный реверсивный прокси nginx на протокол https
|
||
- При обращении к веб серверам https://web.au-team.irpo и https://docker.au-team.irpo у браузера клиента не должно возникать предупреждений
|
||
|
||
<p align="center"><b>*HQ-SRV*</b></p>
|
||
|
||
Шаг 1. Установка необходимых компонентов
|
||
|
||
>apt update
|
||
|
||
>apt install -y openssl ca-certificates
|
||
|
||
Создаем каталаги для работы центра сертификации
|
||
|
||
>mkdir -p /etc/pki/CA/{private,certs,newcerts,crl}
|
||
|
||
>touch /etc/pki/CA/index.txt
|
||
|
||
>echo 1000 > /etc/pki/CA/serial
|
||
|
||
>chmod 700 /etc/pki/CA/private
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2\mkdir pki.png" width="600" />
|
||
</p>
|
||
|
||
Создайте корневой ключ и сертификат (RSA 4096, SHA256):
|
||
|
||
openssl req -x509 -new -nodes \
|
||
-keyout /etc/pki/CA/private/ca.key \
|
||
-out /etc/pki/CA/certs/ca.crt \
|
||
-days 3650 \
|
||
-sha256 \
|
||
-subj "/CN=AU-TEAM Root CA"
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2\koren certs.png" width="600" />
|
||
</p>
|
||
|
||
Шаг 2. Создайте CSR для веб-сервера
|
||
|
||
> openssl genrsa -out /etc/pki/CA/private/web.au-team.irpo.key 2048
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2\ssl gen rsa web.png" width="600" />
|
||
</p>
|
||
|
||
openssl req -new \
|
||
-key /etc/pki/CA/private/web.au-team.irpo.key \
|
||
-out /etc/pki/CA/web.au-team.irpo.csr \
|
||
-subj "/CN=web.au-team.irpo"
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2\ssl new web.png" width="600" />
|
||
</p>
|
||
|
||
openssl genrsa -out /etc/pki/CA/private/docker.au-team.irpo.key 2048
|
||
|
||
openssl req -new \
|
||
-key /etc/pki/CA/private/docker.au-team.irpo.key \
|
||
-out /etc/pki/CA/docker.au-team.irpo.csr \
|
||
-subj "/CN=docker.au-team.irpo"
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2\ssl genrsa docker.png" width="600" />
|
||
</p>
|
||
|
||
Шаг 3. Создайте конфигурационный файл для openssl ca
|
||
|
||
curl -o /etc/ssl/openssl-ca.cnf https://raw.githubusercontent.com/shiraorie/demo2026-1/main/files/openssl-gost.cnf
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2\curl openssl.png" width="600" />
|
||
</p>
|
||
|
||
Проверяем nano /etc/ssl/openssl-ca.cnf:
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2\openssl-ca.cnf.png" width="600" />
|
||
</p>
|
||
|
||
Шаг 4. Подпишите сертификат
|
||
openssl ca \
|
||
-config /etc/ssl/openssl-ca.cnf \
|
||
-in /etc/pki/CA/web.au-team.irpo.csr \
|
||
-out /etc/pki/CA/certs/web.au-team.irpo.crt \
|
||
-extensions server_cert \
|
||
-days 30 \
|
||
-batch
|
||
|
||
<p align="center">
|
||
<img src="images\module2\openssl ca web.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images\module3\openssl vivod.png" width="600" />
|
||
</p>
|
||
|
||
openssl ca \
|
||
-config /etc/ssl/openssl-ca.cnf \
|
||
-in /etc/pki/CA/docker.au-team.irpo.csr \
|
||
-out /etc/pki/CA/certs/docker.au-team.irpo.crt \
|
||
-extensions server_cert \
|
||
-days 30 \
|
||
-batch
|
||
|
||
<p align="center">
|
||
<img src="images\module3\openssl ca docker.png" width="600" />
|
||
</p>
|
||
|
||
Шаг 6. Настройка доверия на клиенте HQ-CLI
|
||
Скопируйте корневой сертификат:
|
||
|
||
<p align="center">
|
||
<img src="images\module3\cp ca crt.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center"><b>*HQ-CLI*</b></p>
|
||
|
||
<p align="center">
|
||
<img src="images\module3\cp cli ca.png" width="600" />
|
||
</p>
|
||
|
||
|
||
Шаг 7. Настройка Nginx на HTTPS
|
||
|
||
Чтобы перекинуть файл с hq-srv на isp нужно закомментить строчки ссш
|
||
|
||
>nano /etc/ssh/sshd.config
|
||
|
||
<p align="center">
|
||
<img src="images\module3\comment sshd.png" width="600" />
|
||
</p>
|
||
|
||
>systemctl restart sshd
|
||
|
||
>>> ВАЖНО, ПОСЛЕ НАСТРОЙКИ SSL ВЕРНУТЬ ОБРАТНО, А ТО БАЛЛЫ ПОТЕРЯЕТЕ
|
||
|
||
<p align="center"><b>*ISP*</b></p>
|
||
|
||
***curl -o /etc/nginx/sites-available/default https://raw.githubusercontent.com/shiraorie/demo2026-1/main/files/reverse-proxy-ssl.conf***
|
||
|
||
Пример конфига для web.au-team.irpo:
|
||
|
||
mkdir -p /etc/nginx/ssl
|
||
|
||
|
||
>scp -P 2026 root@172.16.1.2:/etc/pki/CA/certs/web.au-team.irpo.crt /etc/nginx/ssl/
|
||
|
||
>scp -P 2026 root@172.16.1.2:/etc/pki/CA/private/web.au-team.irpo.key /etc/nginx/ssl/
|
||
|
||
>scp -P 2026 root@172.16.1.2:/etc/pki/CA/certs/web.au-team.irpo.crt /etc/nginx/ssl/
|
||
|
||
>scp -P 2026 root@172.16.1.2:/etc/pki/CA/private/web.au-team.irpo.key /etc/nginx/ssl/
|
||
|
||
<p align="center">
|
||
<img src="images\module3\csp.png" width="600" />
|
||
</p>
|
||
|
||
chown root:root /etc/nginx/ssl/*
|
||
chmod 600 /etc/nginx/ssl/*.key
|
||
nginx -t && systemctl reload nginx
|
||
|
||
<p align="center">
|
||
<img src="images\module3\nginx ssl.png" width="600" />
|
||
</p>
|
||
|
||
проверяем
|
||
|
||
https://docker.au-team.irpo
|
||
|
||
<p align="center">
|
||
<img src="images\module3\реезы вщслук.png" width="600" />
|
||
</p>
|
||
|
||
https://web.au-team.irpo
|
||
|
||
<p align="center">
|
||
<img src="images\module3\https web.png" width="600" />
|
||
</p>
|
||
|
||
### <p align="center"><b>3. Перенастройте ip-туннель с базового до уровня туннеля, обеспечивающего шифрование трафика</b></p>
|
||
|
||
<p align="center"><b>*HQ-RTR*</b></p>
|
||
|
||
1. Для начала необходимо установить пакет на наш роутер *HQ-RTR*:
|
||
|
||
***apt update***
|
||
***apt install strongswan***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/1.ipsec.png" width="600" />
|
||
</p>
|
||
|
||
2. Конфигурация IPsec:
|
||
|
||
На обоих роутерах отредактируйте файл /etc/ipsec.conf, добавив следующее:
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/ipsec-hq-rtr.png" width="600" />
|
||
</p>
|
||
|
||
Далее нужно настроить файл ipsec.secrets. Вносим туда строку:
|
||
|
||
***172.16.4.2 172.16.5.2 : PSK “123qweR%”***
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/ipsec-hq-rtr-2.png" width="600" />
|
||
</p>
|
||
|
||
Ещё один конфиг charon.conf, открываем его b редактируем в нём следующую строку, приводя к виду:
|
||
|
||
***install_routes = no***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/4.png" width="600" />
|
||
</p>
|
||
|
||
И осталось только перезагрузить службу ipsec:
|
||
|
||
***ipsec restart***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/5.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center"><b>*BR-RTR*</b></p>
|
||
|
||
1. Для начала необходимо установить пакет на наш роутер *BR-RTR*:
|
||
|
||
***apt update***
|
||
***apt install strongswan***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/6.png" width="600" />
|
||
</p>
|
||
|
||
2. Конфигурация IPsec:
|
||
|
||
На обоих роутерах отредактируйте файл /etc/ipsec.conf, добавив следующее:
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/ipsec-br-rtr.png" width="600" />
|
||
</p>
|
||
|
||
Далее нужно настроить файл ipsec.secrets. Вносим туда строку:
|
||
|
||
***172.16.5.2 172.16.4.2 : PSK “123qweR%”***
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/ipsec-br-rtr-2.png" width="600" />
|
||
</p>
|
||
|
||
Ещё один конфиг charon.conf, открываем его и редактируем в нём следующую строку, приводя к виду:
|
||
|
||
***install_routes = no***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/9.png" width="600" />
|
||
</p>
|
||
|
||
И осталось только перезагрузить службу ipsec:
|
||
|
||
***ipsec restart***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/5.png" width="600" />
|
||
</p>
|
||
|
||
3. Также можно проверить передаются ли зашифрованные пакеты по сети, для этого нам пригодится утилита tcpdump *на BR-RTR*:
|
||
|
||
***apt install tcpdump***
|
||
|
||
И теперь мы можем проверить это, пропишем на роутере *BR-RTR* команду:
|
||
|
||
***tcpdump -i ens18 -n -p esp***
|
||
|
||
А на роутере *HQ-RTR* отправим эхо-запрос на порту в сторону branch(br-srv):
|
||
|
||
***ping 192.168.200.2***
|
||
|
||
Как можно заметить, на правом роутере мы видим зашифрованные пакеты с меткой ESP:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/isp-end.png" width="600" />
|
||
</p>
|
||
<p align="center"><b>Слева HQ-RTR - Cправа BR-RTR</b></p>
|
||
|
||
> Если IPsec настроен правильно, вы должны видеть защищённый трафик между вашими серверами.
|
||
|
||
### <p align="center"><b>4. Настройте межсетевой экран на маршрутизаторах HQ-RTR и BR-RTR на сеть в сторону ISP</b></p>
|
||
|
||
Для выполнения этого задания нам нужно обеспечить работу только нужных протоколов, а именно: HTTP, HTTPS, DNS, NTP, ICMP. А также запретить остальные подключения из сети Интернет во внутреннюю сеть.
|
||
|
||
<p align="center"><b>*HQ-RTR*</b></p>
|
||
|
||
- Скачаем готовый nftables.conf с github, укажем путь для замены нашего nftables:
|
||
> !dos2unix и curl на HQ-RTR уже скачаны!
|
||
|
||
***curl -o /etc/nftables.conf https://raw.githubusercontent.com/shiraorie/demo2026-1/main/files/hq-rtr/nftables.conf***
|
||
|
||
***dos2unix /etc/nftables.conf***
|
||
|
||
- Проверяем содержимое файла /etc/nftables.conf:
|
||
> !меняем префикс(маску) ip-адреса в соответствии со своим заданием!
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/nftables-firewall-hq-rtr.png" width="600" />
|
||
</p>
|
||
|
||
- Не забываем применять:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/11.firewall.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center"><b>*BR-RTR *</b></p>
|
||
|
||
- Скачаем готовый nftables.conf с github, укажем путь для замены нашего nftables:
|
||
|
||
***apt install dos2unix -y***
|
||
|
||
***apt install curl -y***
|
||
|
||
***curl -o /etc/nftables.conf https://raw.githubusercontent.com/shiraorie/demo2026-1/main/files/br-rtr/nftables.conf***
|
||
|
||
***dos2unix /etc/nftables.conf***
|
||
|
||
- Проверяем содержимое файла /etc/nftables.conf:
|
||
> !меняем префикс(маску) ip-адреса в соответствии со своим заданием!
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/nftables-firewall-br-rtr.png" width="600" />
|
||
</p>
|
||
|
||
- Не забываем применять:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/14.png" width="600" />
|
||
</p>
|
||
|
||
- И проверим, не отвалился ли туннель ipsec после настройки правил на HQ-RTR:
|
||
|
||
***ipsec status***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/15.png" width="600" />
|
||
</p>
|
||
|
||
> Видим, что соединение установлено и всё хорошо!
|
||
|
||
Проверим также наличие связи между конечными устройствами, отправим эхо-запрос с *HQ-CLI на BR-SRV*:
|
||
|
||
***ping 192.168.200.2***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/16.png" width="600" />
|
||
</p>
|
||
|
||
> Связь есть, всё отлично! Задание выполнено!
|
||
|
||
### <p align="center"><b>5. Настройте принт-сервер cups на сервере HQ-SRV.</b></p>
|
||
|
||
- Опубликуйте виртуальный pdf-принтер
|
||
- На клиенте HQ-CLI подключите виртуальный принтер как принтер по
|
||
умолчанию.
|
||
|
||
1. Для начала необходимо установить пакеты cups и cups-pdf на HQ-SRV:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/17.png" width="600" />
|
||
</p>
|
||
|
||
Теперь необходимо включить службу cups, чтобы она запускалась вместе с системой:
|
||
|
||
***systemctl enable –now cups***
|
||
|
||
Далее, необходимо отредактировать конфиг /etc/cups/cupsd.conf
|
||
|
||
<p align="center">
|
||
<img src="images\module3\Listen cups.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images\module3\CUPS allow.png" width="600" />
|
||
</p>
|
||
|
||
> Во всех блоках Location необходимо добавить строку Allow all, как на скриншоте
|
||
|
||
Перезапускаем службу cups для применения изменений:
|
||
|
||
systemctl restart cups
|
||
|
||
2. Переходим к подключению клиента HQ-CLI
|
||
|
||
Скачиваем cups:
|
||
|
||
***apt-get install cups system-config-printer -y***
|
||
|
||
Открываем пуск и ищем Print settings
|
||
|
||
<p align="center">
|
||
<img src="images\module3\print-settings.png" width="600" />
|
||
</p>
|
||
|
||
Жмем add
|
||
Далее ENTER URL, вписываем http://192.168.100.2:631/printers/PDF
|
||
|
||
<p align="center">
|
||
<img src="images\module3\CUPS.png" width="600" />
|
||
</p>
|
||
|
||
Жмем forward, опять forward, далее листаем вверх и выбираем CUPS-PDF
|
||
|
||
<p align="center">
|
||
<img src="images\module3\generik.png" width="600" />
|
||
</p>
|
||
|
||
Жмем forward, Aply
|
||
|
||
Появится print test page
|
||
|
||
<p align="center">
|
||
<img src="images\module3\print tst.png" width="600" />
|
||
</p>
|
||
|
||
Если видите что принтер в простое то поздравляю
|
||
|
||
<p align="center">
|
||
<img src="images\module3\швду зкштеук.png" width="600" />
|
||
</p>
|
||
|
||
### <p align="center"><b>6. Реализуйте логирование при помощи rsyslog на устройствах HQ-RTR, BR-RTR, BR-SRV</b></p>
|
||
|
||
1. Сперва необходимо настроить наш сервер для сбора логов.
|
||
|
||
Установим пакет rsyslog на HQ-SRV:
|
||
|
||
apt install rsyslog
|
||
|
||
Далее, отредактируем файл конфигурации, расположенный по пути
|
||
/etc/rsyslog.conf:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/24.rsyslog.png" width="600" />
|
||
</p>
|
||
|
||
> Для передачи логов будем использовать протокол TCP, поэтому раскомментируем (уберем #) модуль imtcp, чтобы rsyslog мог получать логи с удаленных узлов.
|
||
|
||
<p align="center">
|
||
<img src="images/module3/25.png" width="600" />
|
||
</p>
|
||
|
||
> Также необходимо в конец конфига добавить шаблон для сбора логов, чтобы rsyslog сохранял логи по пути, который указан в задании.
|
||
|
||
Включаем службу rsyslog, чтобы она запускалась вместе с системой и перезапускаем ее для применения изменений:
|
||
|
||
***systemctl enable rsyslog***
|
||
***systemctl restart rsyslog***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/26.png" width="600" />
|
||
</p>
|
||
|
||
> Сервер для приема логов настроен
|
||
|
||
2. Переходим к настройке клиентов. Начнем с роутеров.
|
||
|
||
Установим пакет rsyslog на HQ-RTR:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/27.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module3/28.png" width="600" />
|
||
</p>
|
||
|
||
Далее, отредактируем файл конфигурации, расположенный по пути
|
||
/etc/rsyslog.conf:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/29.png" width="600" />
|
||
</p>
|
||
|
||
> В блоке MODULES необходимо раскомментировать модули, которые обеспечивают поддержку логирования. (Все кроме модуля imuxsock, потому что вместо него будет использован модуль imjournal). Модуль imjournal придется дописать вручную.
|
||
|
||
Теперь опускаемся в самый низ конфига, там расположены правила.
|
||
|
||
Добавляем в самый конец строку, которая отвечает за отправку логов уровня предупреждения (warning) и выше:
|
||
|
||
****.warning @@192.168.100.2:514***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/30.png" width="600" />
|
||
</p>
|
||
|
||
Теперь перезапускаем службу rsyslog, чтобы применить изменения.
|
||
|
||
***systemctl restart rsyslog***
|
||
|
||
*НА BR-RTR НУЖНО ПОВТОРИТЬ АНАЛАГИЧНО.*
|
||
|
||
3. Продолжаем настройку клиентов на BR-SRV
|
||
|
||
Установим на BR-SRV пакет rsyslog:
|
||
|
||
***apt install rsyslog***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/31.png" width="600" />
|
||
</p>
|
||
|
||
Далее, отредактируем файл конфигурации, расположенный по пути /etc/rsyslog.conf:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/32.png" width="600" />
|
||
</p>
|
||
|
||
> Здесь также необходимо раскомментировать модули imjournal, imklog, immark
|
||
|
||
<p align="center">
|
||
<img src="images/module3/33.png" width="600" />
|
||
</p>
|
||
|
||
> И добавить строку в конец конфига для того, чтобы логи отправлялись на сервер.
|
||
|
||
Включаем службу rsyslog, чтобы она запускалась вместе с системой и перезапускаем ее для применения изменений:
|
||
|
||
***systemctl enable rsyslog***
|
||
***systemctl restart rsyslog***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/34.png" width="600" />
|
||
</p>
|
||
|
||
4. За время пока выполнялась настройка клиентов уже должны появиться логи, проверим каталог /opt на HQ-SRV:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/35.png" width="600" />
|
||
</p>
|
||
|
||
> Как можно заметить, были автоматически созданы каталоги с именами клиентов. В каждом из них есть файл rsyslog.txt
|
||
|
||
Проверим, что логируются только сообщения уровня warning и выше.
|
||
|
||
Добавим несколько записей различного уровня в лог на любом из клиентов, например на BR-SRV, командами:
|
||
|
||
***logger -p user.info “Test info”***
|
||
|
||
***logger -p user.warning “Test warning”***
|
||
> сообщения уровня warning:
|
||
|
||
***logger -p user.error “Test error”***
|
||
> сообщения уровня error:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/36.png" width="600" />
|
||
</p>
|
||
|
||
Теперь проверим на HQ-SRV содержимое файла /opt/br-srv/rsyslog.txt:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/37.png" width="600" />
|
||
</p>
|
||
|
||
> Как можно заметить, здесь появились только сообщения уровня warning и error.
|
||
|
||
5. Перейдем к настройке ротации логов. На HQ-SRV создадим файл /etc/logrotate.d/rsyslog
|
||
Запишем в него следующее содержимое:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/38.png" width="600" />
|
||
</p>
|
||
|
||
> Настройка ротации на этом закончена, каждую неделю будут проверяться логи и если какие-то из них больше 10МБ, они будут сжаты в архив.
|
||
|
||
### <p align="center"><b>7. На сервере HQ-SRV реализуйте мониторинг устройств с помощью открытого программного обеспечения. Обеспечьте доступность по URL - https://mon.au-team.irpo</b></p>
|
||
|
||
- Мониторить нужно устройства HQ-RTR, HQ-SRV, BR-RTR и BR-SRV
|
||
- В мониторинге должны визуально отображаться нагрузка на ЦП, объем занятой ОП и основного накопителя
|
||
- Логин и пароль для службы мониторинга admin P@ssw0rd
|
||
- Выбор программного обеспечения, основание выбора и основные параметры с указанием порта, на котором работает мониторинг, отметьте в отчёте
|
||
|
||
1. Сервер забикс:
|
||
|
||
***wget https://repo.zabbix.com/zabbix/7.4/release/debian/pool/main/z/zabbix-release/zabbix-release_7.4-0.2%2Bdebian12_all.deb***
|
||
|
||
***sudo dpkg -i zabbix-release_7.4-0.2%2Bdebian12_all.deb***
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/zabbix1.png" width="600" />
|
||
</p>
|
||
|
||
***sudo apt update***
|
||
|
||
***sudo apt install zabbix-server-mysql zabbix-frontend-php zabbix-agent php php-mysql php-bcmath php-mbstring zabbix-sql-scripts zabbix-apache-conf mariadb-server***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new1.png" width="600" />
|
||
</p>
|
||
|
||
***zcat /usr/share/zabbix/sql-scripts/mysql/server.sql.gz | sudo mysql -u zabbix -p zabbix***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new2.png" width="600" />
|
||
</p>
|
||
|
||
***sudo nano /etc/zabbix/zabbix_server.conf***
|
||
|
||
- Укажите:
|
||
|
||
***DBName=zabbix***
|
||
***DBUser=zabbix***
|
||
***DBPassword=P@ssw0rd***
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/zabbix3.png" width="600" />
|
||
</p>
|
||
|
||
- Запустите службу:
|
||
|
||
***sudo systemctl enable --now zabbix-server***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new4.png" width="600" />
|
||
</p>
|
||
|
||
2. Настройка веб-интерфейса.
|
||
|
||
- Создайте символическую ссылку для доступа по нужному URL:
|
||
|
||
***ln -s /usr/share/zabbix /var/www/html/mon***
|
||
|
||
- Настройте PHP:
|
||
|
||
***sudo nano /etc/php/8.2/apache2/php.ini***
|
||
|
||
- Измените:
|
||
> чтобы быстро перемещаться по файлу ищем по строкам - ("CTRL" + "-")
|
||
|
||
***max_execution_time = 300*** /строка 409
|
||
***max_input_time = 300*** /строка 419
|
||
***post_max_size = 16M*** /строка 703
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new5.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new6.png" width="600" />
|
||
</p>
|
||
|
||
- Перезапустите Apache:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new7.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new8.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new9.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new10.png" width="600" />
|
||
</p>
|
||
|
||
***sudo systemctl restart apache2***
|
||
|
||
3. Настроить DNS на HQ-SRV:
|
||
|
||
<p align="center">
|
||
<img src="images\module3\dnsmasq new.png" width="600" />
|
||
</p>
|
||
|
||
- Теперь интерфейс будет доступен по адресу:
|
||
|
||
***http://mon.au-team.irpo/zabbix***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new12.png" width="600" />
|
||
</p>
|
||
|
||
4. Настройка пользовательских учетных данных.
|
||
|
||
|
||
После установки войдите через браузер и авторизуйтесь с логином "Admin" и паролем "zabbix" по умолчанию. Эти данные можно изменить в интерфейсе Zabbix после входа — раздел "Administration → Users"
|
||
|
||
- ПАРОЛЬ - ЛОГИН ОТ ЗАБИКСА, Admin - zabbix. МЕНЯЕМ ПАРОЛЬ НА P@ssw0rd
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new13.png" width="600" />
|
||
</p>
|
||
|
||
- Забикс агент
|
||
|
||
***wget https://repo.zabbix.com/zabbix/7.4/release/debian/pool/main/z/zabbix-release/zabbix-release_7.4-0.2%2Bdebian12_all.deb***
|
||
|
||
***sudo dpkg -i zabbix-release_7.4-0.2%2Bdebian12_all.deb***
|
||
|
||
***sudo apt update***
|
||
|
||
***apt install zabbix-agent***
|
||
|
||
- nano /etc/zabbix/zabbix_agentd.conf - там ищешь server serverActive пишешь ип сервера hqsrv типо, потом в hsotname ниже чуть чем serverActive пишешь хостнейм.
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new14.png" width="600" />
|
||
</p>
|
||
|
||
***systemctl restart zabbix-agent.service***
|
||
|
||
- Идешь в cli в веб версии по скрину что выше добовляешь сревер пишешь ип туда сюда и обезатЛЬНО !!!! прям срочно нужно в хост груп указать Linux server Linux By zubbix agent
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new15.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new16.png" width="600" />
|
||
</p>
|
||
|
||
- Статистика дашборды
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new17.png" width="600" />
|
||
</p>
|
||
|
||
- Редачим:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new18.png" width="600" />
|
||
</p>
|
||
|
||
Адд виджит пикаем график:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new19.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new20.png" width="600" />
|
||
</p>
|
||
|
||
- Слева в инпуте выбираем сервера а с право выбираем параметры
|
||
|
||
<p align="center">
|
||
<img src="images/module3/new21.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/zabbix-parametr.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/zabbix-parametr2.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/zabbix-parametr3.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="picture для варинта 2/zabbix-parametr4.png" width="600" />
|
||
</p>
|
||
|
||
> Повезло если все робит
|
||
|
||
### <p align="center"><b>8. Реализуйте механизм инвентаризации машин HQ-SRV и HQ-CLI через Ansible на BR-SRV</b></p>
|
||
|
||
1. Для начала необходимо создать каталог, в котором будут размещены отчеты о рабочих местах:
|
||
|
||
***mkdir /etc/ansible/PC_INFO***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/39.inventory_ansible.png" width="600" />
|
||
</p>
|
||
|
||
2. Далее, создадим плейбук /etc/ansible/inventory.yml:
|
||
|
||
- Скачиваем его с github в необходимую директори:
|
||
> !dos2unix и curl на BR-SRV уже скачаны!
|
||
|
||
***curl -o /etc/ansible/inventory.yml https://raw.githubusercontent.com/shiraorie/dewmo2026-1/main/files/inventory.yml***
|
||
|
||
***dos2unix /etc/ansible/inventory.yml***
|
||
|
||
- Потом проверяем его содержимое:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/40.png" width="600" />
|
||
</p>
|
||
|
||
<p align="center">
|
||
<img src="images/module3/41.png" width="600" />
|
||
</p>
|
||
|
||
3. Проверим работу, командой:
|
||
|
||
***ansible-playbook /etc/ansible/inventory.yml***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/42.png" width="600" />
|
||
</p>
|
||
|
||
> - Ansible помечает результат как changed, так как фактическое состояние системы меняется. При первом запуске плейбука это ожидаемое поведение.
|
||
> - Если запустить плейбук ещё раз, то Ansible покажет для тех же задач статус ok, потому что требуемое состояние уже достигнуто и ничего менять не нужно.
|
||
|
||
4. Проверим наличие и содержимое, созданных отчетов:
|
||
|
||
***ls -la /etc/ansible/PC_INFO***
|
||
***cat /etc/ansible/PC_INFO/hq-cli.yml***
|
||
***cat /etc/ansible/PC_INFO/hq-srv.yml***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/43.png" width="600" />
|
||
</p>
|
||
|
||
> Как можно заметить, отчеты созданы и содержат необходимую информацию. Задание выполнено.
|
||
|
||
### <p align="center"><b>9. Реализуйте механизм резервного копирования конфигурации для машин HQ-RTR и BR-RTR, через Ansible на BR-SRV</b></p>
|
||
|
||
1. Создадим также каталог, в котором будут размещены резервные копии конфигураций маршрутизаторов:
|
||
|
||
***mkdir /etc/ansible/NETWORK_INFO***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/44.backup_ansible.png" width="600" />
|
||
</p>
|
||
|
||
2. И создаём сам плейбук /etc/ansible/backup.yml:
|
||
> *ОБЯЗАТЕЛЬНО УСТАНОВИТЕ sudo НА HQ-RTR и BR-RTR*
|
||
|
||
- Скачаем файл с github в нужную директорию:
|
||
> !dos2unix и curl на BR-SRV уже скачаны!
|
||
|
||
***curl -o /etc/ansible/backup.yml https://raw.githubusercontent.com/shiraorie/demo2026-1/main/files/backup.yml***
|
||
|
||
***dos2unix /etc/ansible/backup.yml***
|
||
|
||
- Проверяем его содержимое:
|
||
|
||
<p align="center">
|
||
<img src="images/module3/45.png" width="600" />
|
||
</p>
|
||
|
||
со следующим содержимым:
|
||
|
||
*ОБЯЗАТЕЛЬНО УСТАНОВИТЕ sudo НА HQ-RTR и BR-RTR*
|
||
|
||
<p align="center">
|
||
<img src="images/module3/46.png" width="600" />
|
||
</p>
|
||
|
||
3. Абсолютно также, как и в предыдущем задании, проверяем его работу, командой:
|
||
|
||
***ansible-playbook /etc/ansible/backup.yml***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/47.png" width="600" />
|
||
</p>
|
||
|
||
> - Как и в прошлом задании, Ansible помечает результат как changed, так как фактическое состояние системы меняется. При первом запуске плейбука так и должно быть.
|
||
> - И если запустить его ещё раз, то Ansible покажет для тех же задач статус ok, потому что требуемое состояние уже достигнуто и ничего менять не нужно.
|
||
|
||
4. Проверим наличие созданных отчетов:
|
||
|
||
***ls -la /etc/ansible/NETWORK_INFO***
|
||
***ls -la /etc/ansible/NETWORK_INFO/HQ-RTR***
|
||
***ls -la /etc/ansible/NETWORK_INFO/BR-RTR***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/48.png" width="600" />
|
||
</p>
|
||
|
||
А также их содержимое, если хотите убедиться, что действительно скопировалось, для примера покажем файл interfaces с маршрутизатора HQ-RTR, остальные можете сами:
|
||
|
||
***cat /etc/ansible/NETWORK_INFO/HQ-RTR/interfaces***
|
||
|
||
<p align="center">
|
||
<img src="images/module3/49.png" width="600" />
|
||
</p>
|
||
|
||
> По итогу все резервные копии конфигураций созданы и содержат необходимую информацию. Задание выполнено.
|