Главная страница

Государственный Комитет по высшему образованию осударственный Комитет по высшему образованию московский госумосковский госу


Скачать 1.06 Mb.
НазваниеГосударственный Комитет по высшему образованию осударственный Комитет по высшему образованию московский госумосковский госу
Дата01.01.2019
Размер1.06 Mb.
Формат файлаpdf
Имя файлаlvs_na_linux.pdf
ТипПояснительная записка
#62259
страница9 из 12
1   ...   4   5   6   7   8   9   10   11   12
масштаба малого предприятия на основе сетевой ОС LINUX»
IPX/Ethernet 802.3 addr:00000022:0000B43ACBF9
EtherTalk Phase 2 addr:66/6
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:86822 errors:0 dropped:0 overruns:0 frame:0
TX packets:77966 errors:0 dropped:0 overruns:0 carrier:0
collisions:30
Interrupt:12 Base address:0x280
...
В данном примере выведена статистика сетевого интерфейса eth0.
- ping - простейшая утилиты проверки возможности установления IP-соединения:
[root@unix /etc]# ping win
PING win.px.podolsk.ru (195.133.132.25): 56 data bytes
64 bytes from 195.133.132.25: icmp_seq=0 ttl=32 time=18.1 ms
64 bytes from 195.133.132.25: icmp_seq=1 ttl=32 time=0.7 ms
64 bytes from 195.133.132.25: icmp_seq=2 ttl=32 time=0.7 ms
- route - утилита, определяющая статические маршруты и позволяющая выводить таблицу маршрутизации
- arp - данная команда обращается к таблице ядра, в которой задано соответствие IP- адресов аппаратным адресам:
[root@unix /etc]# arp -a
bigmac.px.podolsk.ru (195.133.132.18) at 00:05:9A:40:D1:DC [ether] on eth0
- tcpdump - утилита слежения за сетевым трафиком в сети;
- traceroute позволяет выявить последовательность шлюзов, через которую проходит IP-пакет на пути к пункту своего назначения;
В системе существует несколько файлов диагностики проколов и соединений
IPX:
- /proc/net/ipx_interface - данный файл содержит информацию о IPX-интерфейсе,
которые могут быть настроены вручную или же автоматическим детектированием и конфигурированием:
[root@unix rpm]# less /proc/net/ipx_interface
Network Node_Address Primary Device Frame_Type
00000022 0000B43ACBF9 Yes eth0 802.3
- /proc/net/ipx_route данный файл отвечает за таблицу маршрутизации IPX:
[root@unix rpm]# less /proc/net/ipx_route
Network Router_Net Router_Node
00000022 Directly Connected
стр. 92

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
- /proc/net/ipx - распечатывает таблицу IPX-сокетов, открытых для пользования;
Большинство сетевых настроек RedHat 5.2 Linux позволяет сделать утилита linuxconf, внешний вид которой представлен в Приложении 7.
3.2.4.5 Настройка DNS
3.2.4.5 Настройка DNS
Рассмотрим настройку собственного сервера DNS, реализована на системе
BIND.
Как уже рассказывалось в разделе 2.3.5.3, DNS является распределенной базой данных, отвечающей за преобразование численных значений IP-адресов в символьные и обратно. DNS реализована в виде системы BIND версии 8.1.2,
входящей в состав дистрибутива Linux RedHat 5.2. Система основана на :
1. Демоне named
2. Главном конфигурационном файле /etc/named.conf
3. Файлах, задающих прямые и реверсивные зоны сетей, обслуживаемых данным DNS ( /var/named )
Документация системы ( главный документ - BIND-HOWTO ) дала практически все ответы на вопросы настройки и запуска системы.
Соответствующие файлы конфигурации приведены в Приложении 10.
Собственное пространство IP-адресов сети состоит из двух сетей
195.133.132.16, subnet mask 255.255.255.240, которая была выделена провайдером
Интернет и интранет сети 172.16.200.1, состоящей из двух адресов 172.16.200.1 (
here.ppp.px.podolsk.ru ) и 172.16.200.2 ( there.ppp.px.podolsk.ru ).
Запись zone "0.0.127.in-addr.arpa" {
type master;
file "named.local";
};
файла /etc/named.conf и файл named.local отвечают за преобразование служебного адреса закольцованного интерфейса localhost.
Прямая зона домена px.podolsk.ru определяется записью:
zone "px.podolsk.ru"{
type master;
file "named.hosts";
};
Соотвествующий файл named.hosts определяет преобразование символьных имен машин внутренней сети офиса в численные:
стр. 93

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
[root@unix /etc]# nslookup win
Server: unix.px.podolsk.ru
Address: 195.133.132.17
Name: win.px.podolsk.ru
Address: 195.133.132.25
Обратное преобразование задается реверсивной зоной:
zone "132.133.195.in-addr.arpa" {
notify no;
type master;
file "16.132.133.195.rev";
};
Проверим работу реверсивной зоны командой nslookup:
[root@unix /etc]# nslookup 195.133.132.18
Server: unix.px.podolsk.ru
Address: 195.133.132.17
Name: bigmac.px.podolsk.ru
Address: 195.133.132.18
Следует добавить, что запуск демона named совершается стандартным скриптом
/etc/rc.d/init.d и линками на него из директорий соответствующих уровней запуска системы. После запуска named он начинает отвечать на запросы DNS, приходящие на 53 порт TCP.
стр. 94

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
3.2.5 Прочие индивидуальные настройки
3.2.5 Прочие индивидуальные настройки
К прочим настройка относятся, например, написание собственных shell- сценариев редактирование уровней выполнения (init), русификация консолей,
установка шрифтов и прочее.
Система уровней исполнения системы реализована в RedHat достаточно элегантным образом. Рассмотрим содержимое каталога /etc/rc.d:
init.d rc rc.local rc.news rc.serial rc.sysinit rc0.d rc1.d rc2.d rc3.d rc4.d rc5.d rc6.d
Помимо начальных загрузочных процедур rc.serial, rc.sysinit и rc ( последний файл отвечает за переходы из одного уровня исполнения в другой ) в каталоге присутствуют каталоги rc x .d, каждый из которых определяет свой набор процедур старта и остановки соответствующих ему программ. Собственно, стандартные скрипты запуска полного набора программ находятся в каталоге initd.d, а в каталогах rc x.d находятся лишь псевдонимы (ссылки ) на определенные сценарии каталога init.d.
Уровни исполнения удобно редактировать из X-приложения contol panel.
Так, например, требовался запуск установленного в системе Web-сервера Apache на стандартном третьем уровне исполнения. Для этого соответствующий скрипт старта демона httpd, находящийся в init.d был продублирован в виде символьной ссылки в каталоге rc3.d.
стр. 95

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
Установка системы X Window состояла из дух частей: настройки локального
X-сервера, приложений и Window-менеджеров и настройки удаленного X-сервера на рабочей станции Macintosh и системы xdm.
Следующие компоненты ситемы X Window были утановлены на Linux- машину:
- сервер XFree86 -S3V, локальный Х-сервер с поддержкой видеокарт типа
S3Trio Virge;
- различные билиотеки системы X Window;
- билиотеки gnome-0.20, используемые X-утилитами конфигурирования системы ( control panel, xlinuxconf, pakage manager и др. );
- средства поддержки протокола X11R6;
- различные Window-менеджеры ( оболочки ), такие как AfterStep - 1.5 ,
WindowMaker -0.20.1, fvwm2 -2.0.46;
- собственно система XFree86 и шрифты для нее;
- средства конфигурирования режимов работы сервера Xconfigurator и
XF86Setup;
- различные системные и пользовательские X-приложения;
Следующей фазой было настройка работы X-сервера XFree86 - S3V. Выбор видеокарты, установка параметров монитора и настройка X-сервера была произведена при помощи специальных утилит Xconfigurator и xf86config.
Полученная конфигурация видеорежимов размещается в файле XF86Config. При помощи ручного редактирования этого файла реальное разрешение экрана было поставлено в соответствие виртуальному экрану X Window.
Автором проекта не подразумевалась работа в системе X Window на локальной Linux-машине, поэтому встала необходимость настройки клиент- серверных приложений X Window- приложений, соединяющихся с помощью локальной сети.
В качестве X -сервера была выбрана программа eXodus 6.1.2 фирмы
WhitePine Inc. Установка ее не была связана с какими либо трудностями.
На клиентской стороне ( а именно, Linux-машины ) необходимо было произвести настройку системы xdm ( X Window Display Manager ). Именно это приложение должно разрешать соединение клиентских и серверных частей,
производить аутентификацию пользователей и диспетчеризацию X-приложений.
Файлы конфигурации xdm расположены в каталоге /etc/X11/xdm:
GiveConsole
TakeConsole
Xaccess
Xresources
Xservers
Xsession
стр. 96 3.2 Компоненты сервера
3.2 Компоненты сервера
3.2.1 Установка и настройка системы X Window
3.2.1 Установка и настройка системы X Window

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
Xsetup_0
chooser
xdm-config
Файл Xaccess отвечает за разрешение установления соединения по TCP/IP:
# Access control file for XDMCP connections
#
# To control Direct and Broadcast access:
#
*.px.podolsk.ru
# 195.133.132.17
.....
Строка с именем домена px.podolsk.ru разрешает соединение с серверной стороны только с рабочих станций локальной офисной сети.
Файл Xservers жестко закрепляет за рабочей станцией bigmac.px.podolsk.ru X- дисплей с номером 0:
# This file should contain an entry to start the server on the
# local display; if you have more than one display (not screen),
# you can add entries to the list (one per line). If you also
# have some X terminals connected which do not support XDMCP,
# you can add them here as well. Each X terminal line should
# look like:
# XTerminalName:0 foreign
#
# :0 local /usr/X11R6/bin/X
bigmac:0 foreign
....
В файле Xresourcess определяется параметры процесса аутентификации пользователя и внешний вид графического окна login:
[root@unix xdm]# less Xresources
! $XConsortium: Xresources /main/8 1996/11/11 09:24:46 swick $
xlogin*login.translations: #override\
CtrlR: abort-display()\n\
F1: set-session-argument(failsafe) finish-field()\n\
CtrlReturn: set-session-argument(failsafe) finish-field()\n\
Return: set-session-argument() finish-field()
xlogin*borderWidth: 5
xlogin*greeting: Welcome to PROMEXPORT XDM Service
xlogin*namePrompt: login:\040
xlogin*fail: Fuck U! Your authentification failed!
#ifdef COLOR
стр. 97

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
xlogin*greetColor: #ff00ff
xlogin*failColor: red
*Foreground: #000000
*Background: #fffff0
#else
xlogin*Foreground: black
xlogin*Background: white
#endif
XConsole.text.geometry: 480x130
XConsole.verbose: true
XConsole*iconic: true
XConsole*font: fixed
Chooser*geometry: 700x500+300+200
Chooser*allowShellResize: false
Chooser*viewport.forceBars: true
Chooser*label.font: *-new century schoolbook-bold-i-normal-*-240-*
Chooser*label.label: XDMCP Host Menu from CLIENTHOST
Chooser*list.font: -*-*-medium-r-normal-*-*-230-*-*-c-*-iso8859-1
Chooser*Command.font: *-new century schoolbook-bold-r-normal-*-180-*
В Приложении 4 приводится вид окна-приглашения к аутентификации.
Центральный файл конфигурации XDM - файл xdm-config:
[root@unix xdm]# less ./xdm-config
! $XConsortium: xdm-conf.cpp /main/3 1996/01/15 15:17:26 gildea $
DisplayManager.errorLogFile: /var/log/xdm-error.log
DisplayManager.pidFile: /var/run/xdm.pid
DisplayManager.keyFile: /etc/X11/xdm/xdm-keys
DisplayManager.servers: /etc/X11/xdm/Xservers
DisplayManager.accessFile: /etc/X11/xdm/Xaccess
! All displays should use authorization, but we cannot be sure
! X terminals will be configured that way, so by default
! use authorization only for local displays :0, :1, etc.
DisplayManager._0.authorize: true
DisplayManager._1.authorize: true
! The following three resources set up display :0 as the console.
DisplayManager._0.setup: /etc/X11/xdm/Xsetup_0
DisplayManager._0.startup: /etc/X11/xdm/GiveConsole
DisplayManager._0.reset: /etc/X11/xdm/TakeConsole
!
DisplayManager*resources: /etc/X11/xdm/Xresources
DisplayManager*session: /etc/X11/xdm/Xsession
DisplayManager*authComplain: false
В данном файле задаются параметры менеджера дисплеев, местонахождение уже рассмотренных файлов кофигурации, разрешения авторизации, путь к
стр.
98

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
регистрационному файлу xdm и проч.
Настроенная система прекрасно эксплуатируется. Следует отметить, что данное решение позволяет обойтись без дорогостоящей видеоподсистемы сервера,
используя при этом графическую станцию Macintosh S900 c 17-ти дюмовым монитором в качестве сетевого X-терминала.
стр. 99

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
В качестве Web-сервера фирмы был ( как это уже говорилось в разделе
2.3.4.4) использован свободно распространяемый программный продукт Apache
1.3.4PL28.9rus. В составе дистрибутива RedHat поставлялся Apache версии 1.3.3,
но данная пакет не мог бы удовлетворять требованию по работе с русскоязычными
HTML-документами без специальных исправлений.
В отличии от rpm-версии, поставляемой в дистрибутиве, русская версия
Apache пока поставляется только в архиве исходных текстов. После распаковки архива с исходными текстами и изучения документации была выполнено редактирование файла конфигурации httpd.conf-dist в каталоге conf. Далее был выполнен обработчик конфигурациии ./configure:
[root@unix apache_1.3.4rusPL28.9]# ./configure
Configuring for Apache, Version 1.3.4
+ using installation path layout: Apache (config.layout)
Creating Makefile
Creating Configuration.apaci in src
Creating Makefile in src
+ configured for Linux platform
+ setting C compiler to gcc
+ setting C pre-processor to gcc -E
+ checking for system header files
+ adding selected modules o charset_module uses ConfigStart/End
+ doing sanity check on compiler and options
Creating Makefile in src/support
Creating Makefile in src/main
Creating Makefile in src/ap
Creating Makefile in src/regex
Creating Makefile in src/os/unix
Creating Makefile in src/modules/extra
Creating Makefile in src/modules/standard
Как мы видим, были созданы make-файлы в соответствующих каталогах,
установлена платформа инсталляции ( Linux ), в качестве компилятора установлен gcc. Командами make и make install была произведена соответственно компиляция программы и модулей и установка компонент системы согласно выбранному месторасположению.
В качестве основного каталога Apache использован /usr/local/apache. Был выполнена настройка параметров сервера в основном файле конфигурации
/usr/local/apache/conf/httpd.conf. В частности, было уменьшено количество демонов httpd, запускаемых при старте сервера.
Сценарий начальной загрузки Web-сервера был размещен в каталоге
/etc/rc.d/init.d:
[root@unix apache]# less /etc/rc.d/init.d/apache
стр. 100 3.2.2 Установка и настройка Apache
3.2.2 Установка и настройка Apache

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
#!/bin/sh
#
# Apache 1.3.4 Startin', by MacDuck
#
# Source function library.
. /etc/rc.d/init.d/functions
# Source networking configuration.
. /etc/sysconfig/network
# Check that networking is up.
[ ${NETWORKING} = "no" ] && exit 0
# Check that httpd.conf exists.
[ -f /usr/local/apache/conf/httpd.conf ] || exit 0
# See how we were called.
echo -n "Starting PROMEXPORT Web Server under Russian Apache..."
daemon /usr/local/apache/httpd -f /usr/local/apache/conf/httpd.conf
echo
exit 0
(END)
Установка Web-сервера была завершена созданием символических ссылок на сценарий запуска в директории соответствующих уровней исполнения и проверкой его функционирования. В настоящее время сервером обслуживается сайт-фирмы, и внутренний интранет-сервер документации.
стр. 101

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
Одной из важнейших компонент файлового сервера фирмы является сервер
AppleShareIP, реализуемый пакетом netatalk-1.4b2+asun2.1.0 ( см. Раздел 2.3.1.3 ).
После неоднократных неудачных попыток собрать данный программный продукт из исходных тесктов, с базового ftp-сервера netatalk была сгружена RPM- версия пакета.
Инсталляция данного пакета ( как и всех RPM ) была выполнена стандартной командой rpm -ih ./netatalk-1.4b2+asun2.1.0-5.i386.rpm.
Демоны соответствующих процессов размесщены в каталоге /usr/sbin ( afpd,
papd, atalkd ), программы регистрации устройств-участников сети AppleTalk nbprgstr и nbpunrgstr находятся в каталоге /usr/bin.
Конфигурационные файлы пакета размещены в директории /etc/atalk:
AppleVolumes.default
AppleVolumes.system afpd.conf atalkd.conf papd.conf
Первые два файла определяют директории файловой системы Linux,
подлежащие выделению в качестве разделяемого сетевого ресурса AppleShare. В
качестве сетвеого раздела Macintosh был выбран каталог /usr/UNIXatalk/
Строка eth0 -phase 2 -net 0-65534 -addr 66.6 в файле atalkd.conf определяет привязку AppleTalk phase 2 к интерфейсу eth0, диапазон допустимых в локальной ethernet-сети номеров сетей AppleTalk ( 0-65534 ); последний параметр определяет сосбственный сетевой EtherTalk-адрес сервера ( зона 66, адрес 6 ).
Файл afpd.conf отвечает за название сервера в сети и параметры аутентификации на сервере.
Традиционное для RedHat расположение сценария запуска atalk.init и останова процесса - каталог /etc/rc.d/init.d. при этом процессы сервера запускаются и останавливаются командами atalk start и atalk stop. Ниже приводится пример системных сообщений о старте сервера:
Apr 17 19:27:19 unix atalkd[6434]: restart (1.4b2+asun2.1.0)
Apr 17 19:27:20 unix atalkd[6434]: zip_getnetinfo for eth0
Apr 17 19:27:39 unix last message repeated 2 times
Apr 17 19:27:49 unix atalkd[6434]: config for no router
Apr 17 19:27:50 unix atalkd[6434]: ready 0/0/0
Apr 17 19:28:02 unix papd[6445]: restart (1.4b2+asun2.1.0)
Apr 17 19:28:09 unix afpd[6454]: UNIXatalk:AFPServer@* started on 66.6:128 (1.4)
Apr 17 19:28:09 unix afpd[6454]: ASIP started on 195.133.132.17:548(2) (1.4b2+a
Псевдонимы shell-сценария старта и останова размещены в каталоге 3-го, 4-го и 5- го уровней запуска системы, что обезпечивает автоматический запуск сервера при начальной загрузке системы.
Экспериментальным путем установлена примерная скорость копирования
стр. 102 3.2.3 Установка и настройка Netatalk
3.2.3 Установка и настройка Netatalk

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
файлов со станций Macintosh на сервер netatalk, равная, примерно, 600 килобайтам в секунду. Данный показатель весьма высок для сетей Macintosh, использующих технологию AppleShare.
Информационное окно системы MacOS, выдаваемое при монтировании раздела сетевого раздела UNIXatalk Linux-сервера представлено на Рис.15 :
стр. 103
Рис. 15

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
В качестве эмулятора сервера NetWare 3.12 был взят программный пакет mars-nwe-0.99pl10. Об использовании данного пакета рассказано в разделе 2.3.1.2.
В состав дистрибутива RedHat 5.2 входит RPM-версия пакета mars-nwe-
0.99pl10.
Соответственно, инсталляция пакета выполнена стандартной командой rpm - ih mars-nwe-0.99pl10-1.i386.rpm.
Базовый каталог установленного пакета - директория /var/mars_nwe:
bindery sys
Каталог bindery отвечает за собственную аутентификационную базу эмулятора, а sys является его системным разделом. Основным конфигурационным файлом пакета mars_nwe является /etc/nwserv.conf. Данный файл имеет большой размер,
позволю цитировать лишь отдельные строчки, измененные при настройке mars_nwe:
# This is the configuration-file for "mars_nwe", a free netware-emulator
# for Linux.
...
# Section 1: volumes (required)
# Use /var/netware for the SYS volume, and make it read-only
1
SYS
/var/mars_nwe/sys
koO
1 CDROM /mnt/cdrom kmr
1
DOC /usr/doc
rk
# Section 2: servername (optional)
2 Netware # name of the server would be "MARS"
# Section 4: IPX-devices (strongly recommended)
4 0x22 eth0 802.3 1
# Section 7: password handling of DOS-clients (required)
# FLAG:
# 0 enforce encryption of _all_ passwords by the DOS-client
# (default)
# 1 as "0", but allow the non-encrypted version of the
# "change password"-routine.
# 7 allow all non-encrypted stuff but no empty nwe passwords.
# 8 allow all non-encrypted stuff and also allow empty
# nwe-passwords.
# 9 use all non-encryted calls + "get crypt key" will allways fail
# so the login program will use the old unencryted calls.
# this will *not* work with all clients !! (OS2/client)
7 0
# Section 10: UID and GID with minimal rights
10 99
11 99
# Section 12: supervisor-login (required)
# Syntax:
стр. 104 3.2.4 Установка и настройка MarsNWE
3.2.4 Установка и настройка MarsNWE

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
# 12 NW_LOGIN LINUX_LOGIN [PASSWORD]
# 12 SUPERVISOR nw-adm top-secret
12 SUPERVISOR adm
*
# Section 13: user-logins (optional)
13
dima
dima ****
13
little
little ****
13
yura
yura
****
13
guest guest
# Section 15: automatic mapping of logins (decision required)
# -------------------------------------------------------------------------
# Syntax:
# 15 FLAG DEFAULT_PASSWORD
# FLAG:
# 0 DON'T map the Linux-logins automatically to
# "mars_nwe"-logins (default)
# 1 YES, DO the automatic mapping and provide every login
# created this way with the common password given with
# "DEFAULT_PASSWORD"
# 99 re-read the logins from /etc/passwd and overwrite even the
# already existing logins from the bindery (this will also
15 99
В данном примере реальные пароли пользователей заменены звездочками.
Заметим, что секции описания разделов NetWare включены три ресурса: это директория /var/mars_nwe/sys ( раздел sys ), директория /mnt/cdrom ( раздел
CDROM ) и директория /usr/doc с документацией Linux ( раздел doc ). Флаги r в строчках последних двух означают, что данные разделы доступны только для чтения.
Следует заметить, что после любого изменения пользовательских бюджетов mars_nwe или системы аутентификации в конфигурационном файле, необходимо удалить содержимое каталога bindery. Обновленная система аутентификации будет создана заново при рестарте сервера mars_nwe.
Стартовый скрипт /etc/rc.d/init.d/mars-nwe имеет четыре параметра start,
stop, status, restart. Сервер автоматически загружается при общем старте в 3-м уровне исполнения. Работа mars_nwe представлена тремя демонами nwserv,nwbind и ncpserv плюс по одному процессу на каждый активный клиентский процесс.
Сервер обслуживает ограниченное число клиентов и преимущественно используется для долговременных архивов драйверов аппаратного обеспечения фирмы и частоупотребимого программных продуктов.
стр. 105

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
Необходимо заметить, что установка Oracle 8.0.5 for Linux оказалась весьма трудоемкой, сложной и длительной процедурой.
В качестве руководства по установке использовался документ [10].Шаги,
предшествующие непосредственно инсталляции, заключались в следующем.
Прежде всего необходимо было создать точки монтирования программных и табличных областей. Для этого был создан каталог /u04. Модель расположения структур Oracle OFA ( Optimal Flexible Architecture ) предусматривала как минимум четыре точки монтирования, в нашем же случае была использована простая модель с одной точкой монтирования.
Были созданы пользовательские бюджеты oracle и dba, принадлежащие группе dba. Далее в каталоге /mnt/cdrom был смонтирован инсталляционный диск
Oracle 8. В профайл пользователя oracle были внесены необходимые переменные окружения:
#for Oracle
ORACLE_OWNER=oracle; export ORACLE_OWNER
ORACLE_BASE=/u04/app/oracle; export ORACLE_BASE
ORACLE_HOME=/u04/app/oracle/product/8.0.5; export ORACLE_HOME
LD_LIBRARY_PATH=/u04/app/oracle/product/8.0.5/lib; export LD_LIBRARY_PATH
ORACLE_SID=fuck; export ORACLE_SID
ORACLE_TERM=vt220; export ORACLE_TERM
ORA_NLS33=$ORACLE_HOME/ocommon/nls/admin/data; export ORA_NLS33
PATH="$PATH:/bin:/usr/bin:/usr/local/bin:$ORACLE_HOME/bin"
TMPDIR=/var/tmp; export TMPDIR
#end for Oracle
После этого необходимо было сформировать файл /etc/oratab. Для этого от пользователя root с предварительно установленной переменной окружения ORA-
CLE_OWNER=oracle был запущен скрипт /mnt/cdrom/orainst/oratab.sh.
Убедившись в том, что файл создан и имеет правильные права доступа и принадлежность, наступило время приступить непосредственно к инсталляции.
Главный инсталляционный скрипт /mnt/cdrom/orainst/orainst был запущен от имени пользователя oracle. Автором была выбрана выборочная инсталляция
(Custom Install). Далее были выбраны точка монтирования, пути, некоторые опции установки и источник, с которго производить инсталляцию. Так в качестве языка в окне NLS ( National Language Support ) была выбрана поддержка русского. В
результате этих действий программа-инсталлятор вывела на экран напоминание:
Post-installation steps that need to be run by root will be written to /u04/app/oracle/prod-
uct/8.0.5/orainst/root.sh.
( Необходимые послеинсталляционные шаги, которые необходимо выполнить от пользователя root будут записаны shell-процедуре /u04/app/oracle/prod- uct/8.0.5/orainst/root.sh. )
Далее было предложено выбрать компоненты поставки, подлежащие инсталляции.
стр. 106 3.2.5 Установка Oracle 8 3.2.5 Установка Oracle 8

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
Вид экрана инсталлятора на этом шаге отображен на Рис.16
После выверки зависимостей устанавливаемых компонент необходимо было выбрать тип хранения баз данных: основанный на существующей файловой системе или на специально выделенном устройстве. Естественным для нашего варианта является первое.
Далее необходимо было выбрать количество точек монтирования объектов баз данных; была выбрана единственная точка монтирования /u04. В опции NLS
Support была выбрана кодировка внутреннего хранения баз данных CL8ISO8859P2,
соотвествующая стандарту ISO 8859-5 Cyrillic 8-bit.
После двоекратного ввода системных паролей пользователей oracle и dba и указания количества конкурирующих пользователей класса dba, произведена конкретизация версий устанавливаемых драйверов JDK и JDBC. Далее следовала длинная череда уточнений путей, опций, типа устанавливаемой документации
(html или pdf -фоматы); автор не считает нужным подробно останавливаться на этом этапе.
Экран инсталлятора в процессе копирования выбранных и сконфигурированных компонент представлен на Рис. 17
После выхода из инсталлятора необходимо было выполнить послеинсталляционные шаги и настройку компонент Oracle 8. К ним относятся:
запуск shell-скрипта root.sh в каталоге /$ORACLE_HOME/orainst,
устанавливающего соотвествующие права к файлам и директориям Oracle, запуск
SQL-скрипта catrep.sql от пользователя sys в интерпретаторе SQLPlus,
редактирование файла /etc/oratab, написание сценария автоматического старта и останова Oracle-сервера и создания соответствующих псевдонимов в уровнях запуска Linux.
Внесены необходимые изменения в файл /etc/services, описывающий соотвествие приложений портам TCP/IP ( добавлена строка listener 1521/tcp #for
стр. 107
Рис. 16

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
Oracle. Такая операция потребовала перезапуска супердемона inetd.
Произведена диагностика компоненты-демона Oracle, “прослушивающей”
упомянутый 1521 порт TCP:
[oracle@unix admin]$ lsnrctl status
LSNRCTL for Linux: Version 8.0.5.0.0 - Production on 11-APR-99 16:23:13
(c) Copyright 1997 Oracle Corporation. All rights reserved.
Connecting to (ADDRESS=(PROTOCOL=IPC)(KEY=fuck))
STATUS of the LISTENER
------------------------
Alias LISTENER
Version TNSLSNR for Linux: Version 8.0.5.0.0 - Production
Start Date 10-APR-99 22:32:48
Uptime 0 days 17 hr. 50 min. 28 sec
Trace Level off
Security OFF
SNMP OFF
Listener Parameter File /u04/app/oracle/product/8.0.5/network/admin/listener.a
Listener Log File /u04/app/oracle/product/8.0.5/network/log/listener.log
Services Summary...
extproc has 1 service handler(s)
fuck has 2 service handler(s)
The command completed successfully
Общий процесс установки был завершен проверкой работы скрипта пуска/запуска и инструктажем администратора баз данных фирмы.
стр. 108
Рис.17

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
Настройка сервера удаленного доступа состояла из нескольких фаз:
- настройка протокола PPP;
- настройка модемного порта;
- установка пакета mgetty;
- настройка параметров PPP-соединения;
- настройка времени работы удаленного доступа;
Основным протоколом работы сервера удаленного доступа является PPP
(См. разделы 2.2.4 и 2.3.6). Низкоуровневая компонента протокола реализована в ядре Linux (См. раздел “3.2.2 Пересборка ядра и модулей):
PPP: version 2.2.0 (dynamic channel allocation)
TCP compression code copyright 1989 Regents of the University of California
PPP Dynamic channel allocation code copyright 1995 Caldera, Inc.
PPP line discipline registered.
Остальные компоненты пакета ppp-2.3.5, такие как набор shell-скриптов работы с
PPP-соединениями и демон pppd, были установлены во время инсталяции ОС
LInux.
Строка в сценарии инициализации портов /etc/rc.d/rc.serial определила параметры модемного порта com3 ( ttyS2 и cua2 в терминологии Linux ):
# These are the standard COM1 through COM4 devices
#
#${SETSERIAL} /dev/cua0 uart 16550A port 0x3F8 irq 4 ${STD_FLAGS}
#${SETSERIAL} /dev/cua1 uart 16550A port 0x2E8 irq 3 ${STD_FLAGS}
${SETSERIAL} /dev/cua2 uart 16550A port 0x3E8 irq 5 ${STD_FLAGS}
#${SETSERIAL} /dev/cua3 uart 16450 port 0x2E8 irq 3 ${STD_FLAGS}
...
Проверка правильности работы модема была проведена при помощи коммуникационной программы minicom:
[root@unix rc.d]# minicom
Welcome to minicom 1.82
OPTIONS: History Buffer, F-key Macros, Search History Buffer, I18n
Compiled on Oct 1 1998, 23:34:55.
Press CTRL-A Z for help on special keys
стр. 109 3.2.6 Настройка сервера удаленного доступа
3.2.6 Настройка сервера удаленного доступа

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
ati3
U.S. Robotics Sportster 33600 Voice V4.3.174
OK
atdp632015
CONNECT 14400/ARQ/V32/LAPM/V42BIS
Welcome to INET internet service :
free.podolsk.ru (Port ttyd4) !login:
Успешное соединение с модемом, находящимся на другом конце линии,
подтвердило правильность настроек.
Следующим этапом была установка и настройка пакета работы с модемами и факсами mgetty-1.1.14. Данный набор компонент позволяет отправлять и принимать факсы, различать входящие звонки, самостоятельно производить дозвонку, а так же различать различные виды приветствований (hanshakes) при установлении модемного соединения. Пакет mgetty в RPM-формате был инсталлирован с установками по умолчанию, полностью отвечавшим функциональным потребностям.
В инициализационный файл /etc/inittab была добавлена следующая строка,
определяющая запуск процесса mgetty:
S2:35:respawn:/sbin/mgetty -s 38400 -n 3 -i /etc/mgetty.issue -m '"" AT&F1M0 OK
( См. расшифровку опций строки в Разделе “2.3.6 Сервер удаленного доступа” )
Заметим, что при любых изменениях файла /etc/inittab необходимо перезапустить процесс init при помощи команды kill -HUP 1, где 1 - pid процесса init.
Удостоверимся при помощи команды ps, что mgetty находится среди работающих процессов Linux:
...
528 ? S 0:00 update (bdflush)
3189 ? S 0:00 /sbin/mgetty -s 38400 -n 3 -i /etc/mgetty.issue -m "" AT&F1M
3190 p0 R 0:00 ps ax
256 ? S 0:00 portmap
287 ? S 0:00 /usr/sbin/atd
.....
В принципе, на этом этапе удаленные пользователи после удачного соединения и аутентификации получают доступ к командному shell UNIX-сервера
(разумеется, если они обладают правом доступа к shell, см. Раздел “ 2.5.1 Категории пользователей”), но это вряд ли можно было назвать полноценным сервером удаленного доступа.
Для возможности соединения с внутренней сетью фирмы по протоколу
TCP/IP и используется туннельный протокол PPP.
Прежде всего, необходимо было установить суид-бит на файл pppd командой
стр. 110

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
chmod u+s /usr/sbin/pppd:
-rwsr-xr-x 1 root root 74224 Apr 28 07:17 /usr/sbin/pppd
Для запуска PPP был использован shell-сценарий запуска демона pppd пакета ppp-
2.3.5 с соответствующими параметрами. В параметрах запуска сценария были указаны локальный и удаленный IP-адреса 172.16.200.1 и 172.16.200.2. Врочем,
обойтись было можно и собственным коротким сценарием:
#!/bin/sh
exec /usr/sbin/pppd -detach crtscts lock proxyarp 172.16.201.1:172.16.201.2 /dev/ttyS2
38400 &
exit 0;
Был создан специальный пользователь pppuser, шеллом которого и был установлен упомянутый скрипт:
[root@unix ppp]# less /etc/passwd
....
pppuser:x:507:508::/home/pppuser:/etc/ppp/ppplogin
....
Таким образом, при положительной аутентификации пользователя pppuser при соединении удаленной системы с Linux-машиной, на обоих концах устанавливается
PPP-cоединение с фиксированными Intranet IP-адресами. При такой организации удаленный пользователь получает доступ ко всем сервисам внутренней сети фирмы,
транспортом которых служит протокол TCP/IP.
стр. 111

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
Сервер INN функционирует на базе пакета INN 1.7.2. Данный пакет является стандарным для многих UNIX-систем и входит в большинство дистрибуций ОС
Linux. Система INN 1.7.2 была исталлирована в общем процессе установки RedHat
5.2. В разделе 2.3.4.2 описывалась общая структура этого программного продукта и принципы его работы. Остановимся на конкретных настройках в конфигурационных файлах INN каталога /etc/news, вопросах тестирования и отладки news-сервера.
Файл inn.conf содержит информацию о принадлежности сервера:
[root@unix news]# less inn.conf
## $Revision: 1.6 $
## inn.conf -- inn configuration data
## Format:
##
:

organization: P R O M E X P O R T
server: localhost
Файл nnrp.access разрешает или запрещает соединение с сервером новостей.
В данном примере сначала запрещаются любые действия со статьями сервера с любых хостов, предпоследняя строка разрешает чтение и написание статей во все локальные группы, кроме служебных групп test, junk,control и to:
[root@unix news]# less nnrp.access
# Default to no access
*:: -no- : -no- :!*
# Allow access from localhost
localhost:Read Post:::*
#195.133.132.*:Read Post:::promexport*
#195.133.132.*:Read Post:::junk*
195.133.132.*:Read Post:::*,!test,!junk,!control,!to
#195.133.132.*:Read Post:::!test*
Файл newsfeeds содержит указания на то, какие статьи следует пересылать на нижестоящие узлы. Из-за, собственно, отсутствия нижестоящих узлов пересылки и сложности синтаксиса данного файла ( структура файла охватывает самые разные случаи - от получения статей по UUCP-поставщиков до разовой посылки новостей по электронной почте), рассматривать его нет смысла.
В файлах host.nntp и host.nntp.nolimit описываяются вышестоящие узлы рассылки, которым разрешено посылать ггруппы новостей и статьи на наш сервер
(из-за ограниченности дискового пространства сервера и весьма избирательной заинтересованности пользователей в получении статей с вышестоящего уровня было решено не подписываться на конференции у вышестоящих рассыльщиков ):
[root@unix news]# less hosts.nntp
## $Revision: 1.7 $
## hosts.nntp - names and addresses that feed us news
стр. 112 3.2.7 Конфигурирование сервера новостей
3.2.7 Конфигурирование сервера новостей

ДИПЛОМНЫЙ ПРОЕКТ : «Построение локальной компьютерной сети
масштаба малого предприятия на основе сетевой ОС LINUX»
## Format
##
1   ...   4   5   6   7   8   9   10   11   12


написать администратору сайта