Главная страница
Навигация по странице:

  • Содержание файла 2 текст. doc

  • Содержание файла 3 текст. doc : ОСНОВНЫЕ ВИДЫ АРХИТЕКТУРЫ

  • Супер-ЭВМ и сверхвысокая производительность: зачем

  • Вам нужно составить текст SMS-ки с подсказкой для каждого задания (не больше 120 символов), которая будет отправлена другу на перемене.

  • Необходимо выбрать источники информации, которые вы включите в свой отчет. Так же необходимо указать, почему был выбран тот или иной источник и исходя из каких критериев.

  • Азбука Морзе. Код Мо́рзе

  • Двоичное кодирование. Двоичный код

  • Шифр Цезаря Шифр Цезаря

  • Контраргументы 1-го работника

  • Контраргументы 2-го работника

  • диагностика. Диагностика ИКТ-компетенности. Действия с информацией


    Скачать 67.25 Kb.
    НазваниеДействия с информацией
    Анкордиагностика
    Дата04.04.2022
    Размер67.25 Kb.
    Формат файлаdocx
    Имя файлаДиагностика ИКТ-компетенности.docx
    ТипДокументы
    #440112
    страница3 из 4
    1   2   3   4

    Программное обеспечение суперкомпьютеров


    Наиболее распространёнными программными средствами суперкомпьютеров, также как и параллельных или распределённых компьютерных систем являются интерфейсы программирования приложений (API) на основе MPI и PVM, и решения на базе открытого программного обеспечения, наподобие Beowulf и openMosix, позволяющего создавать виртуальные суперкомпьютеры даже на базе обыкновенных рабочих станций и персональных компьютеров. Для быстрого подключения новых вычислительных узлов в состав узкоспециализированных кластеров применяются технологии наподобие ZeroConf. Примером может служить реализация рендеринга в программном обеспечении Shake, распространяемом компанией Apple. Для объединения ресурсов компьютеров, выполняющих программу Shake, достаточно разместить их в общем сегменте локальной вычислительной сети.

    В настоящее время границы между суперкомпьютерным и общеупотребимым программным обеспечением сильно размыты и продолжают размываться ещё более вместе с проникновением технологий параллелизации и многоядерности в процессорные устройства персональных компьютеров и рабочих станций. Исключительно суперкомпьютерным программным обеспечением сегодня можно назвать лишь специализированные программные средства для управления и мониторинга конкретных типов компьютеров, а также уникальные программные среды, создаваемые в вычислительных центрах под «собственные», уникальные конфигурации суперкомпьютерных систем.

    Список 500 самых быстрых в мире (Top500)


    Начиная с 1993, самые быстрые компьютеры ранжируют в списке Top500 исходя из результатов прохождения теста LINPACK. Этот тест измеряет, насколько быстро компьютер решает N на N системы линейных уравнений Ax = b, являющейся общей задачей для машиностроения.
    Содержание файла 2 текст.doc:

    Современные суперкомпьютеры


    Что такое су­пер­ЭВМ? Окс­форд­ский тол­ко­вый сло­варь по вы­чис­ли­тель­ной тех­ни­ке, из­дан­ный почти 10 лет назад, в 1986 году, со­об­ща­ет, что су­пер­ком­пью­тер - это очень мощ­ная ЭВМ с про­из­во­ди­тель­но­стью свыше 10 MFLOPS (мил­ли­о­нов опе­ра­ций с пла­ва­ю­щей за­пя­той в се­кун­ду). Се­год­ня этот ре­зуль­тат пе­ре­кры­ва­ют уже не толь­ко ра­бо­чие стан­ции, но даже, по край­ней мере, по пи­ко­вой про­из­во­ди­тель­но­сти, и ПК. В на­ча­ле 90-х годов гра­ни­цу про­во­ди­ли уже около от­мет­ки в 300 MFLOPS. В этом году, судя по по­явив­шим­ся в пе­ча­ти со­об­ще­ни­ям, спе­ци­а­ли­сты двух ве­ду­щих "су­пер­ком­пью­тер­ных" стран, - США и Япо­нии, - до­го­во­ри­лись о подъ­еме план­ки до 5 GFLOPS.

    Од­на­ко такой под­ход к опре­де­ле­нию су­пер­ЭВМ не со­всем кор­рек­тен. Оче­вид­но, что, со­вре­мен­ный двух­про­цес­сор­ный ком­пью­тер Cray C90 любой здра­во­мыс­ля­щий че­ло­век на­зо­вет су­пер­ЭВМ. А тем не менее, его пи­ко­вая про­из­во­ди­тель­ность мень­ше 2 GFLOPS. С этим во­про­сом тесно свя­за­ны и огра­ни­че­ния (ранее - КОКОМ, те­перь - Госде­пар­та­мен­та США) на по­став­ку вы­со­ко­про­из­во­ди­тель­ных средств вы­чис­ли­тель­ной тех­ни­ки дру­гим стра­нам. Ком­пью­те­ры с про­из­во­ди­тель­но­стью свыше 10 000 млн. тео­ре­ти­че­ских опе­ра­ций в сек. (MTOPS), со­глас­но опре­де­ле­нию Госде­пар­та­мен­та США, счи­та­ют­ся су­пер­ком­пью­те­ра­ми [1].

    Более кор­рект­но, на наш взгляд, пе­ре­чис­лить ос­нов­ные при­зна­ки, ха­рак­те­ри­зу­ю­щие су­пер­ЭВМ, среди ко­то­рых кроме вы­со­кой про­из­во­ди­тель­но­сти сле­ду­ет отметить:

    • самый со­вре­мен­ный тех­но­ло­ги­че­ский уро­вень (на­при­мер, GaAs-технология);

    • спе­ци­фи­че­ские ар­хи­тек­тур­ные ре­ше­ния, на­прав­лен­ные на по­вы­ше­ние быст­ро­дей­ствия (на­при­мер, на­ли­чие опе­ра­ций над векторами);

    • цена, обыч­но свыше 1-2 млн. долл.

    Су­ще­ству­ют ком­пью­те­ры, име­ю­щие все пе­ре­чис­лен­ные выше ха­рак­те­ри­сти­ки су­пер­ЭВМ, за ис­клю­че­ни­ем цены, ко­то­рая для них со­став­ля­ет от несколь­ких сотен до 2 млн. дол­ла­ров. Речь идет о ми­ни-су­пер­ЭВМ, об­ла­да­ю­щим вы­со­кой про­из­во­ди­тель­но­стью, усту­па­ю­щей, од­на­ко, боль­шим су­пер­ЭВМ. При этом у ми­ни­су­пер­ком­пью­те­ров, как пра­ви­ло, за­мет­но лучше со­от­но­ше­ние цена/про­из­во­ди­тель­ность и су­ще­ствен­но ниже экс­плу­а­та­ци­он­ные рас­хо­ды: си­сте­ма охла­жде­ния, элек­тро­пи­та­ния, тре­бо­ва­ния к пло­ща­ди по­ме­ще­ния и др. Дан­ные ком­пью­те­ры ори­ен­ти­ро­ва­ны на менее круп­ные вы­чис­ли­тель­ные цен­тры - уров­ня фа­куль­те­та, а не всего уни­вер­си­те­та или кор­по­ра­ции. При­ме­ры таких ЭВМ - Cray J90, Convex C38XX и, воз­мож­но, C4/XA. К ним можно от­не­сти, также и со­вре­мен­ные су­пер­ком­пью­тер­ные си­сте­мы на базе RISC-мик­ро­про­цес­со­ров, на­при­мер, IBM SP2, SGI POWER CHALLENGE, DEC AlphaServer 8200/8400 и др.

    Ар­хи­тек­ту­ра со­вре­мен­ных суперЭВМ


    Все ком­пью­те­ры де­лят­ся на че­ты­ре клас­са в за­ви­си­мо­сти от числа по­то­ков ко­манд и дан­ных. К пер­во­му клас­су (по­сле­до­ва­тель­ные ком­пью­те­ры фон Ней­ма­на) при­над­ле­жат обыч­ные ска­ляр­ные од­но­про­цес­сор­ные си­сте­мы: оди­ноч­ный поток ко­манд - оди­ноч­ный поток дан­ных (SISD). Пер­со­наль­ный ком­пью­тер имеет ар­хи­тек­ту­ру SISD, при­чем не важно, ис­поль­зу­ют­ся ли в ПК кон­вей­е­ры для уско­ре­ния вы­пол­не­ния операций.

    Вто­рой класс ха­рак­те­ри­зу­ет­ся на­ли­чи­ем оди­ноч­но­го по­то­ка ко­манд, но мно­же­ствен­но­го nomoka дан­ных (SIMD). К этому ар­хи­тек­тур­но­му клас­су при­над­ле­жат од­но­про­цес­сор­ные век­тор­ные или, точ­нее го­во­ря, век­тор­но-кон­вей­ер­ные су­пер­ком­пью­те­ры, на­при­мер, Cray-1 [6]. В этом слу­чае мы имеем дело с одним по­то­ком (век­тор­ных) ко­манд, а по­то­ков дан­ных - много: каж­дый эле­мент век­то­ра вхо­дит в от­дель­ный поток дан­ных. К этому же клас­су вы­чис­ли­тель­ных си­стем от­но­сят­ся мат­рич­ные про­цес­со­ры, на­при­мер, зна­ме­ни­тый в свое время ILLIAC-IV. Они также имеют век­тор­ные ко­ман­ды и ре­а­ли­зу­ют век­тор­ную об­ра­бот­ку, но не по­сред­ством кон­вей­е­ров, как в век­тор­ных су­пер­ком­пью­те­рах, а с по­мо­щью мат­риц процессоров.

    К тре­тье­му клас­су - MIMD - от­но­сят­ся си­сте­мы, име­ю­щие мно­же­ствен­ный поток ко­манд и мно­же­ствен­ный поток данных. К нему при­над­ле­жат не толь­ко мно­го­про­цес­сор­ные век­тор­ные су­пер­ЭВМ, но и во­об­ще все мно­го­про­цес­сор­ные ком­пью­те­ры. По­дав­ля­ю­щее боль­шин­ство со­вре­мен­ных су­пер­ЭВМ имеют ар­хи­тек­ту­ру MIMD.

    Чет­вер­тый класс в си­сте­ма­ти­ке Флин­на, MISD, не пред­став­ля­ет прак­ти­че­ско­го ин­те­ре­са,по край­ней мере для ана­ли­зи­ру­е­мых нами ком­пью­те­ров. В по­след­нее время в ли­те­ра­ту­ре часто ис­поль­зу­ет­ся также тер­мин SPMD (одна про­грам­ма - мно­же­ствен­ные дан­ные). Он от­но­сит­ся не к ар­хи­тек­ту­ре ком­пью­те­ров, а к мо­де­ли рас­па­рал­ле­ли­ва­ния про­грамм и не яв­ля­ет­ся рас­ши­ре­ни­ем си­сте­ма­ти­ки Флин­на. SPMD обыч­но от­но­сит­ся к MPP (т.е. MIMD) - си­сте­мам и озна­ча­ет, что несколь­ко копий одной про­грам­мы па­рал­лель­но вы­пол­ня­ют­ся в раз­ных про­цес­сор­ных узлах с раз­ны­ми данными.

    Век­тор­ные су­пер­ком­пью­те­ры [SIND]


    Ти­пич­ная схема од­но­про­цес­сор­но­го век­тор­но­го су­пер­ком­пью­те­ра пред­став­ле­на на при­ме­ре FACOM VP-200 япон­ской фирмы Fujitsu [7]. По­хо­жую ар­хи­тек­ту­ру имеют и дру­гие век­тор­ные су­пер­ком­пью­те­ры, на­при­мер, фирм Cray Research [10] и Convex [11]. Общим для всех век­тор­ных су­пер­ком­пью­те­ров яв­ля­ет­ся на­ли­чие в си­сте­ме ко­манд век­тор­ных опе­ра­ций, на­при­мер, сло­же­ние век­то­ров, до­пус­ка­ю­щих ра­бо­ту с век­то­ра­ми опре­де­лен­ной длины, до­пу­стим, 64 эле­мен­та по 8 байт. В таких ком­пью­те­рах опе­ра­ции с век­то­ра­ми обыч­но вы­пол­ня­ют­ся над век­тор­ны­ми ре­ги­стра­ми, что, од­на­ко, со­всем не яв­ля­ет­ся обя­за­тель­ным. На­ли­чие ре­ги­стров маски поз­во­ля­ет вы­пол­нять век­тор­ные ко­ман­ды не над всеми эле­мен­та­ми век­то­ров, а толь­ко над теми, на ко­то­рые ука­зы­ва­ет маска.

    Но неко­то­рые век­тор­ные су­пер­ЭВМ, на­при­мер, IBM ES/9000, ра­бо­та­ют с опе­ран­да­ми-век­то­ра­ми, рас­по­ло­жен­ны­ми непо­сред­ствен­но в опе­ра­тив­ной па­мя­ти. Ско­рее всего, такой под­ход яв­ля­ет­ся менее пер­спек­тив­ным с точки зре­ния про­из­во­ди­тель­но­сти, в част­но­сти, по­то­му, что для под­дер­жа­ния вы­со­ко­го темпа вы­чис­ле­ний для каж­дой век­тор­ной ко­ман­ды тре­бу­ет­ся быст­рая вы­бор­ка век­тор­ных опе­ран­дов из па­мя­ти и за­пись ре­зуль­та­тов обратно.

    Мно­го­про­цес­сор­ные век­тор­ные су­пер­ком­пью­те­ры (MIMD)


    В ар­хи­тек­ту­ре мно­го­про­цес­сор­ных век­тор­ных ком­пью­те­ров можно от­ме­тить две важ­ней­шие ха­рак­те­ри­сти­ки: сим­мет­рич­ность (рав­но­прав­ность) всех про­цес­со­ров си­сте­мы и раз­де­ле­ние всеми про­цес­со­ра­ми об­ще­го поля опе­ра­тив­ной па­мя­ти. По­доб­ные ком­пью­тер­ные си­сте­мы на­зы­ва­ют­ся силь­но свя­зан­ны­ми. Если в од­но­про­цес­сор­ных век­тор­ных ЭВМ для со­зда­ния эф­фек­тив­ной про­грам­мы ее надо век­то­ри­зо­вать, то в мно­го­про­цес­сор­ных по­яв­ля­ет­ся за­да­ча рас­па­рал­ле­ли­ва­ния про­грам­мы для ее вы­пол­не­ния од­но­вре­мен­но на несколь­ких процессорах.

    За­да­ча рас­па­рал­ле­ли­ва­ния яв­ля­ет­ся, по­жа­луй, более слож­ной,по­сколь­ку в ней необ­хо­ди­мо ор­га­ни­зо­вать син­хро­ни­за­цию па­рал­лель­но вы­пол­ня­ю­щих­ся про­цес­сов. Прак­ти­ка по­ка­за­ла воз­мож­но­сти эф­фек­тив­но­го рас­па­рал­ле­ли­ва­ния боль­шо­го числа ал­го­рит­мов для рас­смат­ри­ва­е­мых силь­но свя­зан­ных си­стем. Со­от­вет­ству­ю­щий под­ход к рас­па­рал­ле­ли­ва­нию на таких ком­пью­те­рах на­зы­ва­ет­ся ино­гда мо­де­лью раз­де­ля­е­мой общей памяти.

    Мно­го­про­цес­сор­ные SMP-сер­ве­ры на базе мик­ро­про­цес­со­ров RISC-ар­хи­тек­ту­ры [MIMD]


    Про­из­во­ди­тель­ность неко­то­рых со­вре­мен­ных мик­ро­про­цес­со­ров RISC-ар­хи­тек­ту­ры стала со­по­ста­ви­мой с про­из­во­ди­тель­но­стью про­цес­со­ров век­тор­ных ком­пью­те­ров. Как след­ствие этого, по­яви­лись ис­поль­зу­ю­щие эти до­сти­же­ния су­пер­ЭВМ новой ар­хи­тек­ту­ры, - силь­но свя­зан­ные ком­пью­те­ры клас­са MIMD, пред­став­ля­ю­щие собой сим­мет­рич­ные мно­го­про­цес­сор­ные сер­ве­ры с общим полем опе­ра­тив­ной па­мя­ти. Этим пер­спек­тив­ным си­сте­мам имеет смысл уде­лить боль­ше вни­ма­ния, чем дру­гим ком­пью­тер­ным ар­хи­тек­ту­рам, по­сколь­ку со­от­вет­ству­ю­щий крут во­про­сов в оте­че­ствен­ной ком­пью­тер­ной ли­те­ра­ту­ре об­суж­дал­ся недо­ста­точ­но полно.

    Наи­бо­лее из­вест­ные су­пер­ком­пью­тер­ные сер­ве­ры, име­ю­щие по­доб­ную SMP-ар­хи­тек­ту­ру - DEC AlphaServer 8200/8400 [13] и SGI POWER CHALLENGE [14]. Для них ха­рак­тер­но при­ме­не­ние вы­со­ко­про­из­во­ди­тель­ной си­стем­ной шины, в слоты ко­то­рой встав­ля­ют­ся мо­ду­ли трех типов - про­цес­сор­ные, опе­ра­тив­ной па­мя­ти и вво­да-вы­во­да. Обыч­ные, более мед­лен­ные шины вво­да-вы­во­да, на­при­мер, PCI или VME64, под­со­еди­ня­ют­ся уже к мо­ду­лям вво­да-вы­во­да. Оче­вид­но, что по­доб­ная кон­струк­ция об­ла­да­ет вы­со­кой сте­пе­нью мо­дуль­но­сти и легко поз­во­ля­ет про­из­во­дить на­ра­щи­ва­ние кон­фи­гу­ра­ции, ко­то­рое огра­ни­чи­ва­ет­ся толь­ко до­ступ­ным чис­лом сло­тов си­стем­ной шины и ее производительностью.

    В мо­ду­лях па­мя­ти обыч­но ис­поль­зу­ет­ся тех­но­ло­гия DRAM, что поз­во­ля­ет до­стиг­нуть боль­ших объ­е­мов па­мя­ти при от­но­си­тель­но низ­кой цене. Од­на­ко ско­рость об­ме­на дан­ны­ми между про­цес­со­ра­ми и па­мя­тью в таких сер­ве­рах во много раз ниже, чем про­пуск­ная спо­соб­ность ана­ло­гич­но­го трак­та в век­тор­ных су­пер­ЭВМ, где опе­ра­тив­ная па­мять стро­ит­ся на более до­ро­гой тех­но­ло­гии ЯВАМ. В этом со­сто­ит одно из ос­нов­ных от­ли­чий в под­хо­дах к су­пер­ком­пью­тер­ным вы­чис­ле­ни­ям, при­ме­ня­е­мым для мно­го­про­цес­сор­ных век­тор­ных ЭВМ и SMP-сер­ве­ров. В пер­вых обыч­но име­ет­ся от­но­си­тель­но неболь­шое число век­тор­ных ре­ги­стров, по­это­му, как уже от­ме­ча­лось, для под­дер­жа­ния вы­со­кой про­из­во­ди­тель­но­сти необ­хо­ди­мо быст­ро за­гру­жать в них дан­ные или, на­о­бо­рот, за­пи­сы­вать из них ин­фор­ма­цию в опе­ра­тив­ную па­мять. Таким об­ра­зом, тре­бу­ет­ся вы­со­кая про­из­во­ди­тель­ность трак­та процессор-память.

    В SMP-сер­ве­рах про­пуск­ная спо­соб­ность мо­ду­лей па­мя­ти го­раз­до ниже, а общая ско­рость об­ме­на дан­ны­ми с про­цес­сор­ны­ми мо­ду­ля­ми огра­ни­чи­ва­ет­ся также (хотя и вы­со­кой) про­пуск­ной спо­соб­но­стью шины. К тому же си­стем­ная шина может быть за­ня­та пе­ре­да­чей дан­ных за счет ра­бо­ты мо­ду­лей вво­да-вы­во­да. Для ил­лю­стра­ции по­ряд­ков ве­ли­чин можно при­ве­сти сле­ду­ю­щие дан­ные: га­ран­ти­ро­ван­ная про­пуск­ная спо­соб­ность си­стем­ной шины TurboLaser в AlphaServer 8200/8400 со­став­ля­ет 1.6 Гбайт/с и 1.2 Гбайт/с - для шины POWERpath-2 в POWER CHALLENGE, а про­пуск­ная спо­соб­ность опе­ра­тив­ной па­мя­ти в Сгау Т90 равна 800 Гбайт/с. По­это­му в SMP-сер­ве­рах раз­ра­бот­чи­ки стре­мят­ся умень­шить саму по­треб­ность в об­ме­нах дан­ны­ми на трак­те про­цес­со­ры­па­мять. С этой целью вме­сто ма­лень­ко­го по ве­ли­чине объ­е­ма па­мя­ти век­тор­ных ре­ги­стров (имен­но по­это­му они тре­бу­ют до­ста­точ­но частой пе­ре­за­груз­ки) мик­ро­про­цес­со­ры в су­пер­ком­пью­тер­ных SMP-си­сте­мах снаб­жа­ют­ся кэш - па­мя­тью очень боль­шо­го раз­ме­ра, на­при­мер, по 4 Мбайт на мик­ро­про­цес­сор в AlphaServer 8200/8400 и POWER CHAL ENGE. В ре­зуль­та­те для очень ши­ро­ко­го спек­тра при­ло­же­ний уда­ет­ся до­стичь по­став­лен­ной цели.

    Со­вре­мен­ные ком­пью­те­ры SMP-ар­хи­тек­ту­ры и кла­сте­ры на их ос­но­ве имеют во мно­гом ха­рак­те­ри­сти­ки, срав­ни­мые с боль­ши­ми век­тор­ны­ми су­пер­ЭВМ, за ис­клю­че­ни­ем про­пуск­ной спо­соб­но­сти опе­ра­тив­ной па­мя­ти; Если до­ба­вить к этому низ­кие экс­плу­а­та­ци­он­ные рас­хо­ды на об­слу­жи­ва­ние SMP-си­стем, то ста­но­вит­ся по­нят­но, по­че­му при­ме­не­ние этих го­раз­до более де­ше­вых (по срав­не­нию с век­тор­ны­ми) су­пер­ком­пью­те­ров по­лу­чи­ло за по­след­ние 2 года ши­ро­кое распространение.

    Кла­сте­ры [MIMD]


    Кла­сте­ры яв­ля­ют­ся самым де­ше­вым спо­со­бом на­ра­щи­ва­ния про­из­во­ди­тель­но­сти уже ин­стал­ли­ро­ван­ных ком­пью­те­ров. Фак­ти­че­ски кла­стер пред­став­ля­ет собой набор из несколь­ких ЭВМ, со­еди­нен­ных через неко­то­рую ком­му­ни­ка­ци­он­ную ин­фра­струк­ту­ру. В ка­че­стве такой струк­ту­ры может вы­сту­пать обыч­ная ком­пью­тер­ная сеть, од­на­ко из со­об­ра­же­ний по­вы­ше­ния про­из­во­ди­тель­но­сти же­ла­тель­но иметь вы­со­ко­ско­рост­ные со­еди­не­ния (FDDI/ATM/HiPPI и т.п.). Кла­сте­ры могут быть об­ра­зо­ва­ны как из раз­лич­ных ком­пью­те­ров (гет­пе­ро­ген­ные кла­сте­ры), так и из оди­на­ко­вых (го­мо­ген­ные кла­сте­ры). Оче­вид­но, что все такие си­сте­мы от­но­сят­ся к клас­су MIMD. Кла­сте­ры яв­ля­ют­ся клас­си­че­ским при­ме­ром слабо свя­зан­ных си­стем. Раз­лич­ным кла­стер­ным си­сте­мам по­свя­ще­на ста­тья [16].

    Пре­иму­ще­ством кла­стер­но­го под­хо­да по срав­не­нию с SMP-сер­ве­ра­ми яв­ля­ет­ся улуч­ше­ние воз­мож­но­стей мас­шта­би­ро­ва­ния. В от­ли­чие от сер­ве­ров SMP-ар­хи­тек­ту­ры, где на­ра­щи­ва­ние кон­фи­гу­ра­ции огра­ни­че­но про­пуск­ной спо­соб­но­стью шины, до­бав­ле­ние ком­пью­те­ров в кла­стер поз­во­ля­ет уве­ли­чи­вать про­пуск­ную спо­соб­ность опе­ра­тив­ной па­мя­ти и под­си­стем ввода-вывода.

    В кла­стер­ных си­сте­мах для ор­га­ни­за­ции вза­и­мо­дей­ствия между про­цес­са­ми, вы­пол­ня­ю­щи­ми­ся на раз­ных ком­пью­те­рах при ре­ше­нии одной за­да­чи, при­ме­ня­ют­ся раз­лич­ные мо­де­ли об­ме­на со­об­ще­ни­я­ми (PVM, MPI и т.п.). Од­на­ко за­да­ча рас­па­рал­ле­ли­ва­ния в таких си­сте­мах с рас­пре­де­лен­ной между от­дель­ны­ми ком­пью­те­ра­ми па­мя­тью в рам­ках этих мо­де­лей яв­ля­ет­ся го­раз­до более слож­ной, чем в мо­де­ли об­ще­го поля па­мя­ти, как на­при­мер, в SMP-сер­ве­рах. К этому сле­ду­ет до­ба­вить чисто ап­па­рат­ные про­бле­мы на­ли­чия за­дер­жек при об­ме­нах со­об­ще­ни­я­ми и по­вы­ше­ния ско­ро­сти пе­ре­да­чи дан­ных. По­это­му спектр задач, ко­то­рые могут эф­фек­тив­но ре­шать­ся на кла­стер­ных си­сте­мах, по срав­не­нию с сим­мет­рич­ны­ми силь­но свя­зан­ны­ми си­сте­ма­ми до­ста­точ­но огра­ни­чен. Для па­рал­лель­ной об­ра­бот­ки за­про­сов к базам дан­ных в по­доб­ных си­сте­мах также име­ют­ся свои соб­ствен­ные под­хо­ды (см., на­при­мер, [16]).

    В кла­сте­ры могут объ­еди­нять­ся раз­лич­ные су­пер­ком­пью­те­ры, на­при­мер, ми­ни­су­пер­ЭВМ Сгау J90 [11], од­на­ко наи­бо­лее из­вест­ны­ми кла­сте­ра­ми в мире су­пер­ЭВМ яв­ля­ют­ся IBM SP2 [17] и SGI POWER CHAL ENGEarray [14]. Воз­мож­ность на­ли­чия боль­шо­го числа про­цес­сор­ных узлов в SP2 поз­во­ля­ет од­но­вре­мен­но от­не­сти этот ком­пью­тер и к клас­су Mpp-систем.

    МРР-си­стемн (MIMD)


    Ос­нов­ным при­зна­ком, по ко­то­ро­му си­сте­му от­но­сят к ар­хи­тек­ту­ре MPP, яв­ля­ет­ся число про­цес­со­ров (n). Стро­гой гра­ни­цы не су­ще­ству­ет, но обыч­но счи­та­ет­ся, что при n >= 128 - это уже МРР, а при n <= 32 - еще нет.

    Вовсе не обя­за­тель­но, чтобы MPP-си­сте­ма имела рас­пре­де­лен­ную опе­ра­тив­ную па­мять, при ко­то­рой каж­дый про­цес­сор­ный узел имеет свою ло­каль­ную па­мять. Так, на­при­мер, ком­пью­те­ры SPP1000/XA и SPP1200/XA [15] - при­мер си­стем с мас­со­вым па­рал­ле­лиз­мом, па­мять ко­то­рых фи­зи­че­ски рас­пре­де­ле­на между ги­пе­руз­ла­ми, но ло­ги­че­ски яв­ля­ет­ся общей для всей ЭВМ. Тем не менее, боль­шин­ство MPP-ком­пью­те­ров имеют как ло­ги­че­ски, так и фи­зи­че­ски рас­пре­де­лен­ную память.

    В любом слу­чае MPP-си­сте­мы при­над­ле­жат к клас­су MIMD. Если го­во­рить об MPP-ком­пью­те­рах с рас­пре­де­лен­ной па­мя­тью и от­влечь­ся от ор­га­ни­за­ции вво­да-вы­во­да, то эта ар­хи­тек­ту­ра яв­ля­ет­ся есте­ствен­ным рас­ши­ре­ни­ем кла­стер­ной на боль­шое число узлов. По­это­му для таких си­стем ха­рак­тер­ны все пре­иму­ще­ства и недо­стат­ки кла­сте­ров. При­чем в связи с по­вы­шен­ным чис­лом про­цес­сор­ных узлов как плюсы, так и ми­ну­сы ста­но­вят­ся го­раз­до ве­со­мее (про­цес­сор­ный узел это блок ЭВМ, ко­то­рый может со­дер­жать несколь­ко про­цес­со­ров, на­при­мер, как в ком­пью­те­рах SNI/Pyramid RM1000, и сам по себе иметь ар­хи­тек­ту­ру SMP).

    Бла­го­да­ря мас­шта­би­ру­е­мо­сти, имен­но MPP-си­сте­мы яв­ля­ют­ся се­год­ня ли­де­ра­ми по до­стиг­ну­той про­из­во­ди­тель­но­сти ком­пью­те­ра; наи­бо­лее яркий при­мер этому - Intel Paragon. С дру­гой сто­ро­ны, про­бле­мы рас­па­рал­ле­ли­ва­ния в MPP-си­сте­мах по срав­не­нию с кла­сте­ра­ми, со­дер­жа­щи­ми немно­го про­цес­со­ров, ста­но­вят­ся еще более труд­но раз­ре­ши­мы­ми. Кроме того, при­ра­ще­ние про­из­во­ди­тель­но­сти с ро­стом числа про­цес­со­ров обыч­но во­об­ще до­воль­но быст­ро убы­ва­ет. Легко на­рас­тить тео­ре­ти­че­скую про­из­во­ди­тель­ность ЭВМ, но го­раз­до труд­нее найти за­да­чи, ко­то­рые су­ме­ли бы эф­фек­тив­но за­гру­зить про­цес­сор­ные узлы.

    Се­год­ня не так уж много при­ло­же­ний могут эф­фек­тив­но вы­пол­нять­ся на Mpp-ком­пью­те­ре, кроме этого име­ет­ся еще про­бле­ма пе­ре­но­си­мо­сти про­грамм между Mpp-си­сте­ма­ми, име­ю­щи­ми раз­лич­ную ар­хи­тек­ту­ру. Пред­при­ня­тая в по­след­ние годы по­пыт­ка стан­дар­ти­за­ции мо­де­лей об­ме­на со­об­ще­ни­я­ми еще не сни­ма­ет всех про­блем. Эф­фек­тив­ность рас­па­рал­ле­ли­ва­ния во мно­гих слу­ча­ях силь­но за­ви­сит от де­та­лей ар­хи­тек­ту­ры Mpp-си­сте­мы, на­при­мер то­по­ло­гии со­еди­не­ния про­цес­сор­ных узлов.

    Самой эф­фек­тив­ной была бы то­по­ло­гия, в ко­то­рой любой узел мог бы на­пря­мую свя­зать­ся с любым дру­гим узлом. Од­на­ко в MPP-си­сте­мах это тех­ни­че­ски труд­но ре­а­ли­зу­е­мо. Обыч­но про­цес­сор­ные узлы в со­вре­мен­ных MPP-ком­пью­те­рах об­ра­зу­ют или дву­мер­ную ре­шет­ку (на­при­мер, в SNI/Pyramid RM1000) или ги­пер­куб (как в су­пер­ком­пью­те­рах nCube [18]).

    По­сколь­ку для син­хро­ни­за­ции па­рал­лель­но вы­пол­ня­ю­щих­ся в узлах про­цес­сов необ­хо­дим обмен со­об­ще­ни­я­ми, ко­то­рые долж­ны до­хо­дить из лю­бо­го узла си­сте­мы в любой дру­гой узел, важ­ной ха­рак­те­ри­сти­кой яв­ля­ет­ся диа­метр си­сте­мы с1 - мак­си­маль­ное рас­сто­я­ние между уз­ла­ми. В слу­чае двух­мер­ной ре­шет­ки d sqrt(n), в слу­чае ги­пер­ку­ба d 1n(n). Таким об­ра­зом, при уве­ли­че­нии числа узлов ар­хи­тек­ту­ра ги­пер­ку­ба яв­ля­ет­ся более выгодной.

    Время пе­ре­да­чи ин­фор­ма­ции от узла к узлу за­ви­сит от стар­то­вой за­держ­ки и ско­ро­сти пе­ре­да­чи. В любом слу­чае за время пе­ре­да­чи про­цес­сор­ные узлы успе­ва­ют вы­пол­нить много ко­манд, и это со­от­но­ше­ние быст­ро­дей­ствия про­цес­сор­ных узлов и пе­ре­да­ю­щей си­сте­мы, ве­ро­ят­но, будет со­хра­нять­ся - про­гресс в про­из­во­ди­тель­но­сти про­цес­со­ров го­раз­до боль­ше, чем в про­пуск­ной спо­соб­но­сти ка­на­лов связи. По­это­му ин­фра­струк­ту­ра ка­на­лов связи яв­ля­ет­ся од­но­го из глав­ных ком­по­нен­тов Mpp-компьютера.

    Оцен­ки про­из­во­ди­тель­но­сти суперЭВМ


    По­сколь­ку су­пер­ком­пью­те­ры тра­ди­ци­он­но ис­поль­зо­ва­лись для вы­пол­не­ния вы­чис­ле­ний над ве­ще­ствен­ны­ми чис­ла­ми, боль­шин­ство се­го­дняш­них оце­ноч­ных ха­рак­те­ри­стик про­из­во­ди­тель­но­сти свя­за­но имен­но с этими вы­чис­ле­ни­я­ми. Пре­жде всего, к ним от­но­сит­ся пи­ко­вая про­из­во­ди­тель­ность, из­ме­ря­е­мая в млн. опе­ра­ций с пла­ва­ю­щей точ­кой, ко­то­рые ком­пью­тер тео­ре­ти­че­ски может вы­пол­нить за 1 сек (MFLOPS). Пи­ко­вая про­из­во­ди­тель­ность - ве­ли­чи­на, прак­ти­че­ски не до­сти­жи­мая. Это свя­за­но, в част­но­сти, с про­бле­ма­ми за­пол­не­ния функ­ци­о­наль­ных кон­вей­ер­ных устройств, что яв­ля­ет­ся ти­пич­ным не толь­ко для век­тор­ных су­пер­ЭВМ, но и для ком­пью­те­ров на базе мик­ро­про­цес­со­ров RISC-ар­хи­тек­ту­ры. Осо­бен­но важно это для су­пер­кон­вей­ер­ной ар­хи­тек­ту­ры мик­ро­про­цес­со­ров, на­при­мер, DEC Alpha, для ко­то­рой ха­рак­тер­но при­ме­не­ние от­но­си­тель­но длин­ных кон­вей­е­ров. По­нят­но, что чем боль­ше кон­вей­ер, тем боль­ше надо "ини­ци­а­ли­за­ци­он­но­го" вре­ме­ни для того, чтобы его за­пол­нить. Такие кон­вей­е­ры эф­фек­тив­ны при ра­бо­те с длин­ны­ми век­то­ра­ми. По­это­му для оцен­ки век­тор­ных су­пер­ЭВМ было вве­де­но такое по­ня­тие, как длина по­лу­про­из­во­ди­тель­но­сти - длина век­то­ра, при ко­то­рой до­сти­га­ет­ся по­ло­ви­на пи­ко­вой про­из­во­ди­тель­но­сти [4].

    Более ре­аль­ные оцен­ки про­из­во­ди­тель­но­сти ба­зи­ру­ют­ся на вре­ме­нах вы­пол­не­ния раз­лич­ных те­стов. Ко­неч­но же, са­мы­ми хо­ро­ши­ми те­ста­ми яв­ля­ют­ся ре­аль­ные за­да­чи поль­зо­ва­те­ля. Од­на­ко такие оцен­ки, во-пер­вых, весь­ма спе­ци­фич­ны, а, во-вто­рых, часто во­об­ще недо­ступ­ны или от­сут­ству­ют. По­это­му обыч­но при­ме­ня­ют­ся более уни­вер­саль­ные тесты, од­на­ко тра­ди­ци­он­ные ме­то­ди­ки оцен­ки про­из­во­ди­тель­но­сти мик­ро­про­цес­со­ров - SPEC- в мире су­пер­ком­пью­те­ров, как пра­ви­ло, не ис­поль­зу­ют­ся. Это свя­за­но, в част­но­сти, с их малой ин­фор­ма­тив­но­стью - осо­бен­но SPEC 92 - для су­пер­ком­пью­тер­ных при­ло­же­ний, хотя новый стан­дарт SPEC 95 дает более ре­аль­ную кар­ти­ну про­из­во­ди­тель­но­сти. Се­год­ня име­ют­ся оцен­ки SPEC толь­ко для су­пер­ком­пью­те­ров, ис­поль­зу­ю­щих мик­ро­про­цес­со­ры RISC-ар­хи­тек­ту­ры. Недав­но был анон­си­ро­ван спе­ци­аль­ный новый стан­дарт SPEChpc96 для вы­со­ко­про­из­во­ди­тель­ных вы­чис­ле­ний [14].

    По­сколь­ку боль­шую часть вре­ме­ни вы­пол­не­ния про­грамм обыч­но за­ни­ма­ют циклы, ино­гда имен­но они при­ме­ня­ют­ся в ка­че­стве те­стов, на­при­мер, из­вест­ные ли­вер­мор­ские циклы. Наи­бо­лее по­пу­ляр­ным те­стом про­из­во­ди­тель­но­сти на се­год­ня сле­ду­ет при­знать Linpack, ко­то­рый пред­став­ля­ет собой ре­ше­ние си­сте­мы И ли­ней­ных урав­не­ний ме­то­дом Гаус­са. По­сколь­ку из­вест­но, сколь­ко опе­ра­ций с ве­ще­ствен­ны­ми чис­ла­ми нужно про­де­лать для ре­ше­ния си­сте­мы, зная время рас­че­та, можно вы­чис­лить вы­пол­ня­е­мое в се­кун­ду ко­ли­че­ство опе­ра­ций. Име­ет­ся несколь­ко мо­ди­фи­ка­ций этих те­стов. Обыч­но фир­мы-про­из­во­ди­те­ли ком­пью­те­ров при­во­дят ре­зуль­та­ты при N 100. Сво­бод­но рас­про­стра­ня­ет­ся стан­дарт­ная про­грам­ма на Фор­тране, ко­то­рую надо вы­пол­нить на су­пер­ком­пью­те­ре, чтобы по­лу­чить ре­зуль­тат те­сти­ро­ва­ния. Эта про­грам­ма не может быть из­ме­не­на, за ис­клю­че­ни­ем за­ме­ны вы­зо­вов под­про­грамм, да­ю­щих до­ступ к про­цес­сор­но­му вре­ме­ни вы­пол­не­ния. Дру­гой стан­дарт­ный тест от­но­сит­ся к слу­чаю N = 1000, пред­по­ла­га­ю­ще­му ис­поль­зо­ва­ние длин­ных век­то­ров. Эти тесты могут вы­пол­нять­ся на ком­пью­те­рах при раз­ном числе про­цес­со­ров, давая также оцен­ки ка­че­ства распараллеливания.

    Для MPP-си­стем более ин­те­рес­ным яв­ля­ет­ся тест Linpack-parallel, в ко­то­ром про­из­во­ди­тель­ность из­ме­ря­ет­ся при боль­ших И и числе про­цес­со­ров. Здесь ли­де­ром яв­ля­ет­ся 6768-про­цес­сор­ный Intel Paragon (281 GFLOPS при N = 128600). Что ка­са­ет­ся про­из­во­ди­тель­но­сти про­цес­со­ров, то при N = 100 ли­ди­ру­ет Cray T916 (522 MFLOPS), при N = 1000 и по пи­ко­вой про­из­во­ди­тель­но­сти - Hitachi S3800 (со­от­вет­ствен­но 6431 и 8000 MFLOPS). Для срав­не­ния, про­цес­сор в AlphaServer 8400 имеет 140 MFLOPS при N =100 и 411 MFLOPS при N=1000.

    Для вы­со­ко­па­рал­лель­ных су­пер­ком­пью­те­ров в по­след­нее время все боль­ше ис­поль­зу­ют­ся тесты NAS parallel benchmark [19], ко­то­рые осо­бен­но хо­ро­ши для задач вы­чис­ли­тель­ной газо- и гид­ро­ди­на­ми­ки. Их недо­стат­ком яв­ля­ет­ся фик­са­ция ал­го­рит­ма ре­ше­ния, а не тек­ста про­грам­мы. До­пол­ни­тель­ную ин­фор­ма­цию о раз­лич­ных те­стах можно найти в [20,21].

    Содержание файла 3 текст.doc:
    ОСНОВНЫЕ ВИДЫ АРХИТЕКТУРЫ
    Известно, что сегодня существуют две основные архитектуры параллельных компьютеров: симметричные мультипроцессорные системы с общей памятью (SMP) и мультипроцессорные системы с распределенной памятью (MPP).

    Архитектура SMP
    Основное преимущество SMP - относительная простота программирования. В ситуации, когда все процессоры имеют одинаково быстрый доступ к общей памяти, вопрос о том, какой из процессоров какие вычисления будет выполнять, не столь принципиален, и значительная часть вычислительных алгоритмов, разработанных для последовательных компьютеров, может быть ускорена с помощью распараллеливающих и векторизирующих трансляторов. SMP-компьютеры - это наиболее распространенные сейчас параллельные вычислители, а 2-, 4-х процессорные ПК на основе Pentium и Pentium Pro стали уже массовым товаром. Однако общее число процессоров в SMP-системах, как правило, не превышает 16, а их дальнейшее увеличение не дает выигрыша из-за конфликтов при обращении к памяти. Применение технологий типа UPA, основанной на коммутации пакетов вместо общей шины и локальной кэш-памяти большого объема, способно частично решить проблему, подняв число процессоров до 32.

    Архитектура MPP
    Альтернатива SMP - архитектура MPP. Каждый процессор имеет доступ лишь к своей локальной памяти, а если программе нужно узнать значение переменной, расположенной в памяти другого процессора, то задействуется механизм передачи сообщений. Процессор, в памяти которого находятся нужные данные, посылает сообщение тому процессору, которому они требуются, а последний принимает его. Этот подход позволяет создавать компьютеры, включающие в себя тысячи процессоров. На нем основаны все машины, имеющие производительность в сотни миллиардов операций в секунду.

    MPI
    Практически на всех параллельных системах имелись свои собственные библиотеки передачи сообщений. В простейшем случае они предусматривали передачу и прием отдельных пакетов между соседними процессорами. Более сложные поддерживали передачу сообщений произвольной длины, маршрутизацию сообщений и аппарат тегов, который позволяет принимающей стороне самой решать, в какой последовательности обрабатывать поступающие сообщения. Некоторые библиотеки допускали динамическое порождение и уничтожение процессов.
    За последние годы в деле создания ПО для систем с распределенной памятью наметился серьезный прогресс. Самым крупным достижением была стандартизация интерфейса передачи сообщений MPI (message passing interface). Во-первых, MPI поддерживает несколько режимов передачи данных, важнейшие из которых: синхронная передача, не требующая выделения промежуточных буферов для данных и обеспечивающая надежную передачу данных сколь угодно большого размера, и асинхронная передача, при которой посылающий сообщение процесс не ждет начала приема, что позволяет эффективно передавать короткие сообщения. Во-вторых, MPI позволяет передавать данные не только от одного процесса к другому, но и поддерживает коллективные операции: широковещательную передачу, разборку-сборку, операции редукции. В-третьих, MPI предусматривает гетерогенные вычисления. Вычислительная система может включать разные процессоры, в том числе имеющие различные наборы команд и разное представление данных. Если у вас имеется суперкомпьютер, то это кажется излишним, но для организаций, эксплуатирующих сети рабочих станций с различными процессорами и версиями Unix, - это находка.
    Синтаксис MPI облегчает создание приложений в модели SPMD (single program multiple data) - одна программа работает в разных процессах со своими данными. Одна и та же функция вызывается на узле-источнике и узлах-приемниках, а тип выполняемой операции (передача или прием) определяется с помощью параметра. Такой синтаксис вызовов делает SPMD-программы существенно компактнее, хотя и труднее для понимания.
    Основное отличие стандарта MPI от его предшественников - понятие коммуникатора. Все операции синхронизации и передачи сообщений локализуются внутри коммуникатора. С коммуникатором связывается группа процессов. В частности, все коллективные операции вызываются одновременно на всех процессах, входящих в эту группу
    Поддержка модульного программирования в сочетании с независимостью от аппаратуры дала мощный импульс к созданию библиотек. Одна из самых интересных разработок - пакет линейной алгебры ScaLAPACK, разработанный группой Дж. Донгарра.

    Супер-ЭВМ и сверхвысокая производительность: зачем?

    Простые рассчеты показывают, что конфигурации подобных систем могут стоить не один миллион долларов США - ради интереса прикиньте, сколько стоят, скажем, лишь 4 Тбайта оперативной памяти? Возникает целый ряд естественных вопросов: какие задачи настолько важны, что требуются компьютеры стоимостью несколько миллионов долларов? Или, какие задачи настолько сложны, что хорошего Пентиума не достаточно? На эти и подобные им вопросы хотелось бы найти разумные ответы.

    Для того, чтобы оценить сложность решаемых на практике задач, возьмем конкретную предметную область, например, оптимизацию процесса добычи нефти. Имеем подземный нефтяной резервуар с каким-то число пробуренных скважин: по одним на поверхность откачивается нефть, по другим обратно закачивается вода. Нужно смоделировать ситуацию в данном резервуаре, чтобы оценить запасы нефти или понять необходимость в дополнительных скважинах.

    Примем упрощенную схему, при которой моделируемая область отображается в куб, однако и ее будет достаточно для оценки числа необходимых арифметических операций. Разумные размеры куба, при которых можно получать правдоподобные результаты - это 100*100*100 точек. В каждой точке куба надо вычислить от 5 до 20 функций: три компоненты скорости, давление, температуру, концентрацию компонент (вода, газ и нефть - это минимальный набор компонент, в более реалистичных моделях рассматривают, например, различные фракции нефти). Далее, значения функций находятся как решение нелинейных уравнений, что требует от 200 до 1000 арифметических операций. И наконец, если исследуется нестационарный процесс, т.е. нужно понять, как эта система ведет себя во времени, то делается 100-1000 шагов по времени. Что получилось:

    106(точек сетки)*10(функций)*500(операций)*500(шагов по времени) = 2.5*1012

    2500 миллиардов арифметических операций для выполнения одного лишь расчета! А изменение параметров модели? А отслеживание текущей ситуации при изменении входных данных? Подобные расчеты необходимо делать много раз, что накладывает очень жесткие требования на производительность используемых вычислительных систем.

    Примеры использования суперкомпьютеров можно найти не только в нефтедобывающей промышленности. Вот лишь небольшой список областей человеческой деятельности, где использование суперкомпьютеров действительно необходимо:

    автомобилестроение

    нефте- и газодобыча

    фармакология

    прогноз погоды и моделирование изменения климата

    сейсморазведка

    проектирование электронных устройств

    синтез новых материалов

    и многие, многие другие

    В 1995 году корпус автомобиля Nissan Maxima удалось сделать на 10% прочнее благодаря использованию суперкомпьютера фирмы Cray (The Atlanta Journal, 28 мая, 1995г). С помощью него были найдены не только слабые точки кузова, но и наиболее эффективный способ их удаления.

    По данным Марка Миллера (Mark Miller, Ford Motor Company), для выполнения crash-тестов, при которых реальные автомобили разбиваются о бетонную стену с одновременным замером необходимых параметров, съемкой и последующей обработкой результатов, компании Форд понадобилось бы от 10 до 150 прототипов новых моделей при общих затратах от 4 до 60 миллионов долларов. Использование суперкомпьютеров позволило сократить число прототипов на одну треть.

    Совсем недавний пример - это развитие одной из крупнейших мировых систем резервирования Amadeus, используемой тысячами агенств со 180000 терминалов в более чем ста странах. Установка двух серверов Hewlett-Packard T600 по 12 процессоров в каждом позволила довести степень оперативной доступности центральной системы до 99.85% при текущей загрузке около 60 миллионов запросов в сутки.

    И подобные примеры можно найти повсюду. В свое время исследователи фирмы DuPont искали замену хлорофлюорокарбону. Нужно было найти материал, имеющий те же положительные качества: невоспламеняемость, стойкость к коррозии и низкую токсичность, но без вредного воздействия на озоновый слой Земли. За одну неделю были проведены необходимые расчеты на суперкомпьютере с общими затратами около 5 тысяч долларов. По оценкам специалистов DuPont, использование традиционных экспериментальных методов исследований потребовало бы около трех месяцев и 50 тысяч долларов и это без учета времени, необходимого на синтез и очистку необходимого количества вещества.
    Приложение 7:
    Задание:
    Известно, что класс вашего друга на следующем уроке будет писать аналогичную контрольную работу; учитель по информатике структуру контрольной работы для классов одной параллели никогда не меняет, но условия задач в разных классах всегда разные.
    Вам нужно составить текст SMS-ки с подсказкой для каждого задания (не больше 120 символов), которая будет отправлена другу на перемене.

    Вариант 1

    1. Выпишите все четные числа в троичной системе счисления, не превосходящие 203.

    2. Перевести число 193 в систему счисления с основанием 190

    3. Перевести из двоичной системы в десятичную число 0.00(0011)

    4. Перевести из шестнадцатеричной системы в восьмеричную число 30A.9

    5. Перевести из десятичной системы в двоичную число 0.7
    Вариант 2
    1. Выпишите все нечетные числа в пятеричной системе счисления, не превосходящие 115.

    2. Перевести число 213 в систему счисления с основанием 210

    3. Перевести из двоичной системы в десятичную число 0.1(0110)

    4. Перевести из шестнадцатеричной системы в восьмеричную число 40D.3

    5. Перевести из десятичной системы в двоичную число 0.9

    Приложение 8:
    Задание:
    Вам нужно составить отчет о недавнем сбое в работе серверов (выведены и строя 7 серверных машин), в ходе которого произошла утечка личной информации 250 тыс. пользователей (ФИО, адреса, номера телефонов, номера счетов в банке и т.д) у фирмы «Крас-индестрис». Ниже приведены (или слова работников или информация представленная фирмами арендаторами серверов).

    Необходимо выбрать источники информации, которые вы включите в свой отчет. Так же необходимо указать, почему был выбран тот или иной источник и исходя из каких критериев.
    1 источник:

    Федеральная Служба Безопасности: Последствия недавнего сбоя у фирмы «Крас-индестрис» понесли за собой потери личной информации более чем 200 тыс. пользователей. Виновник ищется по горячим следам.
    2 источник:

    Хард-индестрис: по вине одного из сотрудников произошел сбой, после которого была утеряна информация ряда пользователей. Оборудование в скором времени будет заменено на новое.
    3 источник:

    «Нью-индестрис»: Из-за некачественного оборудования и небрежного отношения к нему, у фирмы «Крас-индестрис» произошла утечка личной информации пользователей, что свидетельствует о не компетентности данной фирмы.
    4 источник:

    Фирма «Крас-индестрис» сообщает, что из-за технической ошибки произошла утечка личной информации у части пользователей, так же они сообщили, что данные и серверы будет восстановлены в ближайшее время.

    Приложение 9:
    Задание:
    Есть две фирмы Ф1 и Ф2. Они конкурируют между собой. Известно, что в фирме Ф2 используют для защиты переписки шифр Азбукой Морзе. Какие из предложенных шифров вы посоветуете использовать для переписки фирме Ф1, чтобы максимально обеспечить сохранность переписки и почему?
    Азбука Морзе.
    Код Мо́рзе, «Морзя́нка» (А́збукой Мо́рзе код начал называться только с первой мировой войны) — способ знакового кодирования (представление букв алфавита, цифр, знаков препинания и других символов последовательностью двоичных сигналов, например, длинных и коротких: «тире» и «точек»). За единицу времени принимается длительность одной точки. Длительность тире равна трём точкам. Пауза между элементами одного знака — одна точка, между знаками в слове — 3 точки, между словами — 7 точек.
    Двоичное кодирование.

    Двоичный код — это способ представления данных в виде комбинации двух знаков, обычно обозначаемых цифрами 0 и 1. Используя два двоичных разряда (бита) можно закодировать четыре различные комбинации: 00 01 10 11, три бита — восемь: 000 001 010 011 100 101 110 111, и так далее. При увеличении разрядности двоичного числа на 1, количество различных комбинаций в двоичном коде удваивается.
    Двоичные коды являются комбинациями двух элементов и не являются двоичной системой счисления, но используются в ней как основа. Двоичный код также может использоваться для кодирования чисел в системах счисления с любым другим основанием. При кодировании алфавитноцифровых символов (знаков) двоичному коду не приписываются весовые коэффициенты, как это делается в системах счисления, в которых двоичный код используется для представления чисел, а используется только порядковый номер кода из множества размещений с повторениями.

    Простая перестановка


    Простая перестановка без ключа — один из самых простых методов шифрования. Сообщение записывается в таблицу по столбцам. После того, как открытый текст записан колонками, для образования шифровки он считывается по строкам. Для использования этого шифра отправителю и получателю нужно договориться об общем ключе в виде размера таблицы. Объединение букв в группы не входит в ключ шифра и используется лишь для удобства записи несмыслового текста.

    Шифр Цезаря

    Шифр Цезаря, также известный как шифр сдвига, код Цезаря или сдвиг Цезаря — один из самых простых и наиболее широко известных методов шифрования.

    Шифр Цезаря — это вид шифра подстановки, в котором каждый символ в открытом тексте заменяется буквой находящейся на некоторое постоянное число позиций левее или правее него в алфавите. Например, в шифре со сдвигом 3, А была бы заменена на Г, Б станет Д, и так далее.

    Приложение 10:
    Задание:
    Вы собираетесь провести сеть в своей молодой фирме, между 15 необходимыми компьютерами, для обеспечения постоянного обмена большого количества информации (конечно с минимумом затрат). Были наняты два работника, которые должны установить ее, но они разошлись во мнений какую сеть устанавливать. Ознакомьтесь с их доводами (так же у вас есть небольшая информация о их сетях) и составьте собственное аргументированное мнение о необходимой сети.
    1-ый работник:

    Нужно ставить сеть с «Шинной топологией», так как она при отказе одного из узлов не будет влияния на работу сети в целом; плюс ее легко настраивать и конфигурировать и она не дорогая.

    Или же сеть Wi-Fi. Она позволяет развернуть сеть без прокладки кабеля, что может уменьшить стоимость развёртывания и/или расширения сети. С не так же будут иметь доступ к сети мобильные устройства.
    2-ой работник:

    Можно использовать соединение типа «Звезда», в нее легко подключить новый ПК, можно будет централизовать управление, так же сеть устойчива к неисправностям отдельных ПК и к разрывам соединения отдельных ПК.

    Другой вариант это топология «Token Ring», она обеспечивает равный доступ ко всем рабочим станциям и высокую надежность, так как сеть устойчива к неисправностям отдельных станций и к разрывам соединения отдельных станций.
    Контраргументы 1-го работника:

    Если мы используем соединение типа «Звезда», то отказ хаба влияет на работу всей сети, к тому же будет большой расход кабеля. А при топологии «Token Ring» будет еще больше расход кабеля и соответственно дорогостоящая разводка линий связи.
    Контраргументы 2-го работника:

    При шинной топологии разрыв кабеля может повлиять на работу всей сети. Будут ограничения по длина кабеля и количеству рабочих станций и трудно определить дефекты соединений в случае поломки.

    А используя сеть Wi-Fi в диапазоне 2.4 GHz работает множество устройств, таких как устройства, поддерживающие Bluetooth, и др, и даже микроволновые печи, что ухудшает электромагнитную совместимость. Реальная скорость передачи данных в Wi-Fi сети всегда ниже максимальной скорости. Реальная скорость зависит от многих факторов: наличия между устройствами физических преград (мебель, стены), наличия помех от других беспроводных устройств или электронной аппаратуры, расположения устройств относительно друг друга и т.п[5]. Количество одновременно-наблюдаемых Wi-Fi сетей в одной точке не может быть больше количества используемых каналов, то есть 13 каналов/сетей.

    Шинная топология


    Сети с шинной топологией используют линейный моноканал (коаксиальный кабель) передачи данных, на концах которого устанавливаются оконечные сопротивления (терминаторы). Данные от передающего узла сети передаются по шине в обе стороны, отражаясь от оконечных терминаторов. Терминаторы предотвращают отражение сигналов, т.е. используются для гашения сигналов, которые достигают концов канала передачи данных. Таким образом, информация поступает на все узлы, но принимается только тем узлом, которому она предназначается. В топологии логическая шина среда передачи данных используются совместно и одновременно всеми ПК сети, а сигналы от ПК распространяются одновременно во все направления по среде передачи.

    Топология типа “звезда”


    В сети построенной по топологии типа “звезда” каждая рабочая станция подсоединяется кабелем (витой парой) к концентратору или хабу (hub). Концентратор обеспечивает параллельное соединение ПК и, таким образом, все компьютеры, подключенные к сети, могут общаться друг с другом.

    Данные от передающей станции сети передаются через хаб по всем линиям связи всем ПК. Информация поступает на все рабочие станции, но принимается только теми станциями, которым она предназначается.

    Топология Token Ring


    Эта топология основана на топологии "физическое кольцо с подключением типа звезда". В данной топологии все рабочие станции подключаются к центральному концентратору (Token Ring) как в топологии физическая звезда. Центральный концентратор - это интеллектуальное устройство, которое с помощью перемычек обеспечивает последовательное соединение выхода одной станции со входом другой станции.

    Другими словами с помощью концентратора каждая станция соединяется только с двумя другими станциями (предыдущей и последующей станциями). Таким образом, рабочие станции связаны петлей кабеля, по которой пакеты данных передаются от одной станции к другой и каждая станция ретранслирует эти посланные пакеты. В каждой рабочей станции имеется для этого приемо-передающее устройство, которое позволяет управлять прохождением данных в сети. Физически такая сеть построена по типу топологии “звезда”.

    Концентратор создаёт первичное (основное) и резервное кольца. Если в основном кольце произойдёт обрыв, то его можно обойти, воспользовавшись резервным кольцом, так как используется четырёхжильный кабель. Отказ станции или обрыв линии связи рабочей станции не вличет за собой отказ сети как в топологии кольцо, потому что концентратор отключет неисправную станцию и замкнет кольцо передачи данных.


    1   2   3   4


    написать администратору сайта