Главная страница

Курс_5. Контрольная по теории информации_2. Основы теории информации


Скачать 49.92 Kb.
НазваниеОсновы теории информации
АнкорКурс_5
Дата26.04.2022
Размер49.92 Kb.
Формат файлаdocx
Имя файлаКонтрольная по теории информации_2.docx
ТипКонтрольная работа
#499354

Контрольная работа № 2

На тему: Основы теории информации.

1. Дискретная информация характеризуется:

- повторными процессами распределения случайной величины

- непрерывным процессом изменения некоторой величины

+ последовательными точными значениями некоторой величины

2. Аналоговая информация характеризуется:

- последовательными точными значениями некоторой величины

+ непрерывным процессом изменения некоторой величины

- повторными процессами распределения случайной величины

3. При формальном представлении информации:

- ряду однородных объектов ставится в соответствие некий код, позволяющий индентифицировать любой объект из данных однородных объектов по этому коду

- совокупности объектов ставится в соответствие формальный код

+ каждому описываемому объекту или понятию ставится в соответствие некоторый числовой код

4. Специальные таблицы для перевода неформальных данных в цифровой вид называются:

- символьные преобразователями

+ таблицами кодировки

- таблицами взаимодействия

- таблицами шифрования

5. В таблице кодировки ASCII+ печатные и управляющие символы занимают:

+ первые 128 позиций таблицы

- первые 127 позиций таблицы

- все 256 символов таблицы

- последние 128 позиций таблицы

- последние 127 позиций таблицы

6. Информация может быть нескольких типов:

+ непрерывная

- устойчивая

+ дискретная

- частотная

- повторная

7. Информация может быть нескольких типов:

+ непрерывная

- частотная

- повторная

- устойчивая

+ дискретная

8. Информация может быть нескольких типов:

+ непрерывная

- частотная

+ дискретная

- повторная

- устойчивая

9. Частота дискретизации определяет:

- время, в течении которого затухают колебания исследуемой величины

- период между измерениями непрерывной величины, колеблющихся разных разных фазах

+ период между измерениями значений непрерывной величины

10. Общая схема передачи информации имеет вид:

+ исходная информация - шифровка - сжатие - шумозащитное кодирование - канал связи(проявляется действие шумов) - декодирование шумозащитных кодов - распаковка - дешифровка - полученная информация

- исходная информация - шифровка - сжатие - канал связи - распаковка - дешифровка - полученная информация - исходная информация - сжатие - шифрование - шумозащитное кодирование - канал связи(проявляется действие шумов) - декодирование шумозащитных кодов - распаковка - дешифровка - полученная информация

- исходная информация - шифровка - сжатие - шумозащитное кодирование - канал связи - декодирование шумозащитных кодов - дешифровка - распаковка - полученная информация

- исходная информация - сжатие - шумозащитное кодирование - канал связи - декодирование шумозащитных кодов - дешифровка - полученная информация

11. Клод Шеннон предложил способ изменения количества информации:

- средствами визуального определения

- путем непосредственного использования символов

+ содержащейся в одной случайной величине, относительно другой случайной величины

12. Функция f-инъекция, если:

- на разных значениях аргумента она принимает одинаковые значения

+ на разных значениях аргумента она принимает разные значения

- она зависит от двух и более аргументов

- в роли аргумента выступает функция

13. Если дискретные случайные величины X и Y заданы законами распределения P(X=Xi)=pi, P(Y=Yj)=qj и совместным распределением P(X=Xi,Y=Yj)=pij, то количество информации, содержащейся в X относительно Y равно:

- 1

- 2

+ 3

14. Если непрерывные случайные величины X, Y заданы плотностями распределения вероятностей pX(t1), pY(t2) и pXY(t1,t2), то количество информации, содержащейся в X относительно Y равно:



- 1

+ 2

- 3

15. I(X,X) =

+ 1

- 2

- 3

16. Укажите свойства меры информации и энтропии:

+ 1, 3

- 2, 5

+ 4, 6

+ 1, 4

- 2, 6

17. Если задана функция inf(s)=-log[sub]2[/]p(s), где s-это предложение, смысловое содержание которого измеряется, p(s) - вероятность истинности s, то эта функция обладает свойствами:

+ если s-истинно, то inf(s)=0 - inf(s)>=0

+ если s[sub]1[/]=>s[sub]2[/] - истинно, то inf(s[sub][/]1)>=inf(s[sub]2[/])

- inf(s)<=0

+ если s[sub]1[/]=>s[sub]2[/] - истинно, то inf(s[sub][/]1)<=inf(s[sub]2[/])

18. Если задана функция inf(s)=-log[sub]2[/]p(s), где s-это

предложение, смысловое содержание которого измеряется, p(s) - вероятность истинности s, то если s[sub]1[/]=>s[sub]2[/]:

- inf(s[sub]1[/])<=inf(s[sub]2[/])

+ inf(s[sub]1[/])>=inf(s[sub]2[/])

- inf(s[sub]1[/])=inf(s[sub]2[/])

19. Если задана функция inf(s)=-log[sub]2[/]p(s), где s-это предложение, смысловое содержание которого измеряется, p(s) - вероятность истинности s, то:

+ inf(s)>=0

- inf(s)<=0

+ inf(s)=0, при условии, что s - истинно

20. Найти среднюю длину code1 для дискретной случайной величины X:

- ML1(X)=2.2 бит/сим

- ML1(X)=3.5 бит/сим

+ ML1(X)=3 бит/сим

21. Найти среднюю длину code2 для дискретной случайной величины X:

- ML2(X)=3 бит/сим

+ ML2(X)=2.2 бит/сим

- ML2(X)=3.2 бит/сим

22. Найти среднюю длину code3 для дискретной случайной величины X:

+ ML3(X)=2.2 бит/сим

- ML3(X)=2.8 бит/сим

- ML3(X)=3 бит/сим

23. Суть основной теоремы о кодировании при отсутствии помех заключается в том, что:

- при очень малой длине n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет сколь угодно мало отличаться от энтропии единицы сообщения. Данное правило действует только на короткие сообщения

- с ростом длины n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет очень удалено от энтропии единицы сообщения

+ с ростом длины n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет сколь угодно мало отличаться от энтропии единицы сообщения

24. Кодирование, основанное на основной теореме о кодировании при отсутствии помех:

- легко реализуемо

+ практически не реализуемо

- невозможно

25. Недостатками кодирования, основанного на основной теореме о кодировании при отсутствии помех, являются:

+ такое кодирование делает невозможным отправку сообщения по частям

- отправка сообщения по частям происходит очень медленно

- исходная длина кода не должна передаваться вместе с сообщением

+ необходимость отправки или хранения собственно полученного кода вместе с его исходной длиной

26. Метод Шеннона-Фэно состоит в том, что:

- значения дискретной случайной величины располагают в порядке возрастания их вероятностей, а затем последовательно умножают на две части с приблизительно равными вероятностями, к коду первой части добавляют 0, а к коду второй - 1

- значения дискретной случайной величины располагают в порядке убывания их вероятностей, а затем последовательно делят на две части с приблизительно равными вероятностями, к коду первой части добавляют 1, а к коду второй - 0

+ значения дискретной случайной величины располагают в порядке убывания их вероятностей, а затем последовательно делят на две части с приблизительно равными вероятностями, к коду первой части добавляют 0, а к коду второй - 1

27. По методу Хаффмена код строится:

- на основе реляционной теории

+ при помощи двоичного дерева

- посредством линейной структуры

28. Максимально плотно сжимает метод:

+ Хаффмена

- Шеннона-Фэно

- Винера

29. Вычислить длины в битах сообщения "AABCDAACCCCDBB" в коде ASCII+ и его полученного кода

+ L(AABCDAACCCCDBB) = 62 бит, длина исходного сообщения = 112 бит

- L(AABCDAACCCCDBB) = 52 бит, длина исходного сообщения = 94 бит

- L(AABCDAACCCCDBB) = 76 бит, длина исходного сообщения = 137 бит

30. Считая, что код генерируется дискретной случайной величиной X с распределением P(X=A)=2/3, P(X=B)=1/3 вычислить длины кодов Хаффмена, блочного Хаффмена (для блоков длины 2 и 3) для сообщения ABAAAB:

- LХаффмена-1(ABAAAB) = 5 бит, LХаффмена-2(ABAAAB) = 5 бит, LХаффмена-3(ABAAAB) = 6 бит

- LХаффмена-1(ABAAAB) = 5 бит, LХаффмена-2(ABAAAB) = 6 бит, LХаффмена-3(ABAAAB) = 4 бита

+ LХаффмена-1(ABAAAB) = 6 бит, LХаффмена-2(ABAAAB) = 5 бит, LХаффмена-3(ABAAAB) = 5 бит

31. Считая, что код генерируется дискретной случайной величиной X с распределением P(X=A)=2/3, P(X=B)=1/3 вычислить длину арифметического кода для сообщения ABAAAB:

- Lарифметический(ABAAAB) = 2 бита

+ Lарифметический(ABAAAB) = 1 бит

- Lарифметический(ABAAAB) = 1.5 бит

32. Закодировать сообщение "СИНЯЯ СИНЕВА СИНИ", используя адаптивный алгоритм Хаффмена с упорядоченным деревом:

+ код(СИНЯЯ СИНЕВА СИНИ) = 'С'0'И' 00'Н'100'Я'001100'

'101001011100'Е'11000'В'10100'А'1010101101101111

- код(СИНЯЯ СИНЕВА СИНИ) = 'С'0'И' 00'Я'101'Я'001101'

'101001011100'С'11110'И'10100'И'1010111101101011

- код(СИНЯЯ СИНЕВА СИНИ) = 'С'0'И' 01'Я'100'Я'111100'

'101001011100'Е'11010'В'11100'А'1010111100101010

33. Закодировать сообщение BBCBBC, используя адаптивный алгоритм Хаффмена с упорядоченным деревом:

- 'C'01'B'0100

- 'B'11'C'1001

+ 'B'10'C'1101

34. Закодировать сообщение "AABCDAACCCCDBB", используя адаптивный алгоритм Хаффмена с упорядоченным деревом:

- код(AABCDAACCCCDBB) =

'A'10'B'00'C'011'D'00011001111100110011110

+ код(AABCDAACCCCDBB) =

'A'10'B'00'C'000'D'00011001111100110011001

- код(AABCDAACCCCDBB) =

'A'11'B'11'C'010'D'00011001111100110000101

35. Закодировать сообщение "КИБЕРНЕТИКИ", используя адаптивный алгоритм Хаффмена с упорядоченным деревом:

+ код(КИБЕРНЕТИКИ) = 'К'0'И'00'Б'100'Е'000'Р'1

100'Н'1111000'Т'100110111

- код(КИБЕРНЕТИКИ) = 'К'0'И'00'Б'101'Е'010'Р'1

100'Н'1100001'Т'100110001

- код(КИБЕРНЕТИКИ) = 'К'0'И'00'Б'100'Е'000'Р'1

100'Н'1111000'Т'101010001

36. Вычислить длины в битах сообщения "КИБЕРНЕТИКИ" в коде ASCII+ и его полученного кода

- L(КИБЕРНЕТИКИ) = 98 бит, длина исходного сообщения = 102 бита

- L(КИБЕРНЕТИКИ) = 72 бита, длина исходного сообщения = 75 бит

+ L(КИБЕРНЕТИКИ) = 85 бит, длина исходного сообщения = 88 бит

37. Вычислить длины в битах сообщения "СИНЯЯ СИНЕВА СИНИ" в коде ASCII+ и его полученного кода

- L(СИНЯЯ СИНЕВА СИНИ) = 104 бит, длина исходного сообщения = 124 бит

+ L(СИНЯЯ СИНЕВА СИНИ) = 114 бит, длина исходного сообщения = 136 бит

- L(СИНЯЯ СИНЕВА СИНИ) = 124 бит, длина исходного сообщения = 148 бит

38. Составить адаптивный арифметический код с маркером конца для сообщения BAABC:

+ 01000010111001

- 01000011000011

- 01000010110100

39. Распаковать сообщение 'A'0'F'00'X'0111110101011011110100101, полученное по адаптивному алгоритму Хаффмена с упорядоченным деревом

- FFXAAAXFXAXFFAA

- AFXFFAXFXAXAAAF

+ AFXAFFXFXAXAFFA

40. LZ77 и LZSS обладают следующими очевидными недостатками:

+ невозможность кодирования подстрок, отстоящих друг от друга на расстоянии, большем длины словаря

- длина подстроки, которую можно закодировать, ограничена размером оперативной памяти компьютера

+ длина подстроки, которую можно закодировать, ограничена размером буфера

41. При чрезмерном увеличении размера словаря и буфера для алгоритмов LZ77 и LZSS, то это приведет:

- к снижению стойкости кода

- к увеличению эффективности кодирования

+ к снижению эффективности кодирования

42. "Скользящее" окно НЕ использует алгоритм:

- LZ77

+ LZ78

- LZSS

43. Закодировать сообщения "СИНЯЯ СИНЕВА СИНИ", вычислить длины в битах полученных кодов, используя алгоритм LZW (словарь - ASCII+ и 16 фраз):

+ 0'C'0'И'0'Н'0'Я'0'Я'0"(256)0'Н'0'Е'0'В'0'А'(257)О'И', длина 14 * 9 = 126 бит

- 0'C'0'И'0'Н'0'Я'0"(261)0'Н'0'Е'0'В'0'А'(256)(256)О'И', длина 13 * 9 = 117 бит

- 1'C'1'И'0'Н'0'Я'1'Я'0"(256)0'Н'1'Е'0'В'0'А'(256)(261)О'И', длина 12 * 9 = 108 бит

44. Запатентованным является алгоритм:

- LZ78

- LZSS

+ LZW

45. Закодировать сообщения "AABCDAACCCCDBB", вычислить длины в битах полученных кодов, используя алгоритм LZ77 (словарь - 12 байт, буфер - 4 байта):

- (0,0,'А')(10,1,'В')(1,0,'C')(11,1,'D')(7,2,'D')(11,2,'C')(5,2, 'B')(0,0,'B'), длина 8 * 13 = 104 бита

+ (0,0,'А')(10,1,'В')(1,0,'C')(11,1,'D')(7,2,'D')(11,2,'C')(5,2, 'B')(0,0,'B'), длина 8 * 15 = 120 бита

- (0,0,'А')(11,1,'С')(0,0,'C')(10,10,'С')(8,2,'С')(7,11,'C')(7,8, 'B')(10,0,'B'), длина 8 * 10 = 80 бита


написать администратору сайта