Главная страница

Ответы экзамен теория информационных систем. Ответы к экзамену. Основные цели и задачи теории информационных процессов и систем. Характеристики информационных барьеров в развитии общества


Скачать 53.17 Kb.
НазваниеОсновные цели и задачи теории информационных процессов и систем. Характеристики информационных барьеров в развитии общества
АнкорОтветы экзамен теория информационных систем
Дата05.03.2023
Размер53.17 Kb.
Формат файлаdocx
Имя файлаОтветы к экзамену.docx
ТипДокументы
#968851
  1. Основные цели и задачи теории информационных процессов и систем. Характеристики информационных барьеров в развитии общества.


Задачи:

Определение общей структуры систем;

Организация взаимодействия между подсистемами и элементами;

Учет влияния внешней среды;

Выбор оптимальной структуры системы;

Выбор оптимальных алгоритмов функционирования системы.

Х-ки информационных барьеров:

Первый информационный барьер был связан с изобретением письменности, которая дала возможность сохранять и передавать знания. До этого мозг человека был единственным хранилищем информации.

Второй информационный барьер был связан с изобретением книгопечатания, что резко увеличило число носителей информации.

Третий информационный барьер возник после появления ЭВМ, которые дали возможность организовать хранение больших массивов информации и быстрый поиск интересующих пользователя сведений. Работа по преодолению барьера требует совершенствования технических средств хранения, обработки данных и прикладных программ.
  1. Основные понятия: информация, меры информации, сигнал, информационные системы.


Информация – сообщение, осведомление о положении дел, сведения о чем-либо, передаваемые людьми; ISO: “значение, которое человек приписывает данным на основе имеющихся соглашений. Данные – это представление фактов и инструкций в виде, удобном для передачи и обработки человеком или машиной”.

Информационные системы – любая система, реализующая или поддерживающая информационный процесс.

Информационный процесс – любой процесс, в котором присутствует хотя бы один из элементов: передача информации, её прием, хранение, обработка, выдача пользователю.

Мера информации – величина, измеряющая изменение вероятности события под действием сообщения.

Сигнал – отображение сообщения, материальный носитель сообщения.
  1. Основные понятия: энтропия, система, канал передачи информации, сигнал, помеха, шум.


Энтропия – мера априорной неопределенности системы. (Энтропия системы – сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей с обратным знаком).

Система – множество предметов со связями между ними и их признаками.

Канал передачи информации – совокупность технических средств, служащих для передачи сообщения от источника к потребителю.

Помеха – любое воздействие, накладывающееся на полезный сигнал и затрудняющее его прием.

Шум – неотфильтрованный поток информации, в котором полезность полученных данных уменьшается прямо пропорционально количеству этих данных.
  1. Понятие «система»: цель, функция, элемент, подсистема, иерархия, связь, состояние, поведение, целостность, открытые и закрытые системы.


Цель — желаемое состояние системы или желаемый результат ее поведения. Для не целеустремленных систем цель может быть сформулирована только надсистемой, т. е. системой высшего ранга, а для целеустремленных систем (организации) в формулировании и установке целей могут принимать участие управляющие подсистемы.

Функции – характеризует проявление свойств системы и является поведением системы в некоторой среде.

Подсистема – компоненты, более крупные чем элементы, и более детальные, чем система в целом.

Элемент – предел деления системы с точки зрения решения конкретной задачи и поставленной цели.

Иерархия – упорядоченность компонентов по степени важности.

Связь характеризует возникновение и сохранение структуры и целостных свойств системы.

Состояние характеризует описание системы в данный момент времени.

Поведение – способность системы переходить из одного состояния в другое.

Целостность – свойство системы не являться суммой свойств элементов системы или частей.

Закрытая система – системы, ограниченная от окружающего мира, взаимодействие протекает только между её структурными компонентами, внутри самой системы.

Открытая система – противоположна закрытой, она функционирует благодаря взаимодействию с окружающей средой.
  1. Вероятностный подход в описании информационных процессов. Мера Хартли.


Вероятностный подход предполагает, что возможные события имеют различные вероятности реализации.

Мера Хартли – количество информации в сообщении о некотором событии существенно зависит от вероятности этого события.
  1. Виды информации: топологическая, лингвистическая, абстрактная, техническая, научная, безразмерная.


Топологическая информация – геометрические образы, географические карты, объемные объекты.

Абстрактная информация используется в случаях научных исследований на высоком теоретическом уровне.

Безразмерная информация соответствует количеству элементов и получается в результате дискретизации информационного комплекса.

Научная информация – логическая адекватно-отображающая объективные закономерности природы, общества и мышления.

Лингвистическая информация - представляется в виде знака, буквы, слова, предложения, фонда

Техническая информация - информация, которая передается по каналам связи и отображается на экранах дисплеев.
  1. Составляющие информационного процесса: сигнал (содержание, форма), сообщение (код знаков, код слов и предложений), сведения (понятия, смысл), информация (новизна, смысл), физический, технологический, семантический, прагматический уровни информационного процесса.

Форма сигнала – сумма простейших гармонических колебаний.

Содержание – в качестве сигнала используются не сами объекты, а их состояния

Сообщение – передача информации с помощью сигналов.

Код – совокупность знаков (символов) и система определенных правил, при помощи которых информация может быть представлена (закодирована) в виде набора символов для передачи, обработки и хранения.

Сведения – факты или данные характеризующие кого- или что-либо.

Информация – сведения о каком-либо явлении, событии, объекте.

Новизна информации – уменьшение неопределённости объекта или явления.

Смысл информации – возможность для человека находить желаемое.

Физический уровень –комплекс взаимосвязанных моделей, формализующих процессы технологического преобразования данных.

Технологический уровень – часть информационного процесса, содержащая действия по изменению состояния информации.

Семантический уровень раскрывает зависимость процессов передачи информации и возникновения, коммуникации между субъектами от употребляемых знаково-языковых форм.

Прагматический уровень – информация – мера достижения потребителем информации поставленной практической цели.
  1. Энтропия зависимых и независимых систем.


Энтропия независимых систем – под энтропией сложной системы состоящей из независимых систем понимают сумму произведений вероятностей всех возможных ее состояний на их логарифмы с обратным знаком: H(X,Y) = H(X,Y) + H(X,Y)

Энтропия зависимых систем – H(Y | X) = -∑∑ * Pij * log P(yj | xi)
  1. Информационные системы, информационный ресурс и информационная среда.


Информационный ресурс – совокупность данных, организованных для эффективного получения достоверной информации.

Информационная среда – полный набор условий для технологической переработки и эффективного использования знаний в виде информационного ресурса.
  1. Структурные, статистические и семантические меры информации. Классификация информационных систем.


Структурная мера информации — подход, при котором информация рассматривается как сообщение.

Статистическая мера информации – подход, при котором информация рассматривается как результат определенного выбора среди возможных сообщений.

Семантическая мера информации – отношение между формой сообщения и его смысловым содержанием.
  1. Понятие о сигналах


В качестве сигнала можно использовать любой физический процесс, изменяющийся в соответствии с передаваемым сообщением. Существенно то, что сигналом является не сам физический процесс, а изменение отдельных параметров этого процесса.
  1. Модуляция и демодуляций сигналов.


Модуляция состоит в том, что один из параметров переносчика изменяется во времени в соответствии с передаваемым сообщением.

Демодуляция – извлечение из модулированного сигнала модулирующего сигнала. При этом производятся действия, обратные операции модуляции.
  1. Функциональная схема передачи информации.


Источник – Передатчик – Линия (<- Источник помех) – Приемник – Потребитель

Функциональная схема системы передачи дискретных сообщений

Источник – Кодер – Модулятор – Канал – Демодулятор – Декодер – Получатель
  1. Уравнение передачи информации


x(t) = u * s(t – r) + w(t), s(t) – сигнал на входе канала, w(t) – помеха; u и r – затухание и время задержки сигнала.
  1. Информационные характеристики сигналов. Классификация сигналов.


Длительность сигнала(T) – интервал времени, в пределах которого сигнал существует.

Динамический диапазон – отношение наибольшей мгновенной мощности сигнала к наименьшей.

Ширина спектра сигнала(F) – скорость изменения сигнала внутри интервала его существования.

Сигналы: детерминированные и случайные
  1. Кодирование сигналов. Равномерные, неравномерные, обыкновенные, корректирующие коды.


При кодировании происходит процесс преобразования элементов сообщения в соответствующие им числа. Каждому элементу сообщения присваивается определенная совокупность кодовых символов, которая называется кодовой комбинацией.

Равномерные – коды, у которых кодовые комбинации имеют одинаковую длину.

Неравномерные – коды, у которых кодовые комбинации отличаются друг от друга не только взаимным расположением символов 0 и 1, но и их количеством.

Обычные – коды, у которых все возможные кодовые комбинации используются для передачи информации.

Корректирующие – коды, у которых для передачи сообщения используются не все возможные кодовые комбинации, а лишь некоторая их часть.
  1. Закономерности систем. Целостность. Иерархичность. Закон необходимого разнообразия Эшби.


Закономерности систем: целостность, интегративность, коммуникативность, иерархичность, эквифинальность, историчность, закон необходимого разнообразия, осуществимость и потенциальная эффективность систем.

Закон необходимого разнообразия Эшби - для того чтобы создать систему, способную справиться с решением проблемы, обладающей определенным, известным разнообразием, нужно, чтобы система имела еще большее разнообразие, чем разнообразие решаемой проблемы, или была способна создать в себе это разнообразие.

  1. Дискретизация и кодирование непрерывных сообщений

Дискретизация – преобразование непрерывных сообщений в дискретные.

Дискретным называют сигнал:

а) принимающий конечное число определённых значений

б) непрерывно изменяющийся во времени

в) который можно декодировать

г) несущий какую-либо информацию

Различают дискретизацию по времени и уровню. Дискретизация по времени выполняется путем взятия отсчётов функции u(t) в определенные дискретные моменты tk.
Дискретизация значений функции по уровню называется квантование. Операция квантования сводится к тому, что вместо данного мгновенного значения передаваемого сообщения b (t) передают ближайшие значения по установленной шкале дискретных уровней. При квантовании вносится погрешность, так как истинные значения заменяют округленными значениями bk. Дискретизация одновременно по времени и уровню позволяет непрерывное сообщение преобразовать в дискретное, которое затем кодируется.

  1. Помехи и их классификации. Шум.

Помеха – это любое воздействие, накладывающееся на полезный сигнал и затрудняющее его прием.

Классификация помех:

— по происхождению (месту возникновения), напр. (внутренние шумы аппаратуры (тепловые шумы))

— по физическим свойствам:

Флуктуационные - случайный процесс с нормальным распределением.

Импульсные - помехи в виде одиночных импульсов, следующих один за другим через такие большие промежутки времени, что переходные явления в радиоприемнике от одного импульса успевают практически затухнуть к моменту прихода следующего импульса.

Сосредоточенные помехи - сигналы посторонних радиостанций, излучения генераторов высокой частоты различного назначения и т. п.

— по характеру воздействия на сигнал:

Аддитивные - помеха, мгновенные значения которой складываются с мгновенными значениями сигнала. 

Мультипликативные помехи - помеха, мгновенные значения которой перемножаются с мгновенными значениями.

Шум - помехи, искажающие передаваемый сигнал и приводящие к потере информации. Такие помехи возникают по техническим причинам, таким как плохое качество линий связи, незащищенность друг от друга потоков информации, передаваемых по одним каналам.

  1. Формула Найквиста

В 1928 году Джон Б. Джонсон обнаружил, а Гарри Найквист объяснил явление теплового шума. В отсутствиe тока, протекающего через электрическое сопротивление, среднее квадратичное напряжение зависит от сопротивления



  1. Признаки детерминированных и стохастических систем

Стохастические системы – системы, изменения в которых носят случайный характер. Например, воздействие на энергосистему различных пользователей. Случайных данных о состоянии системы недостаточно для предсказания в последующий момент времени.

Детерминированные системы – это системы, для которых состояние системы однозначно определяется начальными значениями и может быть предсказано для любого момента времени называются детерминированными. Детерминированные системы в качестве признаков объектов и классов используют признаки, принимающие конкретные числовые значения, которые могут быть рассмотрены как координаты точки, соответствующей данному объекту.

  1. Системный подход и системный анализ

Системный подход и системный анализ означает необходимость исследования объекта с разных точек зрения, включая целевое назначение системы, функции выполняемые системой, внутреннюю структуру системы, а также ее взаимосвязь с вешней средой, в том числе с др. объектами.

При системном подходе выделяют этапы исследования, методику выполнения отдельных этапов в конкретных условиях, анализ полученных результатов, корректировку целей дальнейших исследований и соответствующих методик. В целом полагают, что системный подход является методологией исследования целенаправленных систем.

Системный анализ включает:

  1. Количественное обоснование степени соответствия управляющих воздействий цели системы

  2. Анализ информационных процессов с управлением

  3. Анализ процессов функционирования системы на основе экономических критериев.



  1. Общая характеристика количественных методов описания систем

Количественные методы описания систем заключаются в анализе вариантов и их количественных характеристиках точности.

Количественные методы описания систем связаны с решением следующих задач:

  • оценкой показателей, характеризующих различные свойства систем;

  • выбором оптимальной структуры системы;

  • выбором оптимальных значений ее параметров.



  1. Теоретико-множественное описание информационных систем

1) Система функционирует во времени. В каждый момент времени система находится в одном из возможных состояний. Данное допущение характеризует динамический характер процесса функционирования во времени и пространстве. При этом функционирование протекает как последовательная смена состояния системы под действием внутренних и внешних причин.

2) На вход системы могут поступать входные сигналы.

3) Система способна выдавать выходные сигналы.

Второе и третье допущения характеризуют взаимодействие с внешней средой.

4) Состояние системы в данный момент времени определяется предыдущим состоянием и входными сигналами, поступающими на вход в данный момент времени и поступившими ранее.

5) Выходные сигналы в данный момент времени определяются состояниями системы и входными сигналами, относящимися к данному и предшествующему моменту времени.

6) Четвертое и пятое характеризуют реакцию системы на внешние воздействия и внутренние факторы.

Считается, что система характеризуется последействием. Оно проявляется в том, что состояние системы в последние моменты времени зависит не только от входного воздействия, но и от того состояния, в котором система находилась в настоящие моменты времени.

При описании систем используют принцип физической реализуемости. Сущность данного принципа – система не реагирует в данный момент времени на потенциально будущие факторы и воздействия внешней среды.

  1. Параметры информационных систем и их элементов. Избыточность сигналов

Параметрами информационных систем и их элементов являются связь, состояние, поведение, равновесие, устойчивость, цель и т.д.

Избыточность сигналов - мера возможного сокращения (без потери информации) сигнала за счет использования статистических взаимосвязей между его элементами.

  1. Скорость передачи информации, пропускная способность канала, помехоустойчивость

Скорость передачи информации — количество информации, передаваемое за единицу времени.

Пропускная способность канала — максимальная скорость передачи информации по каналу связи в единицу времени при фиксированных ограничениях.

C=max R=max ;

  1. Общая характеристика качественных методов описания систем

В качественных методах основное внимание уделяется организации постановки задачи, этапам ее формализации, формированию вариантов, выбору критериев оценки вариантов, использованию опыта человека, которые не всегда могут быть выражены в количественных характеристиках.

  1. Метод мозговой атаки, типа сценариев, Дельфи, типа дерева целей

  1. метод типа мозговая атака или коллективная генерация идей подразумевает обеспечение как можно большей свободы участников обсуждения , т.е поддержку любых идей, отсутствие критики во время обсуждения. Метод “мозговой атаки” может быть в виде совещания, научных советов.

  2. метод типа сценариев.

Сценарием является любой документ, содержащий анализ рассматриваемой проблемы или предложения по ее решению. Сценарий является предварительной информацией, на основе которой прогнозируют дальнейшее развитие системы или совершенствование объекта. Сценарий позволяет составить представление о проблеме, а затем приступить к формализованному представлению системы в виде графиков, таблиц для проведения экспертного опроса или методов системного анализа.

  1. методы типа Дельфи.

В этом методе осуществляется процедура, обеспечивающая обмен информацией без непосредственного взаимодействия экспертов друг с другом. Это делается для того, чтобы уменьшить влияние таких психологических факторов, как присоединение к мнению наиболее авторитетного специалиста, нежелание следовать за мнением большинства, нежелание отказаться от публично выраженного мнения. Прямые дебаты заменены программной последовательных индивидуальных опросов, проводимых в форме анкетирования. Ответы экспертов обобщаются и вместе с новой дополнительной информацией поступают в распоряжение экспертов, после чего они уточняют свои первоначальные ответы. Такая процедура повторяется несколько раз до достижения приемлемой сходимости совокупности высказанных мнений. Результаты эксперимента показали приемлемую сходимость оценок экспертов после пяти туров опроса.

Недостатки метода:

    • значительный расход времени на проведение экспертизы, связанный с большим количеством последовательных повторений и оценок;

    • необходимые пересмотры экспертами своих объектов отрицательно влияют на результатах экспертизы. (отрицательная реакция экспертов после необходимого пересмотра своих объектов влияет на результаты экпертизы)

Этим методом исследуют следующие проблемы: сложные научно-технические задачи и проблемы, вопросы автоматизированного производства, разработки военной техники, проблемы, связанные с ростом народонаселения.

  1. методы типа дерево целей.

Термин “дерево целей” означает наличие у рассматриваемой системы иерархической структуры, у которой можно выделить общую цель, подцели, функции и т.д.

Наиболее широко данный метод применяется для систем, для которых характерен строгий порядок (иерархия).

  1. Область применения, назначение и основные технические характеристики SCADA - систем

Область применения: атомная промышленность, атомная энергетика, электроэнергетика, все виды транспорта, все виды связи и т.д.

Системы SCADA предназначены для разработки или обеспечения работы в реальном времени систем сбора, обработки, отображения и архивирования информации об объекте мониторинга или управления.

Основные функции:

1. мониторинг – сбор и оценка данных технического процесса.

2. управление параметрами технического процесса.

3. осуществление обратной связи входных и выходных данных в автоматическом режиме.

Технические характеристики

• С точки зрения структуры SCADA-системы можно разделить на

модульные и интегрированные

• Все рассматриваемые системы ориентированы на

Windows.

• К промышленным базам данных предъявляются

повышенные требования. Особенностями таких баз

данных является большой объем информации и

необходимость в высокой скорости обмена.

• Практически все SCADA-системы используют

синтаксис, который является независимым от типа базы

данных.

• Функционально средства создания графического интерфейса

SCADA-систем похожи.

  1. Структурные элементы, системное ПО систем SCADA

Структурные элементы SCADA-систем: управление, главный терминал и каналы связи

  1. Периодические сигналы. Линейчатый спектр.

Периодическим сигналом называют такой вид воздействия, когда форма сигнала повторяется через некоторый интервал времени T, который называется периодом.

Спектры, состоящие из отдельных линий, называют линейчатыми


  1. Случайные сигналы и их аналитическое описание.

Случайные сигналы — сигналы, мгновенные значения которых не известны, а могут быть лишь предсказаны с некоторой вероятностью, меньшей единицы. Случайный процесс описывается случайной функцией, значения которой при любом значении аргумента являются случайными величинами.


  1. Понятие о ковариационной функции случайного процесса

Ковариационной функцией случайного процесса называется математическое ожидание произведения центрированных сечений случайного процесса в моменты времени t1 и t2.

Ковариационная функция случайного процесса обычно интерпретируется как мера того, в какой степени знание прошлого случайного процесса позволяет предсказать его будущее.

  1. Гауссовский случайный процесс

Гауссовский случайный процесс — процесс, для которого все кумулянтные функции начиная с третьего порядка равны 0.

  1. Спектральная плотность мощности случайного процесса

Спектральная плотность случайного процесса определяется как преобразование Фурье корреляционной функции. Спектральную плотность случайного процесса можно найти, если известен механизм образования случайного процесса.

  1. Классификация методов модуляции

Классификация методов модуляции

Модуляция - это процесс преобразования информационного сигнала в высокочастотный сигнал с целью передачи его на большие расстояния.

  • В процессе модуляции участвуют следующие сигналы:

- модулирующий сигнал A(t), содержащий передаваемое сообщение;

- несущий сигнал x(t) на который переносится модулирующий сигнал;

- модулированный сигнал S(t) как результат воздействия модулирующего сигнала на несущий.

  • По виду передаваемого сообщения различают два вида модуляций:

- Аналоговая модуляция если A(t) непрерывный сигнал

- Дискретная модуляция если A(t) цифровой сигнал

  • По виду несущего колебания x(t) различают два вида модуляций:

- модуляция с синусоидальной (гармонической) несущей;

- модуляция с импульсной несущей.

  • Аналоговая модуляция с синусоидальной несущей, в зависимости от модулирующего параметра может быть:

- амплитудная модуляция;

- частотная модуляция;

- фазовая модуляция.

Частотные и фазовые модуляции называются угловыми модуляциями



  1. Классификация методов модуляции

Переносчик – гармоническое колебание:

амплитудная(АМ), частотная(ЧМ), фазовая(ФМ).

Переносчик – периодическая последовательность импульсов:

амплитудно-импульсная(АИМ), широтно-импульсная(ШИМ), время-импульсная(ВИМ), частотно-импульсная(ЧИМ).

При двочном коде:

дискретная и цифровая модуляции.

Относительная фазовая модуляция(ОФМ).

  1. Спектр амплитудно-модулированных сигналов при тональной и сложной модулирующей функции.

При тональной: ширина спектра равна удвоенной частоте модуляции, а амплитуды колебаний боковых частот не могут превышать половины амплитуды немодулированного колебания.

При сложной: спектр состоит из двух полос, симметричных относительно несущей частоты, причем с увеличением числа составляющих в спектре снижается значение коэффициента модуляции.

  1. Идеальные и реальные модели канала передачи информации.

Реальный канал – нелинейная инерционная система со случайными параметрами (стохастическая система).

Идеальный канал можно применять как модель реального канала, если в нём отсутствуют помехи любого вида, преобразование сигналов является детерминированным, мощность и полоса сигналов ограниченны.

  1. Детектирование амплитудно-модулированных сигналов.

В процессе детектирования происходит органическое изменение спектра: из суммы гармонических колебаний высоких частот получаются низкочастотные составляющие модулирующего сигнала.

  1. Понятие о дискретизации и квантовании сигналов.

Переход от аналогового представления сигнала к цифровому, который дает в ряде случаев значительные преимущества при передаче, хранении и обработке информации, связан с дискретизацией сигнала по времени и с квантованием по уровню.

Дискретизация состоит в преобразовании сигнала x(t) непрерывного аргумента t в сигнал x(ti) дискретного аргумента ti.

Квантование по уровню состоит в преобразовании непрерывного множества значений сигнала x(ti) в дискретное множество значений xk, k = 0,1,2,…,m-1.

  1. Классификация методов дискретизации сигналов.

Основные группы: равномерная и неравномерная дискретизации.

Группы неравномерных методов: адаптивные и программируемые.

  1. Критерии оценки точности дискретизации сигналов.

Критерий наибольшего отклонения

, E(t) – текущая погрешность

Среднеквадратический критерий



Интегральный критерий как мера отклонения



Вероятностный критерий



  1. Равномерная дискретизация. Теорема Котельникова.

При равномерной дискретизации шаг ∆t и частота отсчета являются постоянными величинами. Точки отсчетов в этом случае равномерно размещены по оси t.

Теорема Котельникова - любую функцию F(t), состоящую из частот от 0 до f1, можно непрерывно передавать с любой точностью при помощи чисел, следующих друг за другом через 1/(2f1) секунд.

  1. Понятие о кодировании информации.

Кодирование информации – представление сообщений в форме, удобной для передачи и хранения.

Кодированная информация имеет форму совокупности чисел или цифровую форму, основанную на применение какой-либо системы счисления или кодирования.

  1. Структурная схема канала передачи данных.

Источник – Кодер – Передатчик – Линия связи (<- Помехи) – Приемник – Декодер – Получатель

  1. Понятие о реальном и идеальном канале передачи данных.

В идеальном канале между элементами кодовых сигналов на входе и выходе существуют однозначное соответствие (ошибки в канале отсутствуют).

В реальных каналах всегда имеются ошибки при передаче сообщений. Ошибки приводят к уменьшению пропускной способности канала и потере информации. Вероятности появления ошибок во многом определяются искажениями сигналов и влиянием помех.

  1. Гауссовский канал и его разновидности.

Гауссовский канал – коэффициент передачи и время задержки сигналов не зависят от времени и являются детерминированными величинами, известными в месте приема сигналов; в канале действует аддитивная флуктуационная помеха – гауссовский белый шум.

Гауссовский канал с неопределенной фазой сигнала – время задержки сигнала случайно, фаза выходного сигнала случайна.

Гауссовский однолучевой канал с замираниями – коэффициент передачи канала и фазовая характеристика – случайные величины.

Гауссовский многолучевой канал с замираниями – распространение сигналов от передатчика к приемнику по различным каналам. Длительность прохождения сигналов и коэффициенты передачи различных каналов являются неодинаковыми и случайными.

Гауссовский многолучевой канал с замираниями и аддитивными сосредоточенными помехами – модель является более общей и достаточно полно отражает свойства многих реальных каналов.

  1. Методика формирования кода Шеннона-Фано, его достоинства и недостатки.

Алгоритм использует коды переменной длины: часто встречающийся символ кодируется кодом меньшей длины, редко встречающийся — кодом большей длины.

Недостатки: неоптимальность, а также данная методика не всегда приводит к однозначному построению кода.

  1. Энтропия источника независимых сообщений.

Количество передаваемой информации можно увеличить не только за счет числа сообщений, но и путем повышения энтропии источника, т.е. информационной емкости его сообщений.

  1. Энтропия источника зависимых сообщений.

Наличие статистических связей между сообщениями всегда приводит к уменьшению количества информации, приходящейся в среднем на одно сообщение.

  1. Свойства энтропии. Мера Хартли.

Свойства энтропии:

  1. энтропия всегда положительная величина, т. к. P < 1

  2. энтропия источников равна 0, если P = 0

  3. чем меньше P события, тем больше информации оно несет.

  4. максимальная энтропия имеет место для системы из двух равновероятностных независимых событий.

Мера Хартли – количество информации в сообщении о некотором событии существенно зависит от вероятности этого события.

  1. Понятие о производительности системы и скорости передачи информации.

Скорость передачи информации - объём данных, передаваемых за единицу времени. Максимальная скорость передачи данных без появления ошибок вместе с задержкой определяют производительность системы или линии связи.



написать администратору сайта