Главная страница
Навигация по странице:

  • Виды информации и её свойства ( Материал из Викиучебника )Понятие информации, ее виды и свойства

  • Полнота

  • Актуальность

  • Аналоговая и цифровая информация

  • Виды информации и её свойства. Информацией (от лат informatio научение, сведение, оповещение) называется продукт взаимодействия данных и методов, рассмотренный в контексте этого взаимодействия. Информация первична и содержательнаисточник


    Скачать 83 Kb.
    НазваниеИнформацией (от лат informatio научение, сведение, оповещение) называется продукт взаимодействия данных и методов, рассмотренный в контексте этого взаимодействия. Информация первична и содержательнаисточник
    АнкорВиды информации и её свойства.doc
    Дата29.04.2017
    Размер83 Kb.
    Формат файлаdoc
    Имя файлаВиды информации и её свойства.doc
    ТипДокументы
    #6225
    КатегорияИнформатика. Вычислительная техника

    Информа́цией (от лат. informatio — «научение», «сведение», «оповещение») называется продукт взаимодействия данных и методов, рассмотренный в контексте этого взаимодействия. Информация первична и содержательна[источник?] — это категория, [источник?], поэтому в категориальный аппарат науки она вводится портретно — описанием, через близкие категории: материя, система, структура, отражение. В материальном мире (человека) информация материализуется через свой носитель и благодаря ему существует. Сущность материального мира предстаёт перед исследователем в единстве формы и содержания. Передаётся информация через носитель. Материальный носитель придаёт информации форму. В процессе формообразования производится смена носителя информации. Определения термин информация не имеет, так как не является[источник?] понятием. Существует информация в каналах связи систем управления. Не следует путать категорию информация с понятием знание. Знание определяется[источник?] через категорию информация.
    В XX веке слово «информация» стало термином во множестве научных областей, получив особые для них определения и толкования. [1].
    Согласно "Новейшему философскому словарю", ИНФОРМАЦИЯ (лат. informatio — разъяснение, изложение, осведомленность) — одно из наиболее общих понятий науки, обозначающее некоторые сведения, совокупность каких-либо данных, знаний и т.п.(статья Информация)

    В более старом и менее строгом представлении, слово Информация было производным от Информировать, т. е., поставлять какие-либо сведения (такое значение, например, в толковом словаре).

    Согласно тому же философскому словарю, Информация не может быть передана, принята или хранима в чистом виде. Носителем ее является сообщение. Таким образом, информация не существует сама по себе, а только через использование носителя, которым может быть очень многое - от звука или сотрясания твёрдых предметов до импульсов электрической энергии.

    На сегодня наиболее используемые виды информации - текстовая (книги, письма, документация и др.) и электронная (наборы электронных знаков, которыми записана какая-либо информация, от текстов до фильмов).

    По-видимому, только философия рассматривает информацию как таковую, научная работа же направлена не на неё, а на различные способы получения информации, способы хранения, передачи, обработки, интерпретации, в соответствии со спецификой научных дисциплин (таких как Информатика, Литературоведение, Биология, Юриспруденция и все остальные сферы знаний).

    Несмотря на недостаточную чёткость в представлении людей о значении слова "информация", сама информация является единственным средством взаимодействия человека как с другими людьми, так и с познаваемым миром. Обо всех моментах, в которые мы "что-то узнали" можно сказать, что мы "получили информацию". Само познание возможно лишь благодаря способности человека выделять из окружающего мира (в самом широком смысле слова) информацию и пригодности мира быть проводником для передачи информации.
    Виды информации и её свойства

    ( Материал из Викиучебника )
    Понятие информации, ее виды и свойства

    В литературе можно найти достаточно много определений термина «информация», отражающих различные подходы к толкованию этого понятия. В «Федеральный закон Российской Федерации от 27 июля 2006 г. N 149-ФЗ Об информации, информационных технологиях и о защите информации» (http://www.rg.ru/2006/07/29/informacia-dok.html) дается следующее определение этого термина: «информация — сведения (сообщения, данные) независимо от формы их представления». Толковый словарь русского языка Ожегова приводит 2 определения слова «информация»:

    Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.

    Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь. (Научно-техническая и газетная информации, средства массовой информации — печать, радио, телевидение, кино).
    Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации), кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах), семиотика (наука о знаках и знаковых системах), теория массовой коммуникации (исследование средств мас-совой информации и их влияния на общество), информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки), соционика (теория информационного метаболизма индивидуальной и социальной психики), информодинамика (наука об открытых информационных системах), информациология (наука о получении, сохранении и передаче информации для различных множеств объектов) и т. д.
    В информатике наиболее часто используется следующее определение этого термина: Информация — это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования. Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т. д. Каждого человека в мире окружает море информации различных видов.
    Стремление зафиксировать, сохранить надолго свое восприятие информации было всегда свойственно человеку. Мозг человека хранит множество информации, и использует для хранения ее свои способы, основа которых — двоичный код, как и у компьютеров. Человек всегда стремился иметь возможность поделиться своей ин-формацией с другими людьми и найти надежные средства для ее передачи и долговременного хранения. Для этого в настоящее время изобретено множество способов хранения информации на внешних (относительно мозга человека) носителях и ее передачи на огромные расстояния.
    Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики, это:

    +графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;

    +звуковая — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретение звукозаписывающих устройств в 1877 г. (см., например, историю звукозаписи на сайте — http://radiomuseum.ur.ru/index9.html); ее разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение ее аналогично графической информации;

    +текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;

    +числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для ее отображения используется метод кодирования специальными символами — цифрами, причем сис-темы кодирования (счисления) могут быть разными;

    +видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.
    Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др.
    Для передачи информации на большие расстояния первоначально использовались кодированные световые сигналы, с изобретением электричества — передача закодированного определенным образом сигнала по проводам, позднее — с использованием радиоволн.
    Создателем общей теории информации и основоположником цифровой связи считается Клод Шеннон (Claude Shannon). Всемирную известность ему принес фундаментальный труд 1948 года — «Математическая теория связи» (A Mathematical Theory of Communication), в котором впервые обосновывается возможность применения двоичного кода для передачи информации.
    С появлением компьютеров (или, как их вначале называли в нашей стране, ЭВМ — электронные вычислительные машины) вначале появилось средство для обработки числовой информации. Однако в дальнейшем, особенно после широкого распространения персональных компьютеров (ПК), компьютеры стали использоваться для хранения, обработки, передачи и поиска текстовой, числовой, изобразительной, звуковой и видеоинформации. С момента появления первых персональных компьютеров — ПК (80-е годы 20 века) — до 80 % их рабочего времени посвящено работе с текстовой информацией.
    Хранение информации при использовании компьютеров осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются новые устройства и носители информации. Обработку информации (воспроизведение, преобразование, передача, запись на внешние но-сители) выполняет процессор компьютера. С помощью компьютера возможно создание и хранение новой информации любых видов, для чего служат специальные программы, используемые на компьютерах, и устройства ввода информации.
    Особым видом информации в настоящее время можно считать информацию, представленную в глобальной сети Интернет. Здесь используются особые приемы хранения, обработки, поиска и передачи распределенной информации больших объемов и особые способы работы с различными видами информации. Постоянно совершенствуется программное обеспечение, обеспечивающее коллективную работу с информацией всех видов.
    Свойства информации
    Как и всякий объект, информация обладает свойствами. Характерной отличительной особенность информации от других объектов природы и общества, является дуализм: на свойства информации влияют как свойства исходных данных, составляющих ее содержательную часть, так и свойства методов, фиксирующих эту информации.

    С точки зрения информатики наиболее важными представляются следующие общие качественные свойства: объективность, достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр.

    Объективность информации. Объективный – существующий вне и независимо от человеческого сознания. Информация – это отражение внешнего объективного мира. Информация объективна, если она не зависит от методов ее фиксации, чьего-либо мнения, суждения.

    Пример. Сообщение «На улице тепло» несет субъективную информацию, а сообщение «На улице 22°С» – объективную, но с точностью, зависящей от погрешности средства измерения.

    Объективную информацию можно получить с помощью исправных датчиков, измерительных приборов. Отражаясь в сознании конкретного человека, информация перестает быть объективной, так как, преобразовывается (в большей или меньшей степени) в зависимости от мнения, суждения, опыта, знаний конкретного субъекта.

    Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Объективная информация всегда достоверна, но достоверная информация может быть как объективной, так и субъективной. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:

    преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;

    искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.

    Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

    Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.

    Актуальность информации – важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.

    Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.
    Самая ценная информация – объективная, достоверная, полная, и актуальная. При этом следует учитывать, что и необъективная, недостоверная информация (например, художественная литература), имеет большую значимость для человека. Социальная (общественная) информация обладает еще и дополнительными свойствами:

    имеет семантический (смысловой) характер, т. е. понятийный, так как именно в понятиях обобщаются наиболее существенные при-знаки предметов, процессов и явлений окружающего мира.

    имеет языковую природу (кроме некоторых видов эстетической информации, например изобразительного искусства). Одно и то же содержание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т. д.
    С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации. (Кумуляция – от лат; cumulatio – увеличение, скопление).
    Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) – медленнее.
    Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.
    -----------------------------------------------------

    Введение
    «Информация» в разговорном языке означает передаваемые сведения, знания; нечто осмысленное и как-то полезное получателю. Такое словоупотребление довольно верно́: informare с латыни — «научать». Информацией является и эта книга. Для примера — кусочек информации:

    дерево
    Это слово несёт обширный и притом чёткий смысл: вы знаете о деревьях и видели их немало, можете вспомнить научные истины о природе, строении и видах деревьев или вообразить какое-нибудь дерево в уме. Но что вы воистину знаете? Ведь, глядя на дерево, мы не принимаем в память само вещественное дерево, а видим лишь отражённый от него свет, и даже тот не «захватываем» по правде: попав на сетчатку глаза, свет преобразуется в электрические импульсы в нашем мозгу. Под их действием состояния многих-премногих нейронов поменялись и зримый образ дерева отпечатался в памяти.
    Поэтому «дерево» для вас — не просто ряд из шести букв (сам по себе содержащий пустяково мало информации), но знак, вызывающий огромный объём воспоминаний, впечатлений, ассоциаций, знаний о деревьях. Мы вспоминаем информацию, полученную через органы чувств.
    Ваша подруга по мобильному сказала, что гуляет в парке. Возможно, она лжёт о своём занятии, — даёт совершенную дезинформацию. Но слова и интонации голоса были слышны, стало быть, в каком-то смысле дала информацию. Есть где запутаться.

    Знаки
    В примере с деревом информация передавалась световыми лучами, в примере с подругой информацию несли радиоволны, передаваемые сотовой телефонной сетью.
    Матрос совершает особые взмахи флажками. Лишь увидев его, мы получаем информацию. Но зная расшифровку жестов, мы можем получить ещё больше информации (или же дезинформацию!) от матроса.




    Такая последовательность жестов будет означать: «внимание».
    Информация по оптоволокну передается следующим образом: светодиод загорается и тухнет в определенном порядке, свет внутри оптоволокна передает информация от последовательности включения и выключения светодиода к фотоприемнику, фотоприемник преобразует свет в импульсы электрического напряжения.
    Звуковые волны, так же как и свет могут отражаться от преград, таким образом можно получать информацию, например, о рельефе дна водоема. По такому принципу работает эхолот.
    Через воздух передается речь.
    Человечество изобрело кучу способов передавать информацию посредством электричества. Телеграф это одно из самых первых способов передачи информации посредством электричества. Для того, чтобы передавать информацию через телеграф была придумана специальная азбука – азбука Морзе. Высокий потенциал в течении короткого времени назвали точкой, высокий потенциал в течении длительного времени назвали тире. Определенная последовательность точек и тире обозначает одну букву. Например, последовательность точка, точка, точка, пауза, тире, тире, тире, пауза, точка, точка, точка передает информацию о бедствии – SOS.
    С изобретением телефона человечество научилось передавать с помощью электричества голосовую информацию. Последовательное изменение давления воздуха (звуковые колебания) преобразовывалось в последовательное изменение электрического напряжение, которое передавалось по проводам и потом обратно преобразовывалось в звуковые колебания.
    Посредством радиоволн информация передается через сотовую связь, так же она передается от радиостанций и телестанций, радары получают информацию о движении самолетов, компьютере через радиомодемы и беспроводные сети друг с другом общаются.
    С помощью радиации (рентгеновское излучение) врачи получают информации о внутреннем состоянии больного. Искусствоведы узнают о том, что под слоем краски картины неизвестного художника спрятано, произведение гениального художника Леонардо да Винчи.
    Хранение информации
    Свет далёких звёзд добирается до нас годы, века, тысячелетия… Свойства света от звезды несут информацию о ней. Пока свет летит, он хранит о ней информацию, но это очень ненадежный способ хранения. Стоит только свету попасть в телескоп или просто в глаз человеку, хуже — просто встретить случайную преграду, так тут же информация о звезде преобразуется в другой вид, да в такой, что никакими ухищрениями нам её преобразовать к понятному представлению не удастся. После получения информации её нужно где-то хранить.
    Один способ хранения информации — человеческий мозг. Человек, что-то услышал, что-то увидел, что-то почувствовал и информация тут же сохранилась у него в мозгу. Потом все, что он запомнил, он рассказывал своим детям и внукам, так хранились легенды и предания.
    Наскальные рисунки это тоже способ хранения информации, достаточно трудоемкий, но зато очень надежный.
    Очень долго бумага была практически главным способом хранения информации. И только за последнии два века человечество изобрело целую кучу способов хранения информации.
    На виниловых пластинах записывается звук, на целлулоидной пленке хранятся фотографии и фильмы. Магнитную ленту в аудиокассетах используют для хранения и звука и в видеокассетах хранятся фильмы. Магнитные диски различных размеров и плотности (дискеты, жесткие диски), магнитооптические диски, оптические диски (CD, DVD) используются для хранения различных видов информации (текстов, фильмов, музыки, результаов экспериментов, математических расчетов и т.п).
    Аналоговая и цифровая информация
    Звук это волновые колебания в какой-либо среде, например в воздухе. Когда человек говорит, колебание связок горла преобразуются в волновые колебания воздуха. Если рассматривать звук не как волну, а как колебания в одной точке, то эти колебания можно представить, как изменяющееся во времени давление воздуха. С помощью микрофона можно уловить изменения давления и преобразовать их в электрическое напряжение. Произошло преобразование давления воздуха в колебания электрического напряжения. Такое преобразование может происходить по различным законам, чаще всего преобразование происходит по линейному закону. Например, по такому:

    U(t) = K(P(t) − P0),
    где U(t) – электрическое напряжение, P(t) – давление воздуха, P0 – среднее давление воздуха, а K – коэффициент преобразования.
    И электрическое напряжение, и давление воздуха являются непрерывными функциями во времени. Функции U(t) и P(t) являются информацией о колебаниях связок горла. Эти функции непрерывны и такая информация называется аналоговой.
    Музыка это частный случай звука и её тоже можно представить в виде какой-нибудь функции от времени. Это будет аналоговое представление музыки. Но музыку так же записывают в виде нот. Каждая нота имеет длительность кратную заранее заданной длительности, и высоту (до, ре, ми, фа, соль и т.д). Если эти данные преобразовать в цифры, то мы получим цифровое представление музыки.
    Человеческая речь, так же является частным случаем звука. Её тоже можно представить в аналоговом виде. Но так же как музыку можно разбить на ноты, речь можно разбить на буквы. Если каждой букве дать свой набор цифр, то мы получим цифровое представление речи.
    Разница между аналоговой информацией и цифровой в том, что аналоговая информация непрерывна, а цифровая дискретна.
    Преобразование информации из одного вида в другй в зависимости от рода преобразования называют по разному: просто «преобразование», например, цифро-аналоговое преобразование, или аналого-цифровое преобразование; сложные преобразования называют «кодированием», например, дельта-кодирование, энтропийное кодирование; преобразование между такими характеристиками, как амплитуда, частота или фаза называют «модуляцией», например амплитудно-частотная модуляция, широтно-импульсная модуляция.
    Обычно, аналоговые преобразования достаточно просты и с ними легко справляются различные устройства изобретенные человеком. Магнитофон преобразует намагниченность на пленке в звук, диктофон преобразует звук в намагниченность на пленке, видеокамера преобразует свет в намагниченность на пленке, осцилограф преобразует электрическое напряжение или ток в изображение и т.д. Преобразование аналоговой информации в цифровую заметно сложнее. Некоторые преобразования машине совершить не удается или удается с большим трудом. Например, преобразование речи в текст, или преобразование записи концерта в ноты, и даже по природе своей цифровое представление: текст на бумаге очень тяжело машине преобразовать в тот же текст в памяти компьютера.
    Зачем же тогда использовать цифровое представление информации, если оно так сложно? Основное приимущество цифровой информации перед аналоговой это помехозащищенность. То есть в процессе копирования информации цифровая информация копируется так как есть, её можно копировать практически бесконечное количество раз, аналоговая же информация в процессе копирования зашумляется, её качество ухудшается. Обычно аналоговую информацию можно копировать не более трех раз.
    Если у Вас есть двух-кассетный аудио-магнитофон, то можете произвести такой эксперимент, попробуйте переписать несколько раз с кассеты на кассету одну и ту же песню, уже через несколько таких перезаписей Вы заметите как сильно ухудшилось качество записи. Информация на кассете храниться в аналоговом виде. Музыку в формате mp3 Вы можете переписывать сколько угодно раз, и качество музыки от этого не ухудшается. Информация в файле mp3 храниться в цифровом виде.


    Количество информации
    Человек или какой нибудь другой приемник информации, получив порцию информации. разрешает некоторую неопределенность. Возьмем для примера все тоже дерево. Когда мы увидели дерево, то мы разрешили ряд неопределенность. Мы узнали высоту дерева, вид дерева, плотность листвы, цвет листьев, если это плодовое дерево, то мы увидели на нём плоды, насколько они созрели и т.п. До того как мы посмотрели на дерево, мы всего этого не знали, после того как мы посмотрели на дерево, мы разрешили неопределенность – получили информацию.
    Если мы выйдем на луг и посмотрим на него, то мы получим информацию другого рода, на сколько луг большой, как высока трава и какого цвета трава. Если на этот же самый луг выйдет биолог, то он по мимо всего прочего сможет узнать: какие сорта трав растут на лугу, какого типа этот луг, он увидит какие цветы зацвели, какие только зацветут, пригоден ли луг для выпаса коров и т.п. То есть, он получит количество информации больше чем мы, так как у него, перед, тем как он посмотрел на луг, было больше вопросов, биолог разрешит большее количество неопределенностей.
    Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру.
    Существует формула для расчета количества информации. Мы имеем некоторую неопределенность и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно расчитать по следующей формуле, которую предложил нам Шеннон:
    I = − (p1log2p1 + p2log2p2 + ... + pNlog2pN), где
    I – количество информации;

    N – количество исходов;

    p1,p2,...,pN- вероятности исхода.
    Количество информации измеряется в битах – сокращение от английских слов BInary digiT, что означает двоичная цифра.
    Для равновероятных событий формулу можно упростить:

    I = log2N, где
    I – количество информации;

    N – количество исходов.
    Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили log22 = 1 бит информации.

    П
    опробуем узнать сколько информации мы получим после того, как бросим кубик. У кубика шесть граней – шесть равновероятных событий. Получаем: .

    После того, как мы бросили кубик на стол, мы получили приблизительно 2,6 бита информации.

    Вероятность того, что мы увидим марсианского динозавра, когда выйдем из дома, равна одной десяти-миллиардной. Сколько информации мы получим о марсианском динозавре после того как выйдем из дома?

    П
    редположим, что мы бросили 8 монет. У нас 28 вариантов падения монет. Значит после броска монет мы получим log228 = 8 бит информации.

    Когда мы задаем вопрос и можем в равной вероятности получить ответ «да» или «нет», то после ответа на вопрос, мы получаем один бит информации.
    Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжение в точке электрической цепи может принимать равновероятное значение от нуля до одного вольта. Количество исходов у нас равно бесконечности и подставив это значение в формулу для равновероятных событий, мы получим бесконечность – бесконечное количество информации.
    Сейчас я покажу, как закодировать «Войну и мир» с помощью всего лишь одной риски на любом металлическом стержне. Закодируем все буквы и знаки встречающиеся в «Войне и мир» с помощью двухзначных цифр, их должно нам хватить. Например, букве «А» дадим код «00», букве «Б» код «01» и так далее, закодируем знаки припинания, латинские буквы и цифры. Перекодируем «Войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874..., пририсуем перед этим числом запятую и ноль (0,70123856383901874...). Получилось число от нуля до единицы, поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. И так если вдруг нам захочется почитать «Войну и мир», мы просто измерим левую часть стержня до риски, и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т.д.).
    Реально, такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика, нам показывает, что после определенного предела, нам уже будет мешать квантовые законы.
    Интуитивно нам понятно что, чем меньшая точность измерения, тем меньше информации мы получаем, чем большая точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения количества аналоговой информации, но для этого существуют другие методы, которые рассматриваются в «Теории информации».
    В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено – не намагничено, есть отверстие – нет отверстия, заряжено – не заряжено, отражает свет – не отражает свет, высокий электрический потенциал – низкий электрический потенциал. При этом одно состояние принято обозначать цифрой 0, а другое – цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т.п.
    Наравне с битом, часто используется величина, называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт 1 из 256 (28). Для измерения количества информации так же принято использовать более крупные единицы:
    1 Кбайт (один килобайт) 210 байт = 1024 байта

    1 Мбайт (один мегабайт) 210 Кбайт = 1024 Кбайта

    1 Гбайт (один гигабайт) 210 Мбайт = 1024 Мбайта
    Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей 103, 106 и 109, соответственно, но исторически сложилась практика использования множителей со степенями двойки.
    Бит по Шеннону и бит который используется в компьютерной технике совпадают, если вероятности появления нуля или единички в компьютерном бите равны. Если вероятности не равны, то количества информации по Шеннону становиться меньше, это мы увидели на примере марсианского динозавра. Компьютерное количество информации дает верхнюю оценку количества информации.
    Энергозависимая память после подачи на неё питания инициализируется обычно каким-то значением, например, все единички или все нули. Понятно, что после подачи питания на память, никакой информации там нет, так как значения в ячейках памяти строго определены, никакой неопределенности нет. Память может хранить в себе какое-то количество информации, но после подачи на неё питания никакой информации в ней нет.


    написать администратору сайта