http://www.vbvvbv.narod.ru/guotes.html
ВЫСКАЗЫВАНИЯ О ИНФОРМАЦИИ, ТЕОРИИ ИНФОРМАЦИИ И КАТЕГОРИИ ОТРАЖЕНИЯ (подборка осуществлена автором сайта) Шеннон К. Берг А.И. Берлянт А.М. Бирюков Б.В. Бриллюэн Л. Вавилов С.
| Винер Н. Вяткин В.Б. Добрушин Р.Л. Колин К.К. Колмогоров А.Н. Мазур М.
| Новик И.Б. Петрушенко Л.А. Седов Е. Урсул А.Д. Харкевич А.А. Шамбадаль П.
|
ШЕННОН К. Работы по теории информации и кибернетике. М., 1963. Значение теории информации было, возможно, преувеличено и раздуто до пределов, превышающих ее реальные достижения ... Сейчас теория информации, как модный опьяняющий напиток, кружит голову всем вокруг. Сознавая, что теория информации является сильным средством решения проблем теории связи, нельзя забывать, что она не является панацеей для инженера-связиста и тем более для представителей всех других специальностей. Представителям различных наук следует ясно понимать, что основные положения теории информации касаются очень специфического направления исследования, направления, которое совершенно не обязательно должно оказаться плодотворным в психологии, экономике и в других социальных науках. Здание нашего несколько искусственно созданного благополучия слишком легко может рухнуть, как только в один прекрасный день окажется, что при помощи нескольких магических слов, таких какинформация, энтропия, избыточность..., нельзя решить всех нерешенных проблем.
Высказывания К. Шеннона взяты из статьи "Бандвагон", полный текст которойсм. здесь
| БЕРГ А.И., СПИРКИН А.Г. Кибернетика и диалектико-материалистическая философия // Проблемы философии и методологии современного естествознания. М., 1973 Для характеристики реального мира ныне недостаточны фундаментальные понятия классической физики - материя, вещество, движение, энергия, пространство, время. Для полноты этой характеристики необходимо столь же фундаментальное и столь же всеобщее понятие информации. Нет материи без информации, нет и информации без ее материального носителя - вещества и энергии.
Информация представляет собой качественную и количественную характеристику организованности отражения. Вообще информация - это как бы некоторая " сила ", направленная против дезорганизации и хаоса; в этом смысле информация неотделима от структурности, организованности материальных систем.
| БЕРЛЯНТ А. М. Образ пространства: карта и информация. М., 1986. Вероятностно-статистический подход к картографической информации втретил многочисленные возражения. В ряде критических высказываний подчеркивалось, что шенноновская формула энтропии не содержит самого понятия "информация" и не позволяет определить "количество информации" или "информативность" карты ... Карта, где знаки располагаются в пространстве, принципиально отличается от других языковых сообщений, использующих последовательности знаков или сигналов.
| БИРЮКОВ Б.В. Кибернетика и методология науки. М., 1974. Бесспорна возможность теоретико-информационного изложения ряда физических теорий - изложения, исходящего, конечно, из представления о том, что информация и ее меры суть объективные характеристики физических явлений. В самом деле, если понятия термодинамической энтропии и энтропии информационной столь тесно связаны, то почему не попытаться развить на информационной основе самою термодинамику? Если понятие количества информации столь уверенно интерпретируется в вероятностных терминах, то почему бы не попытаться заложить теорию информации в фундамент статистической физики и квантовой механики?
Имеется определенное несоответствие между сильно развитым формальным аппаратом оценки количественной формы информации и еще недостаточно осмысленной ее "содержательной" стороной, что сказывается на приложениях теории (в ряде случаев бывало, что представления и методы шенноновской теории пытались "механически" применить в новых областях, что приводило к дискретизации самих методов).
Информация "многолика", включает в себя синтаксический, семантический и прагматический аспекты. ... Разные стороны понятия информации отображаются в целом спектре теорий. Эти теории, как прапвило, не противоречат, а дополняют друг друга, развивая разные количественные меры, связанные с той или иной стороной феномена информации. При этом всегда имеется в виду задача - если не полного, то частичного - синтеза этих теорий.
| БРИЛЛЮЭН Л. Наука и теория информации. М., 1960. Новая территория была завоевана для науки с появлением в недавнее время теории информации. Это открытие создало новую область, немедленно привлекшую разведчиков и исследователей. Как это случилось? Как далеко это идет? И где оно может продолжать распространяться? Означает ли это вторжение науки на территорию, принадлежащую по традиции философии, или это есть открытие новой страны, своего рода "ничейной земли", которая ускользала от прежних исследований?
| ВАВИЛОВ С. Физика // Под знаменем марксизма, 1935, № 1. Может случиться так, что будущая физика включит как первичное, простейшее явление "способность сходную с ощущением" и на ее основе будет объяснять многое другое.
| ВИНЕР Н. Кибернетика, или управление и связь в животном и машине. М., 1958. Понятие количества информации совершенно естественно связывается с классическим понятием статистической механики - понятием энтропии. Как количество информации в системе есть мера организованности системы, точно также энтропия системы есть мера дезорганизованности системы.
Информация есть информация, а не материя и не энергия. Тот материализм, который не признает этого, не может быть жизнеспособным в настоящее время.
| ВЯТКИН В.Б. (Автор сайта) Информация - любая форма отражения материи и её атрибутов. Охватывая нематериальную сферу бытия, можно также сказать, что информация - это любая форма отражения любых объектов, как реально существующих, так и абстрактно мыслимых.
Прогресс проистекает из паритета двух начал - хаоса и порядка (энтропии и информации).
ВЯТКИН В.Б. Введение в синергетическую теорию информации // Информационные технологии, 2010, № 12. Вероятностная и синергетическая теории информации, имея предметом своего познания различные виды информации (вероятностный, связанный с управлением и синергетический, существующий независимо от управления), в то же самое время непосредственно взаимосвязаны между собой отношением взаимного проникновения друг в друга. Комбинаторное количество информации имеет двойственную природу, и в зависимости от того, с какой стороны его рассматривать, может относиться, как к синергетическому, так и к вероятностному виду информации. Закон сохранения информации: Суммарное количество синергетической и вероятностной информации, характеризующей структуру дискретной системы и её взаимоотношения с окружающей средой, при фиксированном числе элементов системы, является постоянной величиной.
| ДОБРУШИН Р. Л. Теория информации (комментарии). В кн.: Колмогоров А. Н. Теория информации и теория алгоритмов. М., 1987. Столь общий многообразный объект как информация, не может допускать единого метода численного измерения, а идеи Шеннона обоснованы лишь в применении к той важной, но все же ограниченной ситуации, когда рассматриваются оптимальные методы кодирования и декодирования информации в целях ее передачи по каналам связи или ее хранения.
| КОЛИН К. К. Природа информации и философские основы информатики // Открытое образование. 2005, № 2. Информация – это не плод нашего воображения, не продукт деятельности сознания, а реальный физический феномен, характеризующий состояние и движение материи или энергии.
КОЛИН К. К. Эволюция информатики // Информационные технологии. 2005, № 1. Понятие информации является настолько сложным и многоаспектным, что до сих пор в науке не найдено его достаточно общего определения. И это несмотря на то, что, начиная со второй половины XX века, понятие информации стало общенаучной категорией и широко используется практически во всех современных научных дисциплинах. Сегодня уже опубликовано достаточно большое число научных работ, где справедливо отмечается, что осмысление определяющей роли информации во всех без исключения эволюционных процессах природы и общества открывает совершенно новую, информационную Картину Мира, которая существенным образом отличается от традиционной вещественно-энергетической Картины мироздания, доминировавшей в науке еще со времен Декарта и Ньютона практически до конца XX века.
| КОЛМОГОРОВ А. Н. Комбинаторные основания теории информации и исчисления вероятностей // УМН, 1983, т. 38, вып. 4. Не видно, почему теория информации должна столь существенно основываться на теории вероятностей, как это представляется по большинству руководств ... эта зависимость от заранее созданной теории вероятностей в действительности не является неизбежной. Теория информации должна предшествовать теории вероятностей, а не опираться на нее. Основы теории информации имеют по самомму существу этой дисциплины финитный комбинаторный характер.
КОЛМОГОРОВ А. Н. Проблемы теории вероятностей и математической статистики // Вестник Академии наук СССР, 1965, №5. Информация по своей природе — не специально вероятностное понятие. Исходное представление об информации как числе двоичных знаков, необходимых для того, чтобы выделить определенный объект из конечного множества объектов, ничего общего с теорией вероятностей не содержит. Лишь в более высоких разделах теории информации сейчас доминируют вероятностные методы. Возможно, однако, что соотношения между теорией информации и теорией вероятностей радикально изменятся. < ... > Отношения эти могут быть обратными современным, и не теория вероятностей будет основой высших разделов теории информации, а в основе теории вероятностей будут лежать понятия теории информации.
| МАЗУР М. Качественная теория информации. М., 1974. А как применить понятие "количество информации", например к географической карте? Ведь карта содержит самую различную информацию. ... О каких вероятностях здесь может идти речь? Ведь каждый элемент карты, как и каждый элемент территории, существует, а не "происходит" с какой-то вероятностью. На заданные вопросы можно ответить, что теория информации создана не для этих потребностей. Однако такой ответ означает признание того факта, что созданная теория до сих пор дает меньше, чем обещает ее название.
| НОВИК И. Б. Негэнтропия и количество информации // Вопросы филисофии, 1962, № 6. Отсутствие в современной теории информации законов сохранения можно рассматривать как свидетельство незавершенности этой теории. ... Решение вопроса относительно обобщения законов сохранения на область информации, на наш взгляд, существенно продвинет разработку содержательной теории информации, даст опорный стержень для, так сказать, "физики отражения". Нам представляется, что информацию можно трактовать как форму отражения. ... По нашему мнению, в информации выражается упорядоченность отражения. ... Если для материи справедливы законы сохранения, то можно полагать, что некоторые аналоги этих законов применимы и к атрибуту отражения. ... При рассмотрении только одной формы отражения (информации) без учета ее перехода в другую форму закон сохранения в данной области не удается установить.
НОВИК И. Б. Кибернетика. Философские и социологические проблемы. М., 1963. По-видимому, и в области теории информации мы столкнемся со специфическими статистическими законами, характеризующими "дуализм" отражения (информация и шум), подобно тому, как специфичность статистики в квантовой механике связана с "дуализмом" микрообъектов (обладание свойствами частицы и волны).
| ПЕТРУШЕНКО Л. А. Самодвижение материи в свете кибернетики. М., 1971. Теория информации в кибернетике напоминает болото, поверх которого заботливыми руками математиков и техников настланы достаточно твердые доски. Ниже, Шенноном и Винером, насыпан плотный слой теорий и постулатов. Еще ниже находится мох догадок. И, наконец, там, совсем глубоко, - трясина гипотез, где все абсолютно шатко и сверкает ледяная вода таких широких обобщений и глубоких абстракций, которые еще не известны современной науке. Если вы заинтересуетесь вопросом, что такое информация, и найдете соответствующее определение информации в какой-либо из книг (что, вообще говоря, трудно сделать, так как авторы их избегают давать такое определение), то можно с большой уверенностью утверждать, что другие авторы будут с ним не согласны. Так же, как на смену механической пришла энергетическая картина мира, так и последняя постепенно уступит место кибернетической, информационной картине мира.
| СЕДОВ Е. Одна формула и весь мир (книга об энтропии). М., 1982. Теория информации в том виде, в каком она существует сегодня, - это лишь первый шаг к решению многих научных задач. С ее помощью пока не открыты законы такого масштаба, как например, закон всемирного тяготения. Но тут приходится делать скидку на возраст - нельзя же требовать от ребенка, пусть даже весьма и одаренного, великих свершений с самых первых шагов.
Современная наука изучает различные уровни материального мира ... И на всех уровнях она обнаруживает нескончаемую диалектическую борьбу энтропии и информации - двух противоположных начал, отражающих вечное стремление к увеличению хаоса и противодействующую ему тенденцию к образованию упорядоченных структур.
| УРСУЛ А. Д. Природа информации. М., 1968. Доведенная до крайности концепция выбора, неопределенности может привести к тому, что объективный характер самой информации окажется под сомнением, и будет признаваться "творение" информации субъектом или вообще воспринимающей системой. В силу этих соображений наше общее понимание информации должно быть освобождено от ее зависимости от воспринимающей системы (хотя в ряде случаев эта зависимость действительно существует) в такой же степени, как и от трактовки информации в духе чисто вероятностных представлений.
УРСУЛ А. Д. Проблема информации в современной науке. М., 1975. Понятия информации, которые изолируются от связи с категорией отражения, на наш взгляд, не будут далее развиваться, они образуют тупиковые линии развития. ... Категория отражения выступает в качестве важнейшего методологического ориентира, помогающего обнаружить верные пути в "хаосе" омонимии понятия информации.
| ХАРКЕВИЧ А. А. Очерки общей теории связи. М., 1955. Несмотря на быстрые темпы развития, общая теория связи (теория информации - прим. В. В.) не получила еще завершения в своих основных построениях. Обращает на себя внимание, в частности, отсутствие до настоящего времени системы основных законов типа законов сохранения, характерных для многих сложившихся отраслей знания. Наличие подобного рода законов, специфичных для связи интуитивно ощущается. Однако эти законы еще не найдены и не сформулированы.
| ШАМБАДАЛЬ П. Развитие и приложения понятия энтропии. М., 1967. | ВЯТКИН В.Б. Универсальное информационное уравнение Большинство приведенных высказываний было сделано до появления <="" a="">синергетической теории информации, по отношению к которой они имеют превентивный характер. Предметом познания данной теории являются информационно-количественные аспекты отражения дискретных систем через свои части (подсистемы). Ключевое положение при этом занимает универсальное информационное уравнение, первоначально полученное как соотношение между отражаемой ( I0 ), отраженной ( I∑ ) и неотраженной ( S ) информациями:
I0 = I∑ + S ( 1 )
Отраженная I∑ и неотраженная S информации именуются как аддитивная синтропия и энтропия отражения и характеризуют структуру отражаемой дискретной системы со стороны упорядоченности и хаотичности, соответственно.
Универсальность уравнения (1) заключается в многозначности его интерпретации, которая зависит от того, с какой стороны это уравнение рассматривается. В настоящее время (2009) можно указать пять таких интерпретаций:
1). Информационный закон отражения, согласно которому информация, отражаемая системой через совокупность своих частей, разделяется на отраженную и неотраженную части, равные, соответственно, аддитивной синтропии и энтропии отражения.
2). Закон сохранения суммы хаоса и порядка, в соответствии с которым, чтобы мы ни делали с системой без изменения общего количества элементов, на сколько бы частей не разбивали её по значениям какого-либо признака и в каком бы соотношении по числу элементов не находились между собой части, сумма хаоса и порядка в структуре системы всегда будет оставаться неизменной.
3). Закон сохранения информации на межвидовом информационном уровне, говорящий о том, что при любых структурных преобразованиях системы суммарное количество ее синергетической и вероятностной информации сохраняет свою постоянную величину.
4). Уравнение (1) выражает непосредственную взаимосвязь комбинаторного ( I0 ), синергетического ( I∑ ) и вероятностного ( S ) подходов к определению количества информации, в своей совокупности образующих единую количественную основу общей теории информации.
5). В термодинамическом отношении уравнение (1) асимптотически эквивалентно уравнению перехода системы идеальных газов из структурно-упорядоченного состояния в состояние термодинамического равновесия, составленному с помощью энтропии Больцмана.
В целом, универсальное информационное уравнение (1) свидетельствует о том, что в лице <="" a=""> синергетической теории информации мы имеем новую научную теорию. Дальнейшее развитие этой теории и внедрение её в практику научных и прикладных исследований будет иметь значение не только для общей теории информации, но и для тех предметных областей, где объекты познания представимы в виде дискретных систем с конечным множеством элементов. В пользу этого говорит тот факт, что на синергетическую теорию информации уже делаются ссылки в публикациях различных авторов по тематике таких предметных областей, как поисковая геология, нефтегазовый промысел, физика атома, экономика, философия, структурная лингвистика, социальная политика, военное дело. Также уже есть прецеденты ее включения в образовательный процесс. Причем, как на уровне средней школы (открытые уроки), так и на уровне престижных вузов (отдельные лекции и рекомендации в качестве учебного материала).
|
|