И выделение из этой абсолютно чистой и бесконечной проекции информации обо всём и всегда в какие-то локальные формы является способом выделения и снятия неопределённости.
Проще говоря, информация – это нематериальная проекция бытия, которая неразрывно связана с материей.
Поэтому, с одной стороны, информация без материального носителя существовать не может, ас другой стороны – они существуют параллельно и независимо друг от друга.
Я рассматриваю это с точки зрения оптики пространства.
Я люблю приводить в пример кирпич. Есть кирпич, и есть информация, данные о кирпиче. Это две разные вещи. Сам кирпич несёт в себе всю эту информацию о самом себе.
А информация о кирпиче не является кирпичом.
Всё в мире отражается друг на друге. Закономерность отражения и фокусировки является основой построения мира.
Если найти эти опорные точки, на которых висят все переотражения, то можно понять устройство Бытия.
Говоря об этом, следует ещё добавить, что такое источники информации.
Материя может создавать и генерировать информацию, а информация может создавать и генерировать материю.
Упорядоченную форму локальной части реальности также можно назвать информацией.
А человек в этой конструкции является проекцией всего Бытия, он может концентрировать и выделять эти локальные части равнозначно. Что-то выделять, что-то создавать, что-то концентрировать.
Проекция материальна, но не обладает материальными характеристиками того объекта, которого она отражает.
Эти материальные характеристики проекции могут меняться.
0 и 1 – это материальные символы (формы). Буквы алфавита – тоже формы.
Умение влиять на реальность и пространство – это умение влиять на её проекцию.
Также есть вопрос: что первично – материя, энергия или информация?
Самый простой вопрос: может ли информация существовать, храниться и передаваться без материального носителя? Нет.
Следовательно, любая информация материальна.
Монетка упала орлом вниз – это материальная подложка и основа для этой информации. Монетка, стол, вертикаль, расположение верх-низ. Наблюдатель зафиксировал в своём сознании эту информацию, глядя на материальный объект. Далее он перенёс информацию из своего сознания на какой-то следующий материальный носитель: голос, звуковая волна, сфотографировал, записал показания ручкой или карандашом, спел или станцевал. То есть он должен её перенести и зафиксировать чем-то материальным. Вывод: без материи информации быть не может.
И, как закономерность, все эти элементы имеют равнозначные свойства.
Информация и взаимодействие
Как энтропия есть мера дезорганизации, так и передаваемая рядом сигналов информация является мерой организации.
Норберт Винер
Идея – концентрированная информация, отражённая в сознании человека как основная – главная – мысль, определяющая некий великий замысел, имеющая особое смысловое значение.
М. Модлинский
По определению Н. Винера, информация не является ни веществом, ни энергией. Иногда информацию определяют словом «смысл». Она может передаваться, и при передаче она не меняется, остаётся неизменной на всём пути следования, независимо от источников её приёма и передачи, носителя или системы усиления сигнала. Информация обладает общим свойством сохраняться, переходя от одного вещества или вида энергии к другому. Это всегда определённый порядок. Информацию можно сжать или зашифровать, порядок при этом может меняться, но он меняется обратимо, скрыто сохраняется и всегда может быть восстановлен в первоначальном виде.
Информация фиксирует отношения между предметами. И если о предмете или явлении можно сказать, существуют они реально или нет, то об отношении так просто этого не скажешь. Например, радиус окружности или диагональ квадрата поддаются точному измерению, и сколько бы людей их ни измеряли, если они пользуются одной мерой, результаты совпадут. При этом число Пи и корень квадратный из двух – самые яркие и распространённые примеры иррациональных величин, которых существует множество. Отношения существуют в неисчислимом множестве между всевозможными предметами и явлениями мира. Отношения существуют реально, но не как вещество или энергия. Они имеют свои интересные свойства и особенности. Когда мы говорим, читаем, думаем, узнаём, мы имеем дело только с отношениями. Но если одни отношения являются источниками знаний, то другие могут ими стать когда-нибудь – и их можно назвать потенциалами информации. Потенциалы информации не могут быть реализованы без участия сигнальных систем.
Если есть объекты реальности, явления и отношения между ними, то об этом всегда можно что-то узнать и что-то сделать с этими знаниями.
Однако не всякие возможные отношения являются одинаковыми потенциалами информации. В мире существуют отношения постоянные, более или менее закономерные, повторяющиеся, отличные от Хаоса. С другой стороны, всегда присутствуют неопределённые и случайные процессы, не связанные с основными законами.
Если бы в физическом мире все было строго закономерно, его, видимо, было бы легко познать, но совершенно незачем это делать – все равно знание применить было бы не к чему, так как переделать ничего нельзя. И наоборот, мир хаотический поддаётся любому взаимодействию, но, вследствие того, что все его будущие состояния равновероятны и поэтому непредсказуемы, цель взаимодействия позволяет сделать выбор, и этот выбор определяет дальнейшее развитие.
Реальный мир не переходит из любого состояния в любое, так как могут существовать ограничительные законы, запрет на определённые комбинации действий и действия, которые не будут осуществлены никогда.
В управляющих связях автомата взаимодействуют сигналы, от которых зависит упорядоченность его действий и строения. Внутренняя информация автомата – это целесообразное отношение между сигналами в процессе взаимодействия. Она имеет свои потенциалы, связанные потоками информации. В действиях автомата существует неопределённость – потенциал команд, – которую ликвидируют сигналы управляющей системы, ограничивающие все возможные действия автомата одним, которое осуществляется в каждый момент. В сигналах, передающих информацию извне, также имеется неопределённость – потенциал сообщений, – и внешние воздействия ограничивают её до одной ситуации, которую автомат воспринимает в данный момент. Наконец, имеется потенциал перехода – критерий целесообразности, который можно измерить вероятностью существования автомата в данных условиях – отношением числа полезных для него ситуаций ко всему возможному их количеству.
Поскольку отношения – и, в частности, вероятности – в числах выражаются дробями, рассмотрение отношений самих отношений приводит к неудобным многоэтажным дробям. Потенциалы и количества информации удобнее измерять логарифмами вероятностей, так как при этом умножение и деление величин заменяется сложением и вычитанием их логарифмов. Чем меньше вероятность, тем больше информация (по определению).
Существуют два потенциала информации – потенциал законов (принципов) и потенциал действий, зависящий от неопределённости в осуществлении этих законов.
Информация – это мера организации. Информация заключается в отборе одного варианта среди других. Выбор – основа взаимодействия. Если выбор совершить нельзя, то управлять таким процессом нельзя, невозможно. Если выбор есть, то воля управленца по его цели взаимодействия даёт сигнал, импульс на реализацию поставленной цели. Сигнал, который не меняется, информации нести не может.
Самый простой случай – выбор одного из двух возможных (разрешённых) вариантов продолжения действия, например: стоять или двигаться, повернуть направо или налево, упасть орлом или решкой. Кодировать, отображать один из двух возможных вариантов, безотносительно к самому предмету выбора, можно как угодно – цифрами, словами, знаками, символами и т. д. Коды могут быть разные, а содержание одно. Поэтому был принят двоичный цифровой код, когда выбор варианта записывают двумя цифрами: нуль и единица. Можно использовать любые другие символы или знаки, несущие тот же смысл, главное – связать их с величинами или вариантами выбора. Тогда сочетание знаков всегда можно будет перевести в некоторое число, доступное пониманию, расшифровке и анализу.
Информация может быть представлена в разном виде – в числах, отражающих некий процесс, или в графике, построенном по этим числам. Может показаться, что график даёт сведения о процессе, которых не было раньше, даёт новую информацию. Но эта информация не возникает в процессе преобразования, она уже была скрыта в ранее имевшихся числах и только приобрела иную содержательную форму.
Любой процесс можно моделировать двумя способами: как через дискретные (рациональные) величины, так и через непрерывные (иррациональные) отношения. Например, время можно измерить песочными часами и маятниковыми. В песочных часах песок непрерывной равномерной струйкой пересыпается из верхнего резервуара в нижний – это аналоговая, индуктивная модель времени, протекающего так же непрерывно и равномерно. Пока есть песок, песочные часы работают все время, не останавливаются. Часы с маятником поворачиваются только в тот момент, когда маятник достигнет крайнего положения, толкнёт анкер. Эта информация о времени разделена на дискретные единицы, равные периоду или полупериоду колебаний маятника. Информация о времени в песочных часах может быть переведена в прерывистую и дискретную, если на них будет нанесена шкала с дискретными значениями. Таким образом, учёт времени может быть выполнен по-разному: операциями над рациональными числами (дискретными кодами) и операциями над иррациональными величинами-аналогами (непрерывными кодами). При использовании инструмента непрерывного вычисления (инструмента-аналога) не только избранные дискретные величины, а каждая непрерывная величина участвует в действии, влияет на конечный результат.
Коды бывают непрерывные и прерывистые (дискретные). Звук сирены, фотография – это непрерывные коды. Буквы, цифры, рисунок точками – прерывистые коды. Они состоят из серии отдельных сигналов, в то время как непрерывный код – это, по существу, один длинный изменяющийся сигнал. В непрерывном коде информацию несут мгновенные значения сигнала. Их бесконечное множество, и они очень тесно связаны между собой вероятностью значения: вероятность резкого изменения сигнала в каждый следующий момент движения невелика. Каждое изменение непрерывного кода на малом отрезке времени несёт очень малое количество информации. Можно доказать, что всякий непрерывный код преобразуется в дискретный и двоичный без потери информации при достаточно малом для данной системы «шаге квантования» (расстоянии между точками, образующимися при преобразовании). В основе этого доказательства лежит теорема, выведенная в 1933 году академиком В. А. Котельниковым. Преобразование непрерывного кода в дискретный называют квантованием, а преобразование в двоичный код – дельта-квантованием или дельта-модуляцией. Количество дискретных, например двоичных, сигналов, получившихся после превращения из непрерывного сигнала, зависит не от количества информации, которую нёс этот сигнал, а от шага квантования. Следовательно, одна и та же информация может быть выражена бо?льшим или меньшим количеством сигналов. Отношение количества информации к числу сигналов, передающих её в данном дискретном коде, является важнейшим качеством информации и называется содержательностью.
Точное исчисление информации построено на учёте вероятностей, исследованием этого 1944—1947 годах занимался американский учёный Клод Шеннон.
В сигнальных системах огромные массивы информации перерабатываются только для того, чтобы свести неопределённость к 1 биту, задать простой вопрос, требующий однозначного ответа: «Да или Нет?» или более известный философский: «Быть или не быть?» Ещё древнегреческий философ Платон говорил, что информация не возникает ни в природе, ни в сознании из ничего, он учил, что душа только припоминает, восстанавливает образы и идеи, известные ей ранее. Значит ли это, что информация есть всегда? Возможно, то, что принято называть словом «Душа» и содержит в себе всю информацию, и возникает она из того, что принято называть «Ничего», из неопределённых систем, из Хаоса, который и есть необходимое условие появления информации, её потенциал. Всё и Ничего – две стороны единого, две стороны Абсолюта. Более подробно об этом я рассказываю в своей книге «АБСОЛЮТ».
Комбинации, которые несут равное количество информации, имеют равную вероятность. Наличие запретительного начала (закона) в чередовании вещей ощущается как присутствие порядка, информации. И этот порядок, его создание и поддерживание и есть целенаправленный выбор человека. Поиски закономерности гармонии, упорядоченности лежит в основе искусства – архитектуры, музыки, танцев, игр.
Можно рассмотреть замкнутые связи в системе взаимодействия разорванно, по частям, состоящим из каналов, хранилищ и преобразователей информации, причём на каждом этапе преобразования, передачи и хранения количество информации поддаётся точному учёту.
Очень интересным является положение о том, что всякая информация о физическом мире неполна по существу, сколь бы точно она ни выражалась. В математике оно известно в изложении американского физика и математика Джозайя Уилларда Гиббса (1839—1903). Он предположил, что, описывая физическую систему, мы всегда описываем некоторое множество систем, к которым наше описание равно приложимо. В 1901 году Гиббс был удостоен высшей награды международного научного сообщества того времени (присуждаемой каждый год только одному учёному) – медали Копли Лондонского королевского общества за то, что стал «первым, кто применил второй закон термодинамики для всестороннего рассмотрения соотношения между химической, электрической и тепловой энергией и способностью к совершению работы». В своих работах Гиббс использовал законы термодинамики для объяснения широкого спектра физико-химических явлений. Н. Винер в своей книге «Кибернетика и общество» так оценил вклад Гиббса: «…нововведение Гиббса состояло в том, что он стал рассматривать не один мир, а все те миры, где можно найти ответы на ограниченный круг вопросов о нашей среде. В центре его внимания стоял вопрос о степени, до которой ответы относительно одного ряда миров будут вероятны по отношению к другому, более широкому ряду миров. Кроме того, Гиббс выдвигал теорию, что эта вероятность, по мере того как стареет вселенная, естественно, стремится к увеличению». Из этого следует, что эволюционно развивающиеся системы становятся похожими друг на друга, существенные различия стираются, энтропия их возрастает, они стремятся от состояния порядка к хаосу как к более вероятному варианту. При этом Винер делает довольно интересный вывод: «Однако в то время как вселенной в целом, если действительно существует вселенная как целое, присуща тенденция к гибели, то в локальных мирах направление развития, по-видимому, противоположно направлению развития вселенной в целом, и в них наличествует ограниченная и временная тенденция к росту организованности. Жизнь находит себе приют в некоторых из этих миров. Именно исходя из этих позиций, начала своё развитие наука кибернетика». Эти положения действительно относятся к общим принципам кибернетики и позволяют наличие общего у различных систем и явлений, переносят закономерности одного мира на закономерности другого мира или его части в зависимости от вероятности случайности и энтропии.
Н. Винер предложил рассматривать с этой позиции все физические явления как вероятностные, развивающиеся с известной степенью вероятности: «…теперь физика больше не претендует иметь дело с тем, что произойдёт всегда, а только с тем, что произойдёт с преобладающей степенью вероятности». Расчёты вероятности физического явления позволяют производить предсказания сложных процессов. Сам вопрос о «вероятности Вселенной», а значит, о жизни в ней и её развитии, о вероятности различных Миров, поиск применимости к ним общих законов дали огромный толчок развитию науки, новый взгляд на мир и позволили связать самые различные теории и течения. Значение вероятностных предсказаний для различных систем математика Гиббса и кибернетические представления Винера о связи с проблемой энтропии трудно переоценить, а теоретическое положение кибернетики о наличии общих закономерностей у различных видов систем, явлений и в других науках и областях могут быть реализованы в самых разнообразных вариантах. Уже то, что система Мира в целом и её отдельные части могут развиваться в различных направлениях в представлениях Гиббса и Винера, так же как и рост организованности отдельных систем может отличаться и их степень энтропии даёт большую свободу для размышления в направлении вечности жизни и неуничтожимости бытия. Но сразу встаёт закономерный вопрос: если локальные миры могут развиваться, откуда такой пессимистический взгляд на развитие Вселенной о присущей ей тенденции к гибели? Жизнь предполагает развитие всегда, и жизнь Вселенной и её локальных структур должна быть направлена в сторону Вечности и бесконечного развития. И эта цель, осознанная и принятая человеком, каждой конкретной личностью, влияет на все другие системы и Мир в целом.
Закон сохранения и развития информации: парадоксы
Самое интересное, что закон сохранения информации не сформулирован в таком же кристально чистом и отшлифованном виде, как закон сохранения энергии, например, хотя ссылка на такой закон используется часто – почти в любой книге, так или иначе связанной с кибернетикой. Более того, существуют парадоксы, опровергающие этот закон, над объяснением которых бьются лучшие научные умы современности в попытке спасти обоих – и закон, и парадокс. Но как проверить действие закона сохранения информации? Попробуем взять любой предмет передачи информации, любую ситуацию и её описать – и всё сразу будет видно и понятно. В этой главе я постараюсь объяснить, опираясь на давно разработанные и широко применяющиеся методы учёта информации об объектах и его изменениях, взятые из других систем, в частности на балансовый метод, почему надо смотреть на информационный Мир шире и в каких случаях этот закон справедлив, а в каких должен быть расширен. Обычно приводится такая редакция закона сохранения информации: «В замкнутой системе в процессе преобразования количество информации остаётся неизменным». На самом деле общество, коллективное сознание учёных, размышляющих на эту тему, не выработало единый, приемлемый для всех закон или его формулировку и понимание. С чем это связано? С тем, что информация – это нечто особенное, отличающееся от других объектов исследования науки, это, по словам Норберта Винера, не вещество и не энергия, информация не материальна. Информация – это скорее описание отношений между материальными процессами, между сигналами, и поэтому прямые аналогии с материальным миром и его объектами не проходят, не корректны. Но с чем тогда можно установить аналогии, чтобы не изобретать велосипед, а опереться на системы, разработанные ранее и хорошо себя зарекомендовавшие? Раз информация – это не энергия и не вещество, то и учитываться должна по-другому. Так оно и есть. Точнее, есть только один правильный и проверенный метод учёта информации о любом объекте или событии – метод двойной бухгалтерской записи. И никак иначе не сохранить цельное представление о едином процессе, если его не рассмотреть одновременно с двух сторон и не отразить одновременно по двум сторонам, участвующим в транзакции переноса информации о событии; результат этой транзакции представлен как единое целое, названное балансом, и содержит две части, два взгляда на предмет учёта. Любую систему любой сложности, как и любой объект в ней или обязательство, можно описать через балансовый метод, к кибернетическим и информационным системам это также применимо. Этому методу несколько сот лет, о нём узнали из труда «Трактат о счетах и записях» знаменитого математика Луки Пачоли, изданного в 1494 году в книге «Сумма арифметики, геометрии, учения о пропорциях и отношениях». До настоящего времени сохранились лишь семь экземпляров «Summa». С тех пор этот метод успешно используется как непревзойдённая система учёта, не позволяющая ничего скрыть, украсть или потерять, дающая всю полноту информации о всех элементах учёта и о состоянии системы в целом в любой момент времени по запросу заинтересованных лиц. Об этом методе забыли в период экономического упадка Средневековья и вспомнили в период становления буржуазного строя и развития товарно-денежных отношений. Можно ли этот метод распространить на модели и системы, связанные с учётом и отражением информации? А почему бы нет? В самом методе нет никаких ограничений на предмет учёта и способы его фиксации. Учёт может быть произведён в любых единицах, придуманных автором учёта, и в любой степени детализации, сам предмет учёта не играет роли, нет ограничения на его оценку, учесть можно всё, важно придумать адекватную систему учёта – сами счета как аналоги объектов и отношений и единицы их измерения. Единственно, что остаётся неизменным, – метод двойной записи. То есть учесть методом двойной записи информационное сообщение, которое всегда есть передача информации из одной структуры в другую, не представляет никаких проблем. Подробнее о самом методе рассказано в главе «Баланс и балансовый метод двойной записи – основа описания любого объекта реальности». Особо следует отметить, что Лука Пачоли изобрёл двойную запись, но сам он говорил, что не предлагает что-то новое, а только описывает то, что уже есть.
В современной физике насчитывают довольно много законов сохранения (энергии, массы, импульса, момента импульса, заряда и т. д.). Все законы сохранения относятся к замкнутым системам (не взаимодействующим с окружением). Законы физики в физической системе налагают на такую систему определённые ограничения. Закон сохранения энергии гласит, что энергия любой замкнутой системы при всех происходящих в ней процессах остаётся постоянной и может только превращаться из одной формы в другую и перераспределяться между частями системы. По первому началу термодинамики в ней не может возникать или уничтожаться энергия. В незамкнутых системах увеличение или уменьшение энергии равно принятой от другой системы или переданной другой системе энергии. По второму началу термодинамики система должна быть энергетически открыта: всякое уменьшение энтропии внутри системы должно компенсироваться увеличением энтропии, рассеянием энергии вне её. Из этого следует вывод, что живая система, возможно, всегда будет немного теплее окружающей среды. Таким образом, законы термодинамики не допускают создания вечного двигателя. Из принципа неопределённости Гейзенберга следует, что невозможно одновременно сколь угодно точно измерить положение и скорость электрона. Теория относительности Эйнштейна утверждает невозможность движения со скоростью, превышающей скорость света в пустоте. Из основ физики следует, что машины всегда будут нуждаться в притоке внешней энергии, будут превращать её в тепло и рассеивать. В основе кибернетики лежит аналогичный вышеприведённым закон сохранения информации, из которого следует, что система никогда не сможет вырабатывать информацию «из себя», то есть невозможно создать систему, нарушающую закон сохранения информации. Но в то же самое время существуют парадоксы, не вписывающиеся в этот закон, отвергающие его. В кибернетике принято считать, что замкнутые сигнальные системы никогда не увеличивают количества информации, хотя могут выбрать более экономичное её выражение, требующее меньшего количества сигналов. Такое явление может быть одним из вариантов состояния системы при определённых условиях, о которых я расскажу далее, но возможны и другие состояния системы, связанные с увеличением или уменьшением информации в ней.
Можно встретить такую формулировку основного закона сохранения информации: «Информация в процессе управления способна превращаться в любую форму, сохраняя количество, определяемое логарифмом вероятности». Закон сохранения информации допускает преобразования информации без её потери. Каждая сигнальная система вырабатывает свои сигналы сама, и, поскольку в её распоряжении есть энергия, этот процесс возможен. Сложность составляет задача придать сигналам порядок и сохранить его. Если же порядок существует, распространить его на другую последовательность сигналов нетрудно, а что происходит при этом с количество информации, рассмотрим далее. Важно отметить, что исчисление информации должно производиться методами, отличными от методов подсчёта энергии или вещества.