«Репортаж с ничейной земли. Рассказы об информации»

1247

Описание

Как измерить количество новостей, принятых по телеграфу? В каком виде передаются «записи» о наследственных признаках? Как возникает в природе живая материя? Как рождается мысль?Чтобы найти ответы на эти вопросы, читатель должен пройти вместе с автором и героями киигн по улицам условного Нового Города и по просторам Ничейной земли. Эта книга поможет ему понять, почему методы, рожденные техникой связи, нашли применение в биологии и психологии и как удалось измерить одними и теми же единицами информацию в клетке, в кристалле н на страницах газет.Обсуждаются также проблемы, которые еще предстоит решить современной науке с помощью теории информации.Автор не обходит молчанием спорные вопросы. Читатель примет участие в горячих дискуссиях, познакомится с разными точками зрения и вооружится новыми знаниями, помогающими глубже понять окружающий нас материальный мир.



Настроики
A

Фон текста:

  • Текст
  • Текст
  • Текст
  • Текст
  • Аа

    Roboto

  • Аа

    Garamond

  • Аа

    Fira Sans

  • Аа

    Times

Репортаж с ничейной земли. Рассказы об информации (fb2) - Репортаж с ничейной земли. Рассказы об информации 1646K скачать: (fb2) - (epub) - (mobi) - Е. А. Седов

Седов Е.А.

Репортаж с ничейной земли

Рассказы об информации

Как измерить количество новостей, принятых по телеграфу? В каком виде передаются «записи» о наследственных признаках? Как возникает в природе живая материя? Как рождается мысль?

Чтобы найти ответы на эти вопросы, читатель должен пройти вместе с автором и героями киигн по улицам условного Нового Города и по просторам Ничейной земли. Эта книга поможет ему понять, почему методы, рожденные техникой связи, нашли применение в биологии и психологии и как удалось измерить одними и теми же единицами информацию в клетке, в кристалле н на страницах газет.

Обсуждаются также проблемы, которые еще предстоит решить современной науке с помощью теории информации.

Автор не обходит молчанием спорные вопросы. Читатель примет участие в горячих дискуссиях, познакомится с разными точками зрения и вооружится новыми знаниями, помогающими глубже понять окружающий нас материальный мир.

КАК ОТКРЫЛИ НИЧЕЙНУЮ ЗЕМЛЮ (Вместо предисловия)

Новая территория была завоевана для науки с появлением в недавнее время теории информации. Это открытие создало новую область, немедленно привлекшую разведчиков и исследователей... Как это случилось? Как далеко это идет? Означает ли это вторжение науки на территорию, принадлежавшую по традициям философии, или это есть открытие новой страны, своего рода «ничейной земли»?

Так начинает свою книгу «Наука и теория информации» известный физик Леон Бриллюэн. Откройте ее на любой странице, и вы увидите цифры и уравнения, таблицы и графики - в общем то же, что в сотнях других специальных книг. И не каждый способен в этих графиках и уравнениях уловить очертания Ничейной земли.

Бриллюэн говорит про Ничейную землю, а я вспоминаю любимые книги детства. Всплывают в памяти их герои, вымышленные и реальные: суровый Немо, предприимчивый Крузо, мужественный Амундсен, благородный Миклухо-Маклай. Это они исследовали новые земли. А мы во всем старались им подражать. Покоренные их отвагой, мы увлекались романтикой их приключений и не слишком охотно замечали трудности, через которые им приходилось пройти. Кто из нас не был в детстве уверен, что вырастет таким же сильным и смелым и тоже пройдет по нехоженым тропам, познавая повадки диких животных и изучая обычаи неизвестных племен?

Но вот мы становимся старше, и мир детских фантазий уступает место миру реальному. Мы с удивлением замечаем, что на нашей планете, испещренной сетью дорог, наземных и водных, подземных, подводных, воздушных и даже космических, уже не осталось нехоженых троп. Разве что безжизненные вершины, вселяющие в оптимистов веру в «снежного человека», да неизведанные глубины океана, где, по рассказам некоторых мореплавателей, будто бы (и опять только будто бы!) скрываются чудовища, сохранившие облик прошлых времен.

О какой же Ничейной земле вспомнил вдруг Леон Бриллюэн?

Достаточно взглянуть на название его книги, чтобы понять, что речь в ней идет о теории информации и о том, что дала эта молодая теория современной науке. А тому, кто внимательно изучит эту книгу, станет ясно, о какой Ничейной земле говорит ее автор. Появление теории информации открыло науке новые перспективы, указало ей новые цели и неизведанные пути.

«Как это случилось? Как далеко это идет?» До последнего времени в слово «информация» никто не пытался вкладывать строгий научный смысл.

Приобретение знаний; факты, новости, сведения, полученные путем наблюдения, - так определяли понятие «информация» авторы энциклопедий и словарей. Определение казалось исчерпывающим и логичным до тех пор, пока не нашлись исследователи, пожелавшие измерить количество новостей, сведений, знаний (!) с помощью новых, невиданных единиц. Единицы не были досужим домыслом кабинетных ученых. Сама жизнь, клокочущая потоком новостей и фактов, поставила перед наукой этот вопрос.

Наш век - век стремительного движения, и мы уже давно перестали удивляться тому, что весть о важном событии с быстротой молнии облетает весь земной шар. Получение информации с любых расстояний стало делом будничным и привычным. Имея приемник и передатчик, вы легко наладите связь с любым уголком земли.

Но вот в последние годы появились удивительные машины. Они могут получать информацию путем самостоятельных «наблюдений», хранить ее в своей «памяти», обрабатывать различные сведения и передавать их друг другу.

На страницах научных журналов стали обсуждаться поистине фантастические факты. Оказалось, что маленькая половая клетка несет в себе такое количество информации, которое нельзя уместить в сотнях огромных книг.

Странные сопоставления! Половая клетка - и книга. Что между ними общего? Казалось бы, ничего. А в сущности, они выполняют одну и ту же задачу: сохраняют информацию и передают ее следующим поколениям.

Не так-то легко привыкать к новым понятиям и новым взглядам. Книга доносит нам мысли и чувства автора. А какую информацию содержит в себе половая клетка? Может быть, мы просто называем одним и тем же словом совершенно разные вещи?

Нет, не разные. В любых явлениях информация имеет одни и те же неизменные свойства и может быть измерена с помощью одних и тех же единиц.

Кто же она, эта таинственная незнакомка? До нее все в мире было в общем понятно: мы знали, что в нем происходит много материальных явлений, но в конечном счете все они зависят от разных видов энергии и от различных веществ. И вдруг какая-то информация, понятие новое и непривычное: она существует вместе с веществом и энергией, но сама не энергия и не вещество. Так что же это такое?

Помните сказку о волшебном колечке? Катится оно по дорожке от леса к речке, через мостик и все дальше и дальше, туда, где за широкими морями, за дремучими лесами стоит высокий дворец, а в нем - хрустальный ларец, а в ларце - волшебный ключ. Нечто похожее происходит и с информацией. Отыскала наука «волшебное колечко», и покатилось оно по миру: от телеграфных текстов - к электронным машинам, от техники - к биологии, психологии, языкознанию, и вот уже слышатся голоса отважных, которые, следуя за колечком, впервые достигли Ничейной земли. И они принесли оттуда удивительнейшие вести: информация есть не только в книге, в машине и в клетке. Она есть и в кристалле, и в газе, и в молекуле, и в электроне - всюду, где в физические процессы вмешивается таинственная «сила» со странным именем «энтропия».

Все, как рассказано в старой сказке: шла, шла наука вслед за колечком и отыскала золотой ключик. Но дальше вышло уже не по сказке: там ключом отпирался ларец с кощеевой смертью, а здесь вдруг открылся путь к самому что ни на есть живому - оказалось, что без информации не мог бы родиться и жить на свете ни один живой организм.

Этим ключом наука теперь отпирает двери к сокровеннейшим тайнам природы. Она познает тайну жизни, разгадку которой тщетно искал человеческий разум в течение сотен и тысяч лет.

- Ну, кто там отважный? - зовет наука. - Кто рискнет побывать на Вершинах Знаний, переплыть через Море Вопросов, пробраться сквозь Дебри Противоречий и погрузиться в Глубины Неразгаданных Тайн?

И один за другим отправляются в путь отважные Магелланы, чтобы вновь посетить Ничейную землю и ценой огромных усилий найти новый ответ на новый вопрос.

А теперь ответь мне прямо, читатель: хочешь ли ты вслед за ними совершить этот путь? Но прежде всего учти, что на этом пути мы с тобой встретим не меньше трудностей, чем встречали их Колумб и Амундсен, Пржевальский и Миклухо-Маклай. Едва лишь вступим мы на Ничейную землю, как нас плотным кольцом окружат сомнения и вопросы, и нам придется усвоить множество новых понятий, прежде чем сделать хотя бы несколько первых шагов. И чем больше ответов, тем больше новых вопросов: тот, кто однажды вступил на Ничейную землю, навсегда теряет покой.

Подумай как следует, ведь остались считанные секунды: перевернется страница, и мы вступим на таинственный берег Ничейной земли.

Часть первая. В МИРЕ НОВЫХ ИДЕЙ

ГЛАВА 1. СООБЩЕНИЯ В УПАКОВКЕ

Начало пути

«Мы высадились на берег. Вокруг нас насколько хватает глаз простирается безжизненная пустыня. Сердце сжимается тоской и болью при виде редкой растительности, разбросанной среди нагроможденных скал».

Возможно, так или приблизительно так записал бы в дневник свои первые впечатления рожденный неистощимой фантазией Жюля Верна исследователь таинственных островов. А мы с вами не можем записать даже этого. Правда, мы тоже причалили к незнакомому берегу, но мы пока не имеем ни малейшего представления, как выглядит Ничейная земля. Ну что ж, будем считать, что наш воображаемый корабль пришел на Ничейную землю поздней ночью, когда, говоря словами тех же героев Жюля Верна, «кругом не видно ни зги». И вот мы стоим на этой земле, и кромешная тьма неведения мешает нам принять решение, с чего начать нелегкий путь. Шутка ли сказать - исследовать Ничейную землю! Ведь здесь даже опытные ученые не всегда находят пути. Правда, в руках у нас волшебное колечко, именуемое «информацией». Так давайте же бросим его на землю. Пусть катится, куда хочет, а мы пойдем следом за ним.

Информация... Кто впервые произнес это емкое слово? Ученый? Инженер? Нет. Оно вошло в науку и технику из обихода. Ведь раньше, чем оно появилось на страницах научных журналов, его можно было встретить в служебных отчетах, в художественных романах, на страницах газет.

Но было же и такое время, когда в человеческом языке вообше отсутствовало это слово. Значит, люди обходились без информации? Отнюдь нет. Они использовали информацию даже в те далекие эпохи, когда вообще не было слов.

Если у нашего древнего предка возникала необходимость предупредить своих соплеменников о приближении опасности, он использовал то «средство информации», которое было ему доступно, - пронзительный крик. Различными оттенками голоса ему удавалось разнообразить информацию, передать всевозможные чувства: боль или радость, гнев или страх.

Сложные понятия, возникавшие в процессе совместного труда первобытных людей, требовали более совершенных способов обмена информацией: на базе осознанных движений родился язык жестов, из ограниченного числа бессвязных звуков выросла членораздельная речь. С появлением письменности и системы счета был сделан решительный шаг в развитии духовной культуры и научной мысли человечества: люди приобрели универсальное средство, пригодное для накопления и обмена информацией о любых явлениях и процессах.

Вместе с тем совершенствовались и способы передачи информации - от быстроногих гонцов и сторожевых постов, подававших сигналы и огнем и дымом, до новейших средств телевидения, радиовещания и космических телеметрических систем. И чем больше развивалась техника, тем шире и многообразнее становился круг вопросов, связанных с передачей различных сообщений. С изучения этих вопросов мы, пожалуй, и начнем наш путь.

Правда, читатель вправе выразить недовольство. Ведь мы собирались исследовать Ничейную землю. И началось, казалось бы, все как положено: был корабль, был пустынный берег. Все как на острове Робинзона. И вдруг - радио, телевидение... Разве для того, чтобы рассказать об этом, нужно было плыть на край света, к берегам Ничейной земли? Может быть, мы попали сюда по ошибке?

Если будущему историку попадется в руки дневник нашего путешествия, он узнает, что сомнения и тревоги родились уже с первых шагов. Вот что прочтет он на первой странице: «Наступило утро, и земля, которая представлялась ночью пустынной и дикой, оказалась давно заселенной людьми. Куда же забросило нас провидение? Бриллюэн говорил про Ничейную землю, а здесь - здания, площади и проспекты. И названия их совсем не похожи на те, что встречаются в дневниках путешествий. Здесь нет мыса Надежды или бухты Печали, зато есть проспект Кибернетики, улица Необычных Понятий, площадь Новых Идей. Уж не зря ли мы доверились автору? Может быть, наш корабль уже давно сбился с курса, и мы никогда не достигнем Ничейной земли?»

С вашего разрешения, я отложу пока путевой дневник и попытаюсь внести некоторую ясность. Ничейная земля еще впереди. Это будет земля безлюдная, полная тайн и опасностей - именно такая, какой и положено быть Ничейной земле. Нам предстоит бродить там по нехоженым тропам, забираться в такие дебри, куда даже яркий свет науки проникает с большим трудом. Кто же поможет нам найти там правильную дорогу? Волшебное колечко? Но ведь мы материалисты и потому не можем верить в существование каких бы то ни было волшебных сил. Мы должны исследовлть это колечко, узнать его истинную природу, понять, почему оно катится и куда держит путь. А для этого надо идти в Новый Город. Это город, в котором все необычно. Даже хорошо знакомые вещи имеют здесь иную окраску, непривычный, зато более глубокий смысл. Нам предстоит изучить этот город, рожденный наукой в последние годы на самых подступах к Ничейной земле. И хотя его улицы широки и просторны, путь по ним не будет легкой прогулкой: мы будем останавливаться у каждого поворота до тех пор, пока не поймем окончательно, почему старое слово «информация» в последние годы обрело новый смысл.

Текст на экране

Неожиданности таятся даже в самых привычных вещах. Телеграф и телефон. Для чего существует и то и другое? Разве нельзя передать по телефону любой телеграфный текст? Было, конечно, такое время, когда телеграф был единственным средством, позволяющим передать срочное сообщение, а кабель, брошенный предприимчивым Сайрусом Филдом1 на дно океана, был единственной «ниточкой», связавшей Старый и Новый Свет. Но время это давно прошло, и теперь земной шар, словно паутиной, опутан сетью кабелей и проводов. Существует сеть телеграфная и сеть телефонная. Может быть, уже давно пора вообще отказаться от телеграфной сети? Разве не могут работники связи передавать друг другу по телефону тексты любых телеграмм? Конечно, могут, но при этом скорость передачи информации будет значительно ниже.

Количество информации, передаваемой по телефону, ограничивается той скоростью, с которой человек способен разборчиво читать тексты - в минуту около 120 слов. Количество информации, передаваемой специально обученным телеграфистом с помощью буквопечатающего аппарата, составляет в каждую минуту уже целых 500 слов. Правда, такая дополнительная информация, как смысловые ударения в каждой передаваемой фразе, не может быть передана по телеграфу. Поэтому всякий раз, когда нам захочется поделиться своими чувствами с родными и близкими, мы, несомненно, предпочтем телефон.

Значит, избирая способ передачи каких-либо сообщений, необходимо учитывать количество передаваемой информации и оценивать скорость ее передачи. Современная техника позволяет достигать скорости передачи текста во много раз большей, чем обеспечивает телеграф. Так, если на экране телевизора вместо привычных нам телевизионных изображений будут, непрерывно сменяя друг друга, проектироваться страницы книги, то в течение каждой минуты на этом экране можно прочитать до 400 тысяч слов! Ясно, что такое «чтение» будет выглядеть не совсем обычно - успевать за такой скоростью передачи смогут лишь специальные автоматические устройства, которые тем или иным способом «запомнят» (например, сфотографируют) каждый переданный кадр... Однако подобное усложнение не играет существенной роли. Важно, что такое устройство может заменить 800 телеграфистов. А один телеграфист два года выстукивал бы на нескончаемой ленте точки-тире, чтобы передать те телеграммы, которые наше устройство принимает в течение одного дня!

Почему же такая, казалось бы, удобная и выгодная система передачи не нашла широкого применения и до сих пор не вытеснила телеграф? Вся беда в том, что скорость эта достигается слишком дорогой ценой, и определить эту цену можно только с помощью применяемого теорией информации своеобразного понятия «объема сигнала».

Невесомые грузы

Вот и первая остановка. «Объем сигнала». Встречали ли вы где-нибудь сигналы, имеющие объем? Нет? Ничего удивительного. Ведь вы впервые идете по городу, в котором есть улица Необычных Понятий. Там, на нашей земле, среди привычных для нас дел и предметов сигналы тоже играют немалую роль. Утром мы просыпаемся по сигналу будильника, сигнал телефона заставляет нас снимать трубку, на улицах родного города нам сигналят автомашины, а красные огоньки светофоров преграждают им путь. Так было там...

И здесь, в этом Новом Городе, на первый взгляд как будто все то же: улицы и машины, телевизор и телефон. Но стоит лишь осмотреться, и обнаруживаются удивительные вещи. Например, сигналы, имеющие объем. Жителю нашей земли это кажется невероятным. В самом деле, ведь не может же обладать объемом красный огонек светофора или телефонный звонок! Или в Новом Городе существуют какие-то иные сигналы? Нет, речь идет о тех же сигналах - звуковых, электрических и световых.

Один звуковой сигнал несет информации очень немного. В самом деле, о чем может «рассказать» вам телефонный звонок? Пока вы не снимете трубку, вы не узнаете, кто звонит вам по телефону и что вам хотят сообщить. Зато два различных звонка, например короткий и длинный, могут рассказать о многом. Из них вы можете построить целую азбуку, например азбуку Морзе: короткий звонок - точка, длинный - тире. То же самое можно сделать с помощью звонков разной силы: громкий - тире, тихий - точка. А можно сделать и так, чтобы звуки одинаковой силы звучали по-разному. Для этого надо использовать звуки, имеющие разную частоту. Колебаться окружающий воздух заставляет и басовитый гудок паровоза и тоненький голос дрезины. Но в первом случае частота колебаний будет значительно ниже, чем во втором.

Итак, для создания самой простой азбуки приходится изменять или длительность сигналов, или их силу (уровень), или их частоту. Но еще чаще приходится иметь дело с такими сигналами, у которых все изменяется одновременно. Например, при передаче музыки. Звук оркестра включает в себя огромное множество различных сигналов, имеющих разную длительность, громкость и частоту. А наша речь? Ведь это тоже набор звуков. И все они опять-таки отличаются друг от друга по частоте, длительности и силе. Вот и пришла мысль инженерам и математикам, создателям улицы Необычных Понятий, изображать различные сообщения в таком виде, чтобы все эти величины можно было сравнивать между собой.

Спичечная коробка имеет ширину, высоту и длину. И сигнал стал похожим на спичечную коробку: «длина» его зависит от длительности, «высота» - от пределов изменения его силы (уровня), а «ширина» - от диапазона содержащихся в нем частот.

Сообщение о прогнозе погоды гораздо короче газетной передовицы. Значит, сигнал, содержащий сводку погоды, обладает меньшей «длиной».

«Высота» упакованного сообщения определяется пределами изменения уровня. Так, например, громкость звучания симфонического оркестра изменяется в больших пределах, чем голос певца. Поэтому «симфония в упаковке» имеет большую высоту.

«Ширина» звукового сигнала определяется богатством окраски звука, зависящим от количества содержащихся в нем частот. Ударяя по одной клавише пианино, вы получите звук одной частоты. Аккорд на пяти клавишах дает 5 различных частот. И в звуке оркестра, рожденного одновременным звучанием множества инструментов, содержится целый спектр разнообразных частот.

Итак, становится ясным, почему всякий сигнал обладает определенным объемом.

Мы уже не будем выглядеть провинциалами в Новом Городе и можем смело продолжать путь по улице Необычных Понятий, где сигналы имеют разный объем. А впрочем... Кажется, мы слишком поторопились. Ведь мы условились не делать ни шагу, прежде чем не найдем ответа на каждый новый вопрос. А вопрос остался пока нерешенным: ведь мы так и не поняли, почему даже в Новом Городе наряду с телефоном и телевизором до сих пор существует и телеграф.

Чтобы ответить на этот вопрос, давайте представим себе, каким объемом обладают телевизионный и телеграфный сигналы.

Известно, что рабочий диапазон частот, используемых в телевидении, превышает диапазон частот телеграфии в десятки тысяч раз. Кроме того, уровень телевизионного сигнала также колеблется в широких пределах - ведь яркость луча должна меняться от черного до белого свечения. А телеграф обходится всего двумя уровнями: отсутствие сигнала во время паузы или присутствие при передаче точки и тире. Чтобы сравнить эти способы передачи, инженеры связи учли «ширину», «высоту» и «длину» каждого из сигналов и подсчитали, какой объем занимает один и тот же текст. Объем телевизионного сигнала оказался больше почти в 60 раз.

Как объяснить такое различие? Ведь получатель этого «груза» прочтет на ленте и на экране одни и те же слова. А объем получается разный, потому что в одном случае груз «транспортировался» по телеграфу, а в другом - через телевизионный канал.

Работник транспорта, очевидно, развел бы руками: выходит, один и тот же груз будет обладать в вагоне одним объемом, а в самолете - другим? И разница получается весьма ощутимой: для отправки одного и того же словесного груза пришлось бы поднять в воздух 60 самолетов, вместо того чтобы отправить один вагон!

Здесь проявляются необычные свойства нашего «груза». Все дело в том, в какие сигналы мы превращаем текст. Можно превратить слова в три простейших сигнала: пауза, точка, тире. А можно сделать так, чтобы те же слова были видны на экране так же четко, как на страницах книг. Но передача изображений - дело сложное и дорогостоящее: чтобы они были достаточно четкими, надо заставить луч с огромной скоростью бегать по строчкам экрана, и чем больше букв умещается на этом экране, тем чаще меняется яркость луча, тем шире будет диапазон рабочих частот. Поэтому наш «груз» оказался в десятки тысяч раз «шире», когда мы направили его в телевизионный канал.

Вот теперь становится ясным, почему телевидение не может вытеснить телеграф. Конечно, телевизор может дать значительный выигрыш в скорости передачи текста. Зато теперь мы знаем, какой ценой достигается эта скорость: 60 самолетов заменяют один вагон! И было бы ошибкой думать, что в данном случае «самолет» (то есть телевизионный сигнал) достигнет цели раньше «вагона» - и в том и в другом случае несущие информацию сигналы любое расстояние преодолевают практически мгновенно. Скорость сигналов в проводе или эфире так велика, что за 1 секунду сигнал успеет обежать земной шар по экватору почти 8 раз. Поэтому, рассматривая вопрос о скорости передачи сообщений, теория информации не учитывает, сколько времени «груз» находился в дороге: скорость передачи текста определяется тем временем, которое приходится затратить на «погрузку» и «разгрузку» передаваемого словесного груза.

И все же есть у каналов связи несомненное сходство с обычными средствами транспорта.

И тут и там приходится решать одни и те же задачи: объем и скорость доставки груза - разве не эгими показателями оценивается качество работы транспорта? Даже задачи точности решаются и в системах связи и на железной дороге. В первом случае необходимо добиться передачи сигналов без искажений, во втором - доставки груза в целости и сохранности. Однако стоит ли удивляться такому сходству: ведь передача информации на расстояние - это тоже своего рода транспортировка. А мы и не подозревали, что всякий раз, когда из репродуктора доносится голос диктора или студия телевидения сообщает новости дня, мимо нас бесконечным потоком проносятся странные грузы. Они незримо проникают сквозь стены и не имеют веса. Зато имеют определенный объем. А жителям Нового Города приходится без конца загружать свой «транспорт» подобным грузом. Вот почему именно в этом городе впервые заметили, что сигналы имеют объем, и научились «упаковывать сообщения», используя различную «расфасовку».

Чудесное свойство

Размещать груз в таре можно по-разному: например, предназначенные для перевозки фрукты можно упаковать в несколько маленьких ящиков, а можно поместить в один большой. Большой ящик позволит лучше использовать объем вагона, зато создаст больше трудностей при погрузке или разгрузке. Каким же образом выгоднее «разместить» информацию?

Предположим, что с помощью автоматического устройства мы передаем на пульт управления информацию о скорости обработки каких-то деталей. В зависимости от характера операций скорость станка меняется много раз. Но изменения эти происходят не плавно, а так же, как и в автомашине, то есть тремя ступенями: 1-я, 2-я и 3-я. Если учесть к тому же, что в некоторые моменты времени может понадобиться остановка станка, то вся информация о его «поведении» может быть сведена к передаче четырех различных значений скорости: 0, 1, 2 и 3.

Сообщить об этом можно по-разному. Можно, например, вместе с изменением скорости изменять величину сигнала. А можно сделать так, чтобы каждому значению скорости соответствовало определенное количество сигналов (случай II). Какой из способов лучше?

В первом случае сообщение займет очень немного времени - ведь все сведения «уместились» в четырех сигналах (импульсах), которые следуют с большими перерывами. Что ж, свободное время не пропадет даром: в перерыве можно передавать другие сигналы, например дополнительные сведения о качестве обработки деталей. Однако выигранное время пришлось «оплатить» большим диапазоном уровней: уровень сигнала должен меняться вместе с изменением скорости. Другими словами, мы должны иметь в запасе четыре сигнала. Это могут быть световые сигналы различной яркости, звуки различной громкости, электрические импульсы, отличающиеся по напряжению или по силе тока.

Во втором случае уровень сигналов остается неизменным. Но при этом в три раза возрастает число импульсов, а следовательно, и время их передачи (случай II на рисунке).

Смотрите, что произошло с нашим невесомым «грузом»: он совершенно изменил свою форму, сохранив тот же объем. Как хорошо было бы, если бы все виды груза обладали таким же чудесным свойством: мы могли бы придавать им любую форму, чтобы, загружая тару, использовать каждый ее уголок. А инженеры-связисты и в самом деле имеют такую возможность. Своему «грузу» они придают такую форму, которая позволяет наилучшим образом использовать канал связи.

Любой канал связи обладает ограниченными возможностями: он способен передать лишь определенный диапазон изменения уровней и определенную полосу частот. Если каналом связи является телефонный кабель, связывающий двух абонентов, то полоса частот и уровень передаваемого сигнала ограничены и механической упругостью телефонной мембраны и теми усилителями, которые обычно включают в кабель.

Канал связи может включать в себя радиоприемник и радиопередатчик, настроенные на один и тот же диапазон частот. В этом канале нет связующего кабеля или специальной линии передачи - передатчик с приемником связаны через эфир. Но пропускная способность такого канала все равно ограничена - приемники и передатчики рассчитаны на определенный диапазон уровней и определенную полосу частот. Если сигнал не умещается в данном канале связи по диапазону частот или уровней, инженер имеет возможность уменьшить «ширину» или «высоту» передаваемого сигнала за счет увеличения времени передачи. Для этого надо применить соответствующий код.

Но чем дольше передается каждое сообщение, тем меньше пройдет информации через канал, - меньше окажется пропускная способность канала.

Может быть, для сокращения времени передачи сообщений следует укоротить каждый импульс? Упаковка от этого станет короче. Но объем груза останется прежним, потому что он станет одновременно и «шире»: возрастет диапазон содержащихся в сигнале частот (случай III). Эта особенность импульсов давно известна и инженерам-связистам и специалистам по радиолокации: чем короче импульс, тем больше диапазон содержащихся в нем частот. Для доказательства этого свойства инженер прибегает к помощи математики, использует сложные преобразования, известные под названием преобразований Фурье.

А мы с вами обратимся к простому примеру. Допустим, вам захотелось выиграть время, передав какую-то арию в два раза быстрее, чем ее исполняет певец. Сделать это несложно: надо записать арию на магнитную ленту, а затем прокрутить ленту с удвоенной скоростью. При этом бас будет звучать как сопрано, потому что произойдет удвоение всех звуковых частот2.

Если нормальный голос певца содержит частоты от 500 до 5000 колебаний в секунду (то есть от 500 до 5000 герц), значит диапазон частот составляет 5000 - 500 = 4500 герц.

При удвоенной скорости все частоты увеличатся вдвое и диапазон станет вдвое шире:

10000 - 1000 = 9000 герц.

В нашем примере «импульс» (то есть время исполнения арии) длился минуты. Тем же свойством обладают импульсы, длящиеся тысячные или миллионные доли секунды. Значит, сигнал подобен несжимаемой жидкости: можно менять его «форму», используя разную «тару», но при любой форме «тары» сигнал сохраняет прежний «объем».

И все же нашелся способ, позволяющий «утрамбовать» предназначенный для транспортировки сигнал.

Вернемся к примеру передачи сообщения о четырех уровнях скорости. В первом случае величины импульсов соответствовали уровням скорости (случай I). Во втором случае число импульсов соответствовало скоростям (случай II).

А можно ступени скорости обозначить условно. Импульсы следуют друг за другом через равные промежутки времени. Давайте условимся так: появление каждого импульса будем отмечать цифрой «1». Если в следующий момент импульс не появился, значит передана цифра «О». Чередуясь в разной последовательности, цифры «О» и «1» передадут сообщения обо всех четырех скоростях:

Ступени

скорости

Комбинация

сигналов

0

00

1

01

2

10

3

11

Указанный способ соответствует IV графику, изображенному на рисунке, а при обозначении скоростей с помощью двух знаков (0 и 1) применен так называемый «двоичный код».

Сравним теперь объем сигнала для II и IV случаев, изображенных на нашем рисунке. Что получается? Уровень сигнала остался неизменным, зато число импульсов уменьшилось с трех до двух. Значит, нам удалось «упаковать» наши сообщения настолько удачно, что та же информация (информация о четырех возможных скоростях) уместилась в меньшем объеме сигнала.

А если бы скорость имела не 4, а 32 различные ступени, выигрыш был бы куда заметнее. Вместо 32 импульсов можно было послать только 6, потому что в обозначениях двоичного кода цифра 32 выглядит как 100 ООО. (Принцип двоичного кода рассмотрен подробно в главе 4 - раздел «Универсальный язык».)

В нашем примере изменения сигнала соответствовали изменению скорости. С помощью тех же сигналов можно передать на расстояние сообщение об изменениях давления или температуры, в других случаях каждый из рассмотренных нами сигналов может соответствовать значению какой-либо из букв. Любое из этих сообщений можно путем кодирования перевести на язык импульсов и тем самым «упаковать» содержавшуюся в нем информацию в определенный объем сигнала. С точки зрения теории информации, вопрос о том, каково содержание передаваемого сообщения, не играет существенной роли: в любом случае задача состоит в том, чтобы при передаче нужного количества различных значений (уровней, чисел, букв и т. п.) «груз» был как можно «компактней», то есть имел наименьший объем.

ГЛАВА 2. КАК ИЗМЕРИЛИ ИНФОРМАЦИЮ

То, что нам неизвестно

Туризм требует напряжения. Не всякий может пробираться по узким тропинкам, спускаться на дно оврагов, карабкаться по склонам хребтов. Красивый приморский город привлекает больше людей, чем крутые горные перевалы, но и он таит в себе немало «опасностей» для туристов. Вы можете целый день ходить здесь в легкой обуви и отутюженных брюках, но к вечеру все же почувствуете усталость ничуть не меньшую, чем от прогулки по диким местам. Правда, усталость эта будет иного рода: вас утомит обилие впечатлений. Но если вы знакомитесь с этим городом не из праздного любопытства, а с определенной целью, вам будет еще труднее. Зато истинное удовлетворение получает лишь тот, у кого есть конкретная цель.

Тому, кто впервые попал в Новый Город, некогда думать об отдыхе. Здесь что ни шаг, то новые впечатления. Сейчас мы подходим к самому центру - к площади Новых Идей.

Что за величественное сооружение установлено посреди этой площади? В честь каких побед воздвигнут этот необычный обелиск?

В причудливом беспорядке нагромоздили скульпторы у его подножия радиоприемники и антенны, книги и музыкальные инструменты, микроскоп и фотоаппарат, телевизионную камеру и простой телеграфный ключ. Стройная колонна возвышается в середине, а на самом верху на фоне ясного неба четко вырисовываются непонятные символы:

I =

n

i=1

Pi log Pi

Что выражают эти значки? Может быть, спросить местных жителей? Вот как раз сюда идет какой-то прохожий...

- Простите, вы не скажете, что означает это сооружение?

- Это юбилейный подарок. Он преподнесен от имени жителей нашего города его основоположнику, ученому Клоду Шеннону.

- Простите, что мы отнимаем у вас время. Видите ли, мы впервые идем по улицам вашего города...

- Я так и подумал.

- ...и совершенно не знаем ни его истории, ни тех, кто его населяет. Объясните, пожалуйста, чем заслужил такое уважение этот ученый?

- Охотно! Имя Клода Шеннона стало таким популярным в последние годы. И не случайно: он научил людей измерять информацию. Вы видите формулу, изображенную там, на самом верху? Она носит его имя. По ней можно подсчитать, какое количество информации содержится на странице книги, в звуках человеческой речи или на телевизионном экране.

- Но мы только что научились измерять информацию без всяких формул.

- Каким же образом?

- Мы сравнивали текст, передаваемый по телеграфу, и текст на экране телевизора. Мы узнали, что в том же объеме телеграфного сигнала можно уместить в 60 раз больше слов. Чем больше слов, тем больше информации. Разве не так?

Почему наш собеседник улыбается столь снисходительно? Разве наши утверждения уж настолько наивны?

- Но ведь так поступают и работники связи, - пытаемся мы оправдаться. - Они тоже считают слова, чтобы определить стоимость телеграмм.

- Это верно. А не скажете ли вы, что должен сделать отправитель телеграммы, чтобы не расходовать лишних средств?

- Правильно составить текст.

- Что значит «правильно»?

- Это значит, что в тексте должно быть как можно меньше слов.

- Ну, а как же быть с информацией? Ведь вы же говорили, что информацию можно измерять словами. Значит, сократив количество слов, отправитель должен обязательно упустить что-то важное из той информации, которую предстоит передать? Так или не так?

- Нет, конечно. Просто он старается сказать обо всем очень коротко.

- Вот именно. Значит, об одном и том же можно сказать в одних случаях коротко, в других длинно. Следовательно, одну и ту же информацию можно передать разным количеством слов. А в одном и том же слове может содержаться больше или меньше информации, в зависимости от характера сообщений.

Представьте себе, что вы получаете такую телеграмму: «За июлем следует август». Много ли информации получите вы, прочитав эти слова?

Нет, немного. Например, слово «август» можно вовсе не передавать по телеграфу: для того чтобы понять эту фразу, достаточно и первых трех слов. А вслед за этим сообщением пришло, скажем, такое: «Ежегодное совещание работников транспорта будет проводиться в августе месяце». Чувствуете разницу? Здесь слово «август» содержит в себе гораздо больше информации. Пока вы не прочли на телеграфной ленте этого слова, вы оставались в полном неведении, в каком из 12 месяцев года будет совещание. А дополнив это сообщение еще всего одним словом - допустим, совещание состоится пятого августа, вы сможете отметить нужную дату среди 365 дней.

Как видите, даже при передаче текста дело обстоит совсем не так просто, как может показаться на первый взгляд. А с музыкой или телевизионным сигналом будет еще сложней. Ведь здесь нет ни слов, ни букв, ни импульсов азбуки Морзе, которые можно было бы сосчитать. Есть только непрерывно изменяющийся во времени сигнал. Но и он содержит в себе информацию, которую можно измерить.

Кажется, нам повезло. Наш новый знакомый, вероятно, крупный ученый, и он настолько увлекся затронутой темой, что уличная беседа превратилась в солидный доклад.

- Как же оценить количество информации, содержащейся в самых разнообразных сообщениях? Ведь информацию не измеришь линейкой и не взвесишь на весах! Какая же мера способна учесть не только количество переданных слов и сигналов, но и количество содержащихся в них «новостей»? Здееьто и возникает новое понятие о «количестве информации», выражаемом с помощью энтропии.

Ученый обошел вокруг обелиска и остановился возле двух ящиков, затерявшихся среди множества прочих предметов. Заглянув туда, мы обнаружили, что в каждом из них есть черные и белые шары.

- Это устройство предназначено для туристов, - поясняет ученый. - Тому, кто стремится понять смысл информации, надо прежде всего познакомиться с вероятностью. В этом нам помогут шары. В урне 6 черных шаров и 4 белых. Вынимайте их наугад и бросайте обратно. А ваш товарищ будет записывать, какой попадается шар. Вторая пара проделает то же самое с шарами другой урны. Записали? Продолжайте опыт. Чтобы определить вероятность извлечения черного и белого шаров, придется повторить эти манипуляции несколько десятков раз.

Набравшись терпения, мы полчаса таскали шары из ящиков и отмечали, какой попадается шар. Записи выглядели так:

I урна: Ч, Б, Ч, Ч, Б, Ч. Б, Б, Ч, Ч, Ч, Б, Б...

II урна: Ч, Ч, Б, Ч, Ч, Ч, Ч, Ч, Ч, Б, Ч, Ч, Ч, Ч, Ч...

- Очевидно, Б обозначает «белый»? - спрашивает ученый. - Мы обычно пишем не так. У нас одному случаю соответствует 1, а второму - 0.

- Как в двоичном коде?

- Вот именно. Итак, белый шар - 1, черный - 0. Как теперь будут выглядеть записи?

I урна: 0, 1, 0, 0, 1, 0, 1, 1, 0, 0, 0, 1, 1...

II урна: 0, 0, 1, 0, 0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0...

- Теперь обратите внимание на одно весьма важное обстоятельство: во второй строчке цифра 0 встречается гораздо чаще, чем 1. Во втором опыте вам гораздо чаще попадались черные шары. Как вы думаете, это случайно?

- Разумеется. Ведь мы вынимали их наугад.

- Совершенно справедливо. Но во втором случае извлечение черного шара имело большую вероятность. Это легко подсчитать: здесь среди 10 шаров 9 имеют черную окраску, значит вероятность такого события составляет 9/10, или 90 процентов.

В первом ящике было 6 черных шаров. Вероятность их извлечения составляет 60 процентов. Поэтому еще до начала опыта можно было предвидеть, что из второй урны мы будем извлекать черный шар гораздо чаще, чем из первой.

Итак, мы извлекаем наугад шары сначала из первой урны, затем из второй и получаем сообщения об исходе опыта: в обоих случаях извлечен черный шар. Какое из этих двух сообщений содержит большее количество информации? Теория информации утверждает, что первое, потому что случай с четырьмя и шестью шарами имеет большую неопределенность - ведь во втором случае можно еще до получения сообщений почти безошибочно предсказать, что при повторении опыта будут чаще попадаться черные шары. Таким образом, количество информации зависит как от степени неопределенности какого-то явления, так и от меры нашего неведения о том, как и что будет происходить.

Теперь предположим, что мы продолжаем поочередно извлекать шары из второго ящика до тех пор, пока в руках у нас не окажется белый шар. Давайте отложим этот шар в сторону и продолжим наш опыт. Сколько информации будет давать нам теперь сообщение об извлечении шара? Нуль. Ведь, получив информацию о том, что из ящика извлечен единственный белый шар, мы можем уже совершенно определенно утверждать, что теперь любой извлеченный шар будет черным. Значит, мы пришли к случаю, соответствующему полному отсутствию неопределенности: вся неопределенность, заключающаяся в наличии одного белого шара, исчерпана в момент получения информации о том, что этот шар извлечен.

Что же получается? До тех пор, пока белый шар оставался в ящике, сообщение об извлечении каждого шара несло в себе определенное количество информации. Сообщение же об извлечении белого шара исчерпало всю неопределенность. Продолжая вытаскивать оставшиеся черные шары, мы будем получать сообщения об извлечении каждого шара, не получая уже никакой дополнительной информации.

Значит, с точки зрения наблюдателя, не все, содержащееся в сообщении, является информацией, а только то, что заранее ему неизвестно.

Узнаем ли мы что-либо новое из сообщения, что за июлем следует август? Об этом событии все известно заранее, в нем отсутствует неопределенность, и потому в этом случае количество информации, содержащейся в слове «август», равно нулю.

А какое количество информации получали мы, извлекая шары из урн? Чтобы выразить ее точными цифрами, надо оценить неопределенность каждого опыта. Для этого теория информации привлекает на помощь формулу энтропии, о которой я вам сейчас расскажу.

Смысл информации и информация без смысла

И впрямь удивительный это город! Даже в простых шарах заключен здесь особый, глубокий смысл. А тут еще какая-то энтропия... Впрочем, размышлять пока некогда - наш новый знакомый продолжает рассказ:

- В науке часто бывает так: стоит найти новый подход к привычным явлениям, и то, что казалось сложным и необъяснимым, не подчиняющимся никаким законам, вдруг становится простым и понятным. Порой даже кажется странным, почему люди не могли так долго уловить эту, ставшую теперь очевидной связь. Важно только четко сформулировать задачу, найти правильную точку зрения, и сразу разрозненные, бессвязные понятия и явления вдруг вливаются в единую, стройную систему, подобно тому как из разбросанных в коре земного шара вкраплений различных металлов возникают изящные стальные птицы, сверхдальние ракеты и сложные комплексы «умных» машин.

Так, рожденная великим Менделеевым периодическая система элементов не только внесла строгий порядок в исследования и оценки всех известных в то время веществ, но и предрекла открытие новых элементов и новых, неизведанных свойств. Закон всемирного тяготения сразу позволил уяснить механику всего мироздания и «увидеть» без телескопа движение неизвестных планет3. А закон сохранения энергии не только объяснил причину неудач многочисленных изобретателей «вечного двигателя», но и предрек неизбежною тщетность всех их попыток на все времена. И вот в наши дни появилась теория информации, и рожденные ею понятия заставили с новой точки зрения оценить окружающий мир.

Информация... Это все формы общения людей, начиная с обычной беседы и чтения книг и кончая всеми видами телеграфной и телефонной связи и передачи в эфир. Это все сведения о течении физических, химических, биологических процессов, полученные путем исследования, анализа и «регистрации всеми видами ныне существующих и будущих приборов. Это, наконец, неисчерпаемые процессы авторегулирования, происходящие и в созданных человеком машинах и в организмах, рожденных самой природой, процессы, в основе которых лежит получение информации и ее обработка. Мы посылаем в космос спутники и космонавтов. Мы создаем гигантские ускорители, в которых мельчайшие частицы материи могут «с разгона» проникать в недра других частиц. С помощью телескопов мы изучаем миры, недоступные глазу. Микроскопы, рентгеновские аппараты и химические реактивы помогают проникнуть внутрь живых организмов и изучить их структуру вплоть до мельчайшего «атома жизни» - микроскопической клетки. Разные области, разные методы, а цель одна - добыть информацию. И все эти разнородные и сложные процессы, созданные и возникающие в бесконечном многообразии явлений, пришедшие и приходящие из разных областей знаний, вдруг объединились, увязались и нашли новое толкование в едином понятии «информация». А все потому, что мы научились измерять количество информации с помощью простой формулы:

I = P1log P1 + P2log P2 + ... Pnlog Pn.

Здесь значки P1, P2 ... Pп означают вероятности рассматриваемых событий, а log P1 и т. д. - их логарифмы.

Так, например, в опыте с 6 черными и 4 белыми шарами P1 = 0,6 (60%), а P2 - 0,4 (40%). Значит, в этом случае количество информации будет равно:

I = 0,6·log 0,6 + 0,4·log 0,4.

Быть может, кто-нибудь из присутствующих давно не пользовался логарифмами? Не беда. Для этого существуют логарифмические таблицы. Зная число, по ним легко найти его логарифм. С помощью таблицы легко подсчитать, что:

I = 0,6·log 0,6 + 0,4·log 0,4 = 0,97.

(При расчете количества информации применяются двоичные логарифмы.)

А для случая с 1 белым и 9 черными шарами получим:

I = 0,1·log 0,1 + 0,9·log 0,9 = 0,47.

Таким образом, наши общие рассуждения о «неопределенности опыта» и о «мере неведенья» тех, кто проводит опыт, теперь выражаются точными числами. Но сами по себе числа мало о чем говорят.

Ведь нельзя сказать, что вес равен 10, - все дело в том, в каких выражается он единицах. Что это - 10 граммов или 10 тонн? Значит, для измерения информации тоже нужны какие-то единицы. Единицей времени служит время: час, минута, секунда. Единицей веса опять-таки служит вес. И все измерения производятся так же: давление сравнивается с давлением, температура - с температурой. Значит, и информацию нужно сравнивать с информацией.

За единицу количества информации принят самый простенький случай. Есть два возможных исхода - «или - или»; и каждый из них имеет одинаковую вероятность. Когда получено сообщение об исходе, одно «или» отпало и вы получили одну единицу количества информации - так называемый «бит». Например, в нашем ящике лежит 5 черных и 5 белых шаров. С равной вероятностью можно ожидать или черного, или белого шара. А по формуле Шеннона в этом случае получается:

I = 0,5·log20,5 + 0,5·log20,5 = - log22 = 1 бит.

Название «бит» происходит от сокращения английских слов, означающих в переводе «двоичная единица». Каждый знак двоичного кода тоже дает 1 бит информации, потому что с равной вероятностью может появиться 1 или 0.

Теперь мы имеем возможность оценить наши опыты в битах. Случай с четырьмя и шестью шарами имел большую неопределенность и давал информацию в количестве 0,97 бита. Опыт с девятью черными и одним белым шарами обладает меньшей неопределенностью - здесь каждое сообщение дает только 0,47 бита. А если в ящике находится 99 черных шаров и только один белый? Неопределенность почти исчезает: мы будем почти все время извлекать черный шар. И по формуле мы получим для данного случая информацию всего лишь 0,08 бита. Ну, а если нам вопреки ожиданиям попадется вдруг белый шар? Случай этот весьма непредвиденный, значит сообщение о таком результате должно дать большое количество информации. Так оно и окажется. Но при большом количестве опытов такое событие будет происходить очень редко, и в общей сумме полученной информации оно сыграет весьма малую роль. А формула Шеннона показывает, сколько информации дает в среднем каждое из сообщений. В большинстве случаев мы станем получать сообщения об извлечении черного шара. Очень редко будет попадаться и белый шар. А в среднем каждое сообщение оценивается в 0,08 бита.

А теперь взгляните на формулу, начертанную на самом верху колонны. Не кажется ли она вам знакомой? В самом деле, в ней есть те же символы Pi log Pi. Тот же значок вероятности. Тот же логарифм. А что означает i? i - это ряд целых чисел: 1, 2, 3 ... n. Вместо того чтобы много раз подряд писать похожие друг на друга строчки, математики придумали это простое обозначение: знаком ∑ они избавляют себя от труда много раз подряд повторять знак «+». Для полной ясности они пишут под этим знаком, что счет надо начинать с единицы (i=1; Pi=P1), а вверху напоминают, что кончать надо тогда, когда учтены все возможные случаи, то есть при Pi=Pn. Вот и получается знаменитая формула Шеннона, породившая Новый Город:

I =

n

i=1

Pi log Pi

Эту формулу можно использовать для оценки разнообразных сообщений. «Когда состоится очередное совещание работников транспорта?» - -запросили вы министерство. Какое количество информации вы должны получить в ответ? Неопределенности здесь гораздо больше, чем в опытах с черными и белыми шарами. Там вы могли ожидать только два различных исхода. А здесь вам могут назвать любой месяц и любое число. В году 365 дней, и, пока вы не получили ответа, любой из них имеет для вас одинаковую вероятность:

P1 = P2 = ... = P365 =

1

365

Формула Шеннона поможет нам выразить эту неопределенность количеством бит:

I =

365

i=1

Pi log Pi

Если действовать так, как велит эта формула, придется, набравшись терпения, выписать все члены Pilog Pi от P1 до P365 и сложить их между собой.

Но в данном случае расчет производится проще: сложение можно заменить умножением, потому что все вероятности Pi равны. Значит,

I =

(

1

365

·log

1

365

)

·365 = log

1

365

 = - log 28,5 = 8,5 бита.

Но вот пришел, наконец, ответ организаторов совещания, и неопределенность исчезла: в ответе указана точная дата - пятое августа. В каждом слове этого сообщения содержится определе-н'ное количество информации. Слово «август» позволяет отметить один из 12 месяцев. В нем содержится:

I1 =

12

i=1

Pi log Pi =

(

1

12

·log

1

12

)

·12 = - log 23,6 = 3,6 бита.

Слово «пятое» позволяет выбрать из 31 дня данного месяца интересующий нас день совещания.

Значит,

I2 =

31

i=1

Pi log Pi =

(

1

31

·log

1

31

)

·31 = - log 24,9 = 4,9 бита.

А в целом полученное сообщение дало нам как раз то количество информации, которое мы ожидали: I(сообщения) = I1 + I2 = 3,6 + 4,9 = 8,5 бита.

Видите, как все получается просто: чтобы узнать количество информации, содержащейся в сообщении, надо учесть число бит в каждом его элементе (слове, букве, числе, импульсе) и сложить их между собой4.

Бывают случаи, когда подсчитать количество информации очень несложно. Например, количество информации, содержащейся в сообщении о том, что Ботвинник играет черными, составляет ровно 1 бит. В самом деле, до получения этого сообщения вы могли предполагать, что черные фигуры окажутся или у Ботвинника, или у его партнера. Оба эти случая имели равную вероятность. Однако если вы знали о том, что прошлую партию Ботвинник играл черными, данное сообщение не несет вам никаких новых сведений - информация равна нулю. Зато сообщение о каждом ходе Ботвинника дает большое количество информации, потому что до его получения была полнейшая неопределенность: вы могли строить множество комбинаций, изыскивая лучший ход.

Если бы мы могли учесть все возможные комбинации и подсчитать вероятность каждого из ходов, наша формула позволила бы оценить эту информацию количеством бит. Однако сделать это не так-то просто: ход, который для Ботвинника имеет наибольшую вероятность, едва ли сделает какой-нибудь новичок. Значит, вероятность различных ходов зависит от опыта и умения шахматистов - от той информации, которая получена шахматистами еще задолго до игры. И не только от опыта. Иногда и настроение участников турнира может оказать существенное влияние на весь ход игры.

- Как вы сказали? Настроение?

До сих пор мы слушали все, о чем рассказывал нам ученый, не проронив ни единого слова, - настолько убедительной казалась нам его речь. Понятие информации казалось таким логичным и строгим, и вдруг...

- Значит, для того чтобы оценить здесь количество информации, надо учитывать настроение шахматиста? Разве такие вещи можно рассчитывать с помощью формулы?

- А почему бы и нет? - возражает ученый. - Разве настроение шахматиста, в свою очередь, не зависит от информации, от тех сведений и сообщений, которые он получил незадолго до начала игры?

«Но ведь это же чисто психологические вопросы!» - хотим возразить ему мы и вдруг вспоминаем, что информация - это удивительное колечко, которое катится все дальше и дальше, из одной области знаний в другую.

- Значит, психологию можно тоже оценивать в битах?

- Отчасти да. И с этим вы столкнетесь неоднократно. В нашем городе вас ожидает еще немало поразительных вещей. Но не все сразу.

Прежде всего вам надо как следует разобраться в том, каким образом удается самые разные сообщения оценить с помощью одних и тех же единиц. Не слишком ли отвлеченной, «неощутимой» кажется вам единица количества информации - так называемый бит? Вес можно определить с помощью весов и гири, объем - с помощью измерительных инструментов, время измеряется по часам, а энергия и сила тока - по отклонению стрелки прибора, включенного в электрическую цепь. Каким же прибором можно измерить количество информации? Оказывается, такой прибор уже существует. Правда, название «прибор» будет в этом случае, пожалуй, чересчур скромным - ведь речь идет об электронной вычислительной машине, которая не только измеряет (точнее - рассчитывает), но и использует и преобразует информацию, подобно тому как электрические приборы используют, преобразуют и измеряют электрический ток.

Было время, когда и обычная секунда казалась людям такой же неощутимой, каким сейчас кажется бит. Да что там говорить - мысль о том, что количество дней и баранов можно подсчитать с помощью одинаковых чисел, была, пожалуй, одной из самых непостижимых за всю историю развития человеческих знаний. Можно ли надеяться, что и бит со временем станет неизменным спутником нашего быта? Очевидно, можно. И вам будет приятно вспомнить, как вы в числе первых посланцев большого мира впервые встретились с битом в центре Нового Города, на площади Новых Идей.

Однако к делу. Вы теперь знаете, как измеряют количество информации, но еще не умеете измерить ее объем.

- Очевидно, надо построить спичечную коробку?

- Да, нечто похожее. Высота коробки будет соответствовать количеству информации, длина - времени передачи сигналов, а ширина - диапазону содержащихся в сигнале частот. Расчет объема информации напоминает расчет объема воды, подаваемой по трубе: чтобы найти этот объем, надо тоже перемножить три величины - скорость движения воды, время подачи и площадь сечения трубы.

Подсчитав объем информации, легче сравнивать различные способы ее передачи. Ведь прежде чем передать информацию по каналам связи, надо превратить все сообщения в какой-то сигнал. Одну и ту же информацию можно передать различным сигналом: все зависит от того, какой выбран код. Мы стараемся выбрать код таким образом, чтобы вся информация «размещалась» в самом малом объеме сигнала.

В жизни от нас часто требуют определенного объема знаний: например, знания физики в объеме школьной программы. Может быть, и объем знаний можно оценивать количеством бит? Представьте себе, что вы являетесь на экзамены и вас встречает... электронная машина! Вы отвечаете на вопросы, а машина подсчитывает количество информации, содержащейся в вашем ответе, и выдает точную оценку ваших знаний, выраженную количеством бит. Конечно, подобный пример - всего лишь шутка, ведь для оценки ответов по физике нужно знать не только объем, но и смысл информации по самым разнообразным вопросам. И все же шутка эта, как, впрочем, и всякая шутка, имеет определенный смысл. Можно, например, сконструировать такую машину, которая сможет задавать вопросы по правилам уличного движения и оценивать качество ответов по принципу «верно» или «неверно» («да» или «нет»).

Итак, все сведения, передаваемые по различным каналам связи, имеют определенный объем. Объемом обладают и телефонные переговоры, и сигналы, идущие к головному мозгу от руки, наткнувшейся на острый предмет, и звуки симфонической музыки, несущиеся по эфиру с другого материка. Когда теория информации решает задачи об объеме информации и о наилучшем способе передачи заданного объема, она не интересуется вопросом о том, для чего предназначена данная информация и какова ее ценность или смысл.

Нетрудно, например, подсчитать по формуле Шеннона, что количество информации, получаемой при извлечении одной карты из колоды, состоящей из 32 карт, составляет 5 бит. Это количество информации будет получено независимо от того, окажется ли вынутая наугад карта семеркой или тузом. Установленная правилами игры «ценность» той или иной карты не учитывается при расчете количества информации. Количество и объем информации, передаваемой по радио или телеграфу, не зависит от содержания или ценности тех сообщений, которые предстоит передать. Весь объем должен быть передан полностью, независимо от того, что в нем содержится: звуки джаза или биение пульса оперируемого больного, важное постановление или легкомысленный телефонный флирт.

Именно поэтому для сложного, многогранного понятия «информация» удается найти общие законы, такие же точные, как законы движения жидкости, текущей по трубе.

Именно поэтому теория информации сумела обобщить самые разнообразные виды сообщений, перевести их на единый и точный язык - язык математических формул.

Опыт многих десятилетий, проблемы различных областей науки, красоту и гибкость склонной к анализу и обобщениям человеческой мысли несут в себе скупые и педантичные математические значки.

Границы Нового Города

Давно уж окончен рассказ, но никто из нас не проронил ни единого слова. Мы пытаемся осмыслить то новое, что нам удалось узнать. Шары в ящике, телеграфный текст, звуки оркестра и оживающие на телевизионном экране кадры забытых лент - не такто легко усмотреть в этом нечто единое, чему можно найти общую меру, выражаемую количеством бит.

Но почему решили ученые, что при расчете количества информации не надо учитывать ее ценности? Ведь из книги и из доклада каждый из нас почерпнет именно то, что ему интересно и важно. Что ценно - то информация, а все остальное - пустые слова.

Почему же теория информации предлагает отбросить и ценность и смысл?

- Не от хорошей жизни, - соглашается с нами ученый. - Конечно, это несовершенство теории, которое надо будет как-то со временем исправлять. Уже стоит на повестке дня вопрос о создании теории семантической (смысловой) информации.

- Значит, на современном уровне теория информации попросту оторвалась от жизни? Ведь в жизни всякая информация имеет какую-то ценность и вполне определенный смысл!

- Да, конечно. Но жизнь сложна и многообразна. Чтобы найти для каких-то явлений четкий критерий, надо эти явления упрощать.

Сначала надо найти способ оценивать количество информации объективно, а уж потом решать, что ценко, а что не ценно, и как будет воспринимать информацию тот или иной человек.

- Для этого и придумали какую-то несуществующую информацию, вовсе лишенную смысла?

- Это абстракция. Вроде геометрических точек, которые не имеют размеров, и геометрических линий без толщины. Зато из них можно построить любые геометрические фигуры, а затем исследовать свойства этих фигур.

Для исследования реальных явлений науке часто приходится отвлекаться от их конкретных свойств. Нельзя создать на земле механического движения, при котором не возникало бы трения. Но до тех пор, пока Галилей не представил себе, как будет двигаться тело без трения, никаких законов движения нельзя было установить. Всем казалось, что скорость телеги определяется силой лошади. А Галилей сделал вдруг неожиданный вывод: сила лошади придает телеге не скорость, а ускорение. А трение замедляет движение. Не будь трения, не нужна была бы и лошадь - телега могла бы ехать сама!

Гениальная это была догадка. Благодаря ей Ньютон смог построить механику, объясняющую движение и земных механизмов, и небесных планет, и светил.

Шеннон сделал нечто подобное. Исключив понятие ценности, он сумел построить теорию, позволяющую рассчитать, сколько бит информации необходимо для управления станком и самолетом или для передачи будущим поколениям вкусов, склонностей и привычек отцов.

- Какая же сила заключена в этих битах?

- Сила? - задумчиво переспрашивает ученый. - Нет, информация - это не сила.

- Так почему же она управляет станком или целым заводом? Почему самолет, получающий информацию, может без участия человека совершать сложный полет? Почему с информацией связано все живое? Почему? Если она не сила и не энергия, то что же она такое?

- Вопрос довольно сложный. Сила, энергия - эти понятия хорошо известны науке. В настоящее время исследована природа механической, тепловой и электромагнитной энергии, изучаются свойства ядерных сил. Даже силы гравитации, благодаря которым все находящиеся на Земле предметы испытывают притяжение и обладают собственным весом, даже эти силы будут скоро до конца разгаданы современной наукой. Но информация... Она не имеет отношения ни к одной из перечисленных сил...

- Но и она участвует в самых разнообразных процессах!

- Да, участвует. И влияет на ход этих процессов. Но она имеет иную природу. Она связана с энтропией.

- С энтропией? Опять это непонятное слово. Что оно означает?

- Это слово пришло из физики, точнее - из термодинамики, одного из ее разделов. Происходит оно от греческого слова «тропэ», что означает «превращение». Термодинамика изучает процессы превращения тепловой энергии в механическую работу. Или в электричество. И для того чтобы объяснить, как это происходит, понадобилась энтропия.

- Ну, а при чем же здесь ящик с шарами, музыка, телеграфный текст?

- Как вам сказать... Видите ли, формула, которая красуется на этой колонне, как символ нашего города, тоже впервые появилась в термодинамике, а уж потом, много лет спустя, Шеннон применил ее для учета количества информации, которую содержит в себе телеграфный текст.

- Значит, эта формула просто «пришлась по вкусу»? И слово «энтропия» употребляется в Новом Городе совсем не в том смысле, который вкладывает в него физик?

Несколько мгновений ученый молчит.

- Вы сказали: «не в том смысле»? Да, так считают многие жители нашего города5.

- А вы?

- Я? Скажу вам прямо: ваши вопросы застали меня врасплох. Я уже много лет изучаю энтропию всяческих сообщений, но энтропия в физике - это не моя область. И едва ли кто-нибудь в нашем городе сможет дать вам четкий ответ на этот вопрос. Наш город исследует информацию и средства ее передачи. А ваш вопрос выходит за рамки этих проблем. Очевидно, тут надо идти от самых истоков. Что измеряли мы с помощью энтропии, извлекая из ящика черные и белые шары? Неопределенность опыта. Чем больше неопределенность, тем больше энтропия опыта, тем больше количество бит. А что выражает энтропия в термодинамике? То же самое. Электрическая энергия превращается в тепловую. Согласно законам термодинамики энтропия при этом должна возрасти. Почему? Да все потому же - возросла неопределенность: упорядоченное движение электронов по проводу превратилось в неопределенное, хаотическое тепловое движение. Все подчиняется той же формуле:

I =

n

i=1

Pi log Pi

Когда вероятность движения электронов от минуса к плюсу была наибольшей, неопределенность была мала. Но вот электрическая энергия превратилась в тепловую, возникло иное движение, в котором одинаково вероятны все направления: ведь тепловое движение - это хаотическое движение мельчайших частиц. Значит, увеличилась неопределенность, и энтропия возросла, так же как в случае одинаковой вероятности появления черных и белых шаров. Где-то здесь и скрывается истина. Но, к сожалению... Я не могу ответить более четко на этот вопрос.

Учений умолк. Казалось, он забыл о нашем присутствии. Его задумчивый взгляд устремлен куда-то в пространство. Быть может, там, далеко за пределами Нового Города, ему чудятся еще неизведанные просторы загадочной Ничейной земли.

Психология и вероятность

Мы горячо поблагодарили ученого за помощь.

- Куда бы вы порекомендовали нам последовать дальше? - спросил я его на прощанье.

- Вы, очевидно, сами сможете наметить дальнейший маршрут, если воспользуетесь путеводителем по Новому Городу. Такой путеводитель можно приобрести в любом книжном киоске. А если понадобится моя помощь, вы всегда найдете меня в этом здании, в лаборатории математических методов психологии. Желаю успехов!

Ученый пересек площадь и скрылся в одном из подъездов, а мы, воспользовавшись его советом, отправились искать ближайший киоск.

Пять минут спустя я уже держал в руках справочник-путеводитель, очень похожий на те, что издаются во всех больших городах. Естественно, что в путеводителе по Новому Городу самое почетное место занимает Шеннон - на первой странице дан крупным планом его портрет. Я увидел скромного, можно сказать, неприметного человека со спокойным задумчивым взглядом и худощавым лицом. Встретив его на улице, я никогда не подумал бы, что это крупный ученый, имя которого известно теперь всему миру.

Рядом с портретом Шеннона помещен второй такой же портрет. Под ним короткая справка: «Хартли, инженер связи. В 1928 году предложил формулу для измерения информации».

Тут же приведена эта формула:

I = log N.

Больше никаких сведений нет.

Как же так? Значит, вовсе не Шеннон впервые подумал о том, что информацию можно измерить? Тогда почему жители Нового Города считают основоположником Шеннона, а не Хартли?

Просмотрев весь справочник, я не нашел в нем никаких разъяснений. А вопрос этот не давал мне покоя.

Я вспомнил о любезном приглашении ученого. Удобно ли обратиться к нему с этим новым вопросом?

А что, если кто-нибудь из участников экспедиции задаст мне тот же вопрос? После некоторых колебаний я решил отложить посещение лаборатории до следующего дня.

Наутро я разыскал лабораторию математических методов психологии, где застал моего знакомого в окружении приборов и схем. Он встретил меня приветливо и поинтересовался, что меня к нему привело.

Я задал вопрос о Хартли и Шенноне. Несколько мгновений он сосредоточенно смотрел на меня, очевидно собираясь с мыслями. Затем тепло улыбнулся и произнес:

- Я боюсь, что мое мнение покажется вам предвзятым. Но я твердо убежден в том, что все дело в психологии. Хартли пренебрег психологией, когда предлагал свою формулу, а Шеннон ее учел.

- Я не понимаю, чью психологию вы имеете в виду?

- Мою, вашу, вон того прохожего - чью угодно. В том-то и сила формулы Шеннона, что она позволяет учесть воздействие информации на всякого человека, независимо от его индивидуальных свойств. Она позволяет установить объективные закономерности психологических реакций. Я, очевидно, выражаю свою мысль слишком туманно? Я сам работаю сейчас именно в этой области, и потому мне все это кажется настолько очевидным, что даже не знаю, как вам объяснить. Во всяком случае, информация связана с психологией настолько тесно, что волей-неволей инженерам пришлось учитывать психологию.

Давайте рассмотрим формулу Хартли:

I = log N.

N - это число возможных событий. Если в алфавите есть 32 буквы, значит согласно формуле Хартли каждая буква даст информацию I = log 32. Но тут есть одна тонкость. Ведь буквы в алфавите разные, и одни попадаются чаще, другие реже. Чем реже попадается буква, тем неожиданней будет она для того, кто ее прочел. Хартли понял, что дело должно обстоять именно так. Но он решил, что математик или конструктор не должны учитывать неожиданность. И поэтому, излагая свой метод оценки количества информации, он прямо сказал, что вопрос неожиданности получаемых сообщений относится к области психологии и не должен интересовать инженера. Зато формула Шеннона позволяет учесть любую неожиданность. В ней учтены вероятности всех сообщений:

I = ∑Pilog Pi.

Чтобы найти среднее количество информации, приходящейся на каждую букву, надо подставить в формулу вероятность появления всех букв:

I = PАlog PА + PБlog PБ + PВlog PВ + ... + PЯlog PЯ.

Если бы все 32 буквы имели равную вероятность, мы получили бы:

I =

(

1

32

·log

1

32

)

·32 = - log 32.

Как видите, в этом случае формула Шеннона совпадает с формулой Хартли. Значит, формула Хартли справедлива лишь в тех исключительных случаях, когда все сообщения имеют равную вероятность. А в общем случае надо пользоваться формулой Шеннона. И она позволит учесть тот самый психологический фактор, который отбросил Хартли.

Ведь по ней как раз и получается: чем больше неожиданность, тем больше бит. Например, когда мы извлекаем черный шар из ящика, в котором 99 черных й 1 белый, неожиданность невелика, и бит мы получаем немного.

Ну, кажется, я окончательно сбил вас с толку, - улыбнулся ученый и взглянул на часы. - Впрочем, если у вас будет желание разобраться в этом как следует, вам придется задержаться здесь еще на часок. Сейчас я вас должен покинуть, а через 20 минут буду демонстрировать здесь опыты группе экскурсантов. Если хотите, можете принять в них участие.

- С удовольствием! - с готовностью отозвался я.

Двадцать минут я провел в размышлениях, вспоминая о том, что услышал. Шуточное ли дело - математика в психологии! Я попробовал представить себе, как должна выглядеть психология, занявшая прочное место в ряду точных наук. Вы решаете уравнение и узнаете, как в заданных обстоятельствах будет вести себя живой человек... Какая-то мистика! Разве человек не волен поступать, как ему нравится? Кто заставит его подчиняться каким-то формулам?

Нет, тут, очевидно, не следует все принимать на веру. Между математикой и психологией все же должна существовать какая-то грань. Я вдруг представил себе школьный учебник, в котором рядом с обычными задачами по алгебре есть, например, и такие:

«Из А в В идет пешеход со скоростью 4 километра в час. Навстречу ему идет другой со скоростью 6 километров в час. Сколько времени пройдет до момента встречи, если расстояние 25 километров, второй вышел на два часа позже первого, а еще через час неожиданно пошел сильный дождь?»

Интересно, как стал бы решать такую задачку мой новый знакомый? Каким образом он учел бы в своих уравнениях неожиданный дождь?

Разве можно предвидеть, как будут вести себя пешеходы: спрячутся под ближайшее дерево или предпочтут поскорей добежать до намеченного пункта? Сплошная неопределенность. Однако формула Шеннона и в самом деле позволяет учесть неожиданность и оценить неопределенность событий. Правда, она даст ответ в среднем. Может быть, условие этой задачи надо сформулировать так: 100 пешеходов идут из Л в В, и по дороге начался дождь. По всей видимости, некоторые пешеходы спрячутся под укрытия, а часть из них побежит что есть силы. Если учесть вероятность обоих случаев, можно подсчитать среднюю скорость.

Между прочим, при расчете потоков людей и транспорта по улицам крупного города и в самом деле приходится учитывать всякие неожиданности, вплоть до стихийных бедствий. Может быть, имеет смысл ввести в такие расчеты «среднюю психологию» горожан?

Любопытно узнать, какие опыты собирается демонстрировать мой новый знакомый? Вскоре он вновь появился в лаборатории в окружении многочисленной группы людей.

- Прошу вас, - обратился он ко мне и указал на кресло, стоявшее рядом с прибором. - Сейчас мы попробуем оценить вашу психологию в битах. Познакомьтесь с принципом действия этой машины.

Машина показалась мне очень простой. Десять клавиш, расположенных у меня под рукой. Десять лампочек перед глазами, окрашенных в десять разных цветов. На каждой клавише указано, какому цвету она соответствует. Ученый предложил мне потренироваться на клавишах, чтобы освоиться с этой установкой. Затем он предупредил присутствующих, что начинается опыт.

Вспыхнула на панели голубая лампочка. Я нажал на нужную клавишу. Голубой огонек сменился зеленым. Я опять нажал на соответствующую клавишу.

Затем появился синий, потом красный, опять голубой... Я нажимал на клавиши, и перед моими глазами беспрестанно вспыхивали разноцветные огоньки. Устройство это, с виду совсем простое, на самом деле оказалось довольно хитрым: огоньки зажигались так беспорядочно, что нельзя было угадать заранее, какой вспыхнет следом. Моя роль оказалась гораздо сложнее, чем я думал вначале. Машина меня измотала: пришлось нажимать на каждую клавишу, наверно, по сотне раз. Случалось, конечно, и ошибаться, но машина «замечала» любую оплошность: пока я не найду нужную клавишу, она не зажжет другой огонек.

И тут родилась у меня озорная мысль. А что, если я все-таки ее обману? Насколько я понял, ее задача состоит в том, чтобы оценивать время моей реакции. Значит, если я буду нарочно затягивать время...

В это мгновение раздался какой-то щелчок, погасли лампочки на панели, и вспыхнул матовый циферблат. Часы показали 9 минут 58 секунд.

Мой знакомый подходит к своим экскурсантам и показывает им лист с вычислениями.

- Это расчет длительности реакции испытуемого, - объясняет он им. - Как видите, время почти совпадает с расчетным: по расчету реакция на 1000 включений должна длиться 9 минут 55 секунд.

И тут меня вдруг охватила досада. Как же так получается? Значит, раньше, чем я вошел в эту лабораторию, экспериментатор уже знал, сколько времени я буду искать нужную кнопку и сколько раз ошибусь? Ну, а если я захочу нажимать быстрее? Нет, быстрее, пожалуй, не выйдет - я старался изо всех сил. А если медленнее? Я ведь могу нарочно искать кнопку подольше. Как же тогда ваши формулы?

А ученый объясняет присутствующим (меня он даже не замечает - я ведь теперь «испытуемый», то есть попросту подопытный кролик).

- Расчет здесь довольно прост. Скорость реакции зависит от количества информации, получаемой во время опыта. В нашем опыте лампочки Зажигались в совершенно случайном порядке: в любой момент времени вероятность того, что вспыхнет красная лам-! почка, равна вероятности синей или зеленой. Среди тысячи вспышек каждая лампочка зажглась около сотни раз. Чем больше на панели разноцветных лампочек, тем больше неопределенность опыта. Потому и выходит, что в случае N лампочек длительность реакции зависит от величины log N.

Между прочим, психологи еще в прошлом веке открыли эту закономерность. Но они тогда, конечно, не знали, что дело тут связано с информацией. А формула Шеннона убедила нас, что все обстоит именно так. Сейчас мы несколько усложним наш опыт.

Экспериментатор нажимает кнопку, и снова у меня перед глазами мелькает разноцветная карусель. Сначала мне показалось, что все идет, как и прежде. Оказывается, нет: теперь у каждой лампочки своя «повадка». Красная зажигается чаще всех, и к ней я приспособился быстро. А голубая оказалась капризной: зажигается редко и всегда в неподходящий момент. Рука по привычке тянется к клавише, предназначенной для красного цвета, а тут вдруг перед глазами вспыхнула голубая - пока найдешь нужную клавишу, время уходит зря.

- Условия опыта стали другими, - говорит мой знакомый. - Теперь каждой из лампочек задана различная вероятность. Неопределенность опыта стала меньше. Сейчас вы убедитесь, что уменьшилось и время реакции. Потом я покажу вам, что, подставив вероятность каждого цвета в формулу Шеннона, мы можем рассчитать это время.

Все слушают объяснения, а я сижу и нажимаю на кнопки. И снова проснулась во мне досада. Ведь я же не кролик в конце-то концов! Почему он так уверен, что я буду делать по формуле? Как хочу, так и делаю - пусть попробует что-нибудь доказать. И я стал «тянуть время». Как в футболе. Имеет команда один гол в запасе, до конца матча остались считанные минуты, вот они и «тянут»: давно бы можно было передать мяч центральному нападающему, а его вместо этого выкидывают за боковую черту, да так, чтобы улетел подальше, куда-нибудь на четвертый ярус трибун. А если доведется игроку этой команды вводить мяч в игру, он превращается в истинного артиста: уж как он «торопится», как старается сделать все «поскорее»! Но болельщик-то всегда видит, кто торопится по-настоящему, а кто делает вид.

И вот я решил поступить точно так же. Давно уж я отыскал глазами нужную клавишу, а делаю вид, что никак не могу найти. «Попробуйте, - думаю, - определите теперь время по своим формулам, узнаете, какой я вам кролик!» Легкий щелчок, погасла красная лампочка, часы зафиксировали время реакции: 7 минут 55 секунд. Ученый посмотрел на часы, еще раз взглянул на свои записи, подошел ко мне и громко сказал:

- Одно из двух: или вас очень утомил этот опыт, или вы намеренно удлиняли время реакции.

В эту минуту я почувствовал себя довольно-таки глупо. Может быть, потому я и задал довольно нелепый вопрос:

- А разве было заметно?

Кое-кто из присутствовавших чуть не подавился, потому что громко смеяться было неловко. Не смеялись только ученый и я.

- Я не следил за вашим поведением, - строго сказал ученый. - Но я верю расчетам. Реакция должна была длиться около 7 минут.

- Так ведь и на часах почти столько же! - попытался кто-то выступить в мою защиту.

- Нет, - твердо ответил он. - 50 секунд разницы - это слишком большое время. Наш расчет позволяет определять время гораздо точнее. Если хотите в этом убедиться, я могу повторить опыт. Только на этот раз прошу без обмана!

Нет уж, теперь мне не до обмана! На этот раз я стараюсь изо всех сил. Кончился опыт, и часы показали 7 минут 3 секунды. Расчет предусмотрел мою расторопность с точностью нескольких секунд! Очевидно, формула учла все: и «характер» красной лампочки и «капризы» лампочки голубой.

- Как видите, - обращается к нам ученый, - время реакции во втором опыте оказалось меньше, чем в первом, хотя в обоих случаях лампочки переключались ровно 1000 раз. Почему это произошло? Потому что в этом случае испытуемый получил меньшее количество информации: ведь неопределенность опыта уменьшилась, потому что вероятность зажигания красной лампочки составляла в данном опыте 60 процентов, а голубой - только 3.

(Следует заметить, что при расчете по формуле Шеннона в теории информации всегда имеется в виду дополнительное

n

i=1

Pi = 1.

В рассматриваемом примере это условие следует понимать так: и в первом и втором опыте вероятность того, что зажжется любая из десяти лампочек, равна 100 процентам: P1 + P2 + ... + Pn = 1.)

А в первом опыте вероятность всех цветов была одинакова, неопределенность была наибольшей, так же как в ящике, содержащем равное количество черных и белых шаров.

- Непонятно! - раздались голоса у меня за спиной. - Лампочки могут зажигаться, как им угодно. Но ведь на них реагирует живой человек. Он не знает ни вероятности, ни информации - он только нажимает на клавиши. Откуда же такая точность?

- Да, он не знает никаких вероятностей, - согласился ученый. - А ему и не надо их знать. В томто и сила новой теории, что она помогает установить объективную связь информации и психологических реакций.

Когда красная лампочка зажигается чаще, чем все остальные, человек привыкает к красному цвету, и реакция на него становится почти мгновенной. Реакция на голубой цвет отнимала в нашем опыте значительно больше времени. Но он появляется редко, и общее время, потраченное на эту реакцию, было невелико. А в целом время, затраченное на 1000 включений, уменьшилось так же, как уменьшилось количество информации, подсчитанное по замечательной формуле Шеннона.

Итак, все кончилось благополучно: ученый простил мою невинную шалость, а я горячо, поблагодарил его за те сведения, которые он мне предоставил.

На этом, собственно, можно бы и закончить рассказ, если бы все было так, как я изложил. Но ведь читатель прекрасно знает, что нет на свете Нового Города, и потому ничего этого в действительности произойти не могло. И у него может возникнуть вполне законный вопрос: как расценивать то, о чем рассказывал автор? Не чистая ли это фантазия? Достоверно ли то, что рассказано здесь о новых методах психологии?

Эти опыты описаны в литературе, и если бы комунибудь из читателей довелось побывать в подобной лаборатории, он мог увидеть своими глазами опыт, который я описал.

Кстати, еще одно уточнение. Я рассказал о Хартли и Шенноне так, словно они жители Нового Города, руками которых заложен первый его кирпич. Имел ли я право допускать подобную вольность? Ведь имена этих ученых известны сейчас во всех странах мира, а о Новом Городе в мире не знает никто. И, конечно, не знают о нем ни Хартли, ни Шеннон - ведь такого города и на карте-то нет. Шеннон и Хартли живут и работают в Америке. А в нашей стране в эти годы плодотворно трудились над проблемами новой теории известные всему миру специалисты в области радио Берг, Котельников и Харкевич, математики Хинчин и Колмогоров, физиолог Анохин, языковеды Кнорозов и Иванов. От Шеннона и Хартли их отделяет широкий простор океана. С Хартли и Шенноном их связывает общность идей.

Информация внутри нас

Чем больше путешествует человек по далеким странам, тем чаще вспоминает он родные края. Чем рождены эти воспоминания? Тоской по дому, по родным и близким? Да, это чувство день ото дня становится острее. Но вместе с ним в душе путешественника зреет и другое чувство: ему очень хочется еще раз взглянуть на далекий привычный мир. Все новое, что довелось ему видеть во время странствий, заставляет его по-иному оценивать с детства запавшие в памяти факты, многие жизненные явления и поступки людей. Недаром выдающийся мастер слова Николай Васильевич Гоголь так любил взглянуть на Россию из «чудного далека».

Вот и мы с вами, побывав на улицах Нового Города, уже в ином свете представляем себе нашу прошлую жизнь. Разве могли мы раньше подозревать, что все наше прошлое неразрывно связано с информацией, что каждое его мгновение несло с собой миллионы незамеченных бит?

Где бы ни находились мы и чем бы ни были заняты в течение дня, хотели мы этого или нет, в любом месте и в любое мгновение мы принимали и «обрабатывали» огромное количество информации. Когда мы читали книгу или смотрели кинофильм, когда слушали лекцию, прогуливались по улице или обменивались новостями с друзьями - в любом случае зрение, слух, все наши органы чувств несли нам огромное количество разнообразных сведений и сообщений. Больше того, помимо той информации, которая воспринималась нами сознательно, каждую секунду наши органы чувств несли нам дополнительную, часто вовсе «не желательную» информацию. Читая книгу, мы испытывали неприятные ощущения жары или холода; беседуя с приятелем, чувствовали запах его папиросы, а самые интересные сведения, услышанные на лекции, воспринимались нами одновременно с назойливым шепотом соседа и звонкими гудками автомашин.

Непрерывным потоком бегут по нашим нервным волокнам неуловимые биты, неся с собой сообщения обо всем, что происходит во внешнем мире. Стало чутьчуть прохладней - и срочные сообщения уже следуют к центральной нервной системе, которая, посылая ответные команды, вызывает к деятельности процессы, которые поддерживают постоянной температуру нашего тела независимо от температуры внешней ереды. Ровная дорога сменилась небольшим подъемом - мышцы ноги уже чувствуют перемену и немедленно посылают срочные сообщения, чтобы пешеход, изменив положение тела, сохранил устойчивость во время ходьбы. Биты помогают нашему организму сохранять неизменным давление крови и снабжать все ткани тем' количеством кислорода, которое необходимо в данных условиях и в данный момент.

Побывав в лабораториях Нового Города, мы узнали, что самые совершенные «устройства» приема информации - это наши органы чувств. Но их пропускная способность небезгранична. Глаз человека способен воспринять миллионы бит в секунду, ухо - десятки тысяч. Для передачи большего количества информации требуется большее число каналов, поэтому число нервных волокон, идущих от 1\лаз к головному мозгу, достигает 900 тысяч, в то время как число слуховых волокон составляет лишь около 30 тысяч. В то же время установлено, что наибольшее количество информации, которое сознательно усваивает человек в процессе чтения, разговора или быстрого (стенографического) письма, не превышает 50 бит в секунду. Такая огромная разница между количеством информации, воспринимаемой органами чувств, и количеством усвоенной и осознанной информации объясняется необходимостью той сложной обработки, которая осуществляется головным мозгом.

Наши органы чувств - это своеобразные датчики, превращающие сообщения, приходящие из внешнего мира, в импульсы биологических токов, возбуждающих нервную ткань. Бесчисленные «каналы связи» сложной сетью нервных волокон «опутывают» каждую клеточку нашего организма. Каждое мгновение внутри нас осуществляются передача и обработка огромного количества сообщений о том, что вокруг нас творится и как влияет происходящее на наш организм.

Вы погружаетесь в горячую ванну, и каждая клеточка вашей кожи посылает спешные сообщения, что вода чересчур горяча. Мгновенный процесс обработки информации - и новая информация, информация о принятом решении, уже мчится по бесчисленным каналам связи к тканям различных мышц: надо подняться из ванны и открыть кран с холодной водой. Когда органы осязания передадут сообщение, что вода в ванне стала умеренно теплой, новые команды помогут вам завернуть кран и вновь погрузиться в воду.

Казалось бы, совсем обычная, простая операция, а количество информации, необходимое для ее осуществления, поистине огромно: чтобы выполнить эти действия, каждая мышца вашего тела должна получить целую серию специальных команд. И не только каждая мышца, но и каждая клетка мышечной ткани принимает и обрабатывает такое количество информации, что ее хватило бы для управления целым заводом. И это понятно: ведь в микроскопическом объеме клетки и в самом деле разместился гигантский «химический комбинат». В этом мельчайшем «атоме жизни» протекают тысячи разных процессов с участием сотен и сотен веществ. «Комбинат» полностью автоматизирован.

Непрерывный поток информации течет из внешней среды ко всем «диспетчерским пунктам», где вырабатываются, команды, регулирующие скорость течения этих процессов в зависимости от условий внешней среды.

Когда попытались получить те же команды с помощью электронной машины, результат оказался весьма любопытным. Для того чтобы учесть все данные только одного из возможных состояний среды и произвести по ним расчет скоростей реакций, машине, производящей тысячи операций в секунду, потребовалось целых 30 часов. А клетка способна в одно мгновение перестроить работу всех «цехов» своего «комбината», причем режим и скорость ее процессов всегда наилучшим образом соответствуют условиям внешней среды. Значит, в микроскопическом «атоме жизни» процесс обработки информации доведен до полного совершенства.

Чтобы обработать огромное количество данных за такое короткое время, необходимо очень экономно использовать пропускную способность каналов, посылать в них только те сведения, которые крайне необходимы, а всю избыточную информацию отметать как лишний, ненужный груз.

Инженеры связи тоже пытаются производить подобную сортировку, но до того совершенства, которого достигла природа, им, конечно, еще далеко.

Однако главное уже сделано: люди поняли, что в любых сообщениях есть избыточная информация, и научились отличать ее от информации необходимой.

ГЛАВА 3. ИНФОРМАЦИЯ БЕЗ ИЗЛИШЕСТВ

Законы случайностей

Вопрос об избыточной информации оказался труднее всех предыдущих. Уже несколько дней ходим мы по улицам Нового Города, расспрашиваем местных жителей, заглядываем на страницы различных книг. Но ясности пока нет.

Нам сказали, что определить избыточность текста можно в том случае, если известны законы чередования букв. Но как уяснить себе эти законы? Мы привыкли считать, что текст подчиняется грамматическим правилам. А здесь на язык смотрят как-то иначе... Вместо склонений или спряжений какие-то графики, формулы и значки. Говорят, что по ним изучают «структуру языка». Эта структура подчиняется законам теории вероятностей. И понятие «избыточности» тоже вытекает из этих законов. Чтобы определить избыточность текста, надо научиться с помощью теории вероятностей анализировать законы чередования букв.

- Скажите, у вас найдется курс теории вероятностей? - спросил я в одной из библиотек.

- Разумеется, - ответил библиотекарь и через мгновение извлек с полки солидный, увесистый том. - Это самый фундаментальный курс. Надеюсь, что здесь вы сможете найти все, что вас интересует.

- Да, пожалуй, даже с избытком, - пошутил я, беря в руки толстую книгу. - А кстати, как вы думаете, в этой книге тоже есть избыточная информация?

- Разумеется. Любая книга содержит в себе добрую половину лишних страниц.

- Даже учебник по математике? Странно... До сих пор я был уверен, что в нем нет ни одного лишнего слова. А в поэме Пушкина или в романе Толстого? Неужели даже в их бессмертных творениях есть «лишние» мысли или слова? Или, может быть, в Новом Городе поступают так же, как в США: вместо романа «Анна Каренииа» выпускают очередной «комикс», где на 3-й странице Анна встретилась с Вронским, а на 15-й уже слышится роковой стук колес?

- Нет, нет, - улыбается библиотекарь. - Уверяю вас, что жители нашего города не посягают на шедевры мировой культуры. Напротив, они любят и ценят искусство, и все их заботы направлены лишь на то, чтобы все созданное художником, писателем и композитором могло «транспортироваться» по специальным каналам связи без всяких потерь. Но при этом они пользуются особыми кодами, позволяющими передать полный текст «Анны Карениной» самым малым количеством условных значков. Наш алфавит тоже является кодом. Но этот код не слишком удобен, потому что избыточность его велика.

- Может быть, вы порекомендуете мне литературу. по которой я смогу изучить, как избавляются от этих «излишеств»?

- С удовольствием. Правда, в последние годы появилось так много различных способов, что их еще никто не сумел обобщить. Они описаны в различных журналах и книгах. Впрочем, вот что: пройдите в соседнюю комнату и обратитесь за помощью к электронной машине. Стоит лишь вложить в нее карточку с надписью «Избыточность сообщений», и она даст вам исчерпывающую информацию по вашему вопросу и предоставит в ваше распоряжение выписки из всевозможных статей и книг.

Я воспользовался этим любезным советом. Материала оказалось так много, что пришлось потратить на его изучение несколько дней. Зато в вопросе о том, как определяют избыточность текста, я приобрел полную ясность.

Вся суть заключается в законах случайностей. Дело в том, что жители Нового Города считают случайными все значения букв. Приняв по телеграфу начало нового слова, например ст..., нельзя сказать какие буквы последуют дальше: может быть, передаваемое слово окажется столом или стулом, может быть, стеной, статьей, стоном, стройкой, стоимостью, старостью, степенью или стрелой. Поэтому и считают жители Нового Города, что вслед за буквами с и т может случайно появиться буква о, е или у.

Но, оказывается, и случайность имеет свои законы. Непосвященным это покажется странным: случайность - и вдруг закон! Казалось бы, одно из двух: или есть какая-то закономерность, или все подчиняется воле случая. Однако случай случаю рознь. У каждого случая есть своя вероятность. Какова, например, вероятность того, что вслед за ст появится буква а? Как ее подсчитать? Для этого необходимо рассмотреть огромное количество самых разнообразных текстов и произвести строгий учет всех случаев появления сочетания ст. Если в результате такого учета, произведенного на многих тысячах слов, окажется, что из каждой сотни букв, появляющихся вслед за буквами ст, буква аповторяется в среднем пять раз, значит вероятность появления буквы а после букв с и т составляет 5 процентов. И самым любопытным является то, что, определив однажды вероятность появления буквы а, равную 5 процентам, мы обнаружим то же количество букв а в любом тексте, состоящем из достаточно большого числа букв. Не правда ли, странно: можно взять разные тексты - стихи, прозу, газетные сообщения и научный отчет; в любом из них среди каждой тысячи букв будет одно и то же количество а. Чем больше будет рассматриваться букв, тем точнее повторятся те же проценты. Да что далеко ходить за примерами! Подсчитайте число букв а на этой странице, а потом откройте наугад несколько других страниц. Если на них нет рисунков, то вы на всех страницах насчитаете почти равное количество а. Отчего это происходит? Оттого, что все случайности подчиняются одному закону: среди большого числа различных случайностей каждая из них (например, появление а) повторяется определенное количество раз. Это главный закон случайностей - закон больших чисел.

Если подсчитать, сколько раз встретится каждая буква алфавита после букв с и т, мы узнаем вероятность появления различных букв. И тогда окажется, что появление некоторых букв вслед за буквами с и т имеет большую вероятность (например, буквы е, о, а, р и т. п.), других букв - меньшую (например, ы - слово стычка или стык или в - ствол, створка), а для многих букв вероятность будет вовсе равна нулю: ведь нельзя вспомнить ни одного слова, в котором за буквами ст следовали бы буквыб, г или щ. Значит, в передаваемом тексте появление тех или иных букв не является «чисто случайным»; между последующим и предыдущим значениями передаваемых букв существует определенная взаимосвязь.

Взаимосвязь между случайными влениями называется «корреляцией». Этим свойством обладают самые разнообразные случайные процессы.

Случайным является значение букв, переданных по телеграфу. Случайной является частота и громкость звука в то или иное мгновение радиопередачи, случайной является мгновенная яркость бегущего по экрану телевизора электронного луча.

Но все эти случайные процессы в той или иной степени обладают чудесным свойством корреляции: и яркость луча, и звучание той или иной ноты связаны с той яркостью и тем звучанием, которые имели место несколько мгновений назад. Эта связь - основа гармонии музыкальных мелодий, плавных переходов от света к тени, тонов и полутонов.

Корреляция - основа порядка. Если бы по какой-либо невероятной причине все процессы вдруг лишились этого свойства, то телеграфные тексты мгновенно превратились бы в бессмысленную буквенную россыпь, музыка зазвучала бы, как шум водопада. а изображение на экране телевизора стало похожим на снежный буран. Язык, в котором все сочетания букв имели бы равное право на существование, выглядел бы довольно странно, потому что рядом с привычными в этом языке существовали бы и такие «слова», как пакртчмын, ъиюа, и другие, лишенные смысла и часто вовсе не произносимые сочетания букв.

На самом деле все тексты обладают свойством корреляции, и потому только около 0,0002 процента возможных буквенных сочетаний составляют осмысленные слова. И это не удивительно, ведь существует целый ряд сочетаний, запрещенных законами русской грамматики. Значит, их вероятность равна нулю. Так, например, вслед за буквой ч никогда не последуют буквы ы, я или ю, а в начале слова или после любой из гласных мы никогда, ни в одном тексте не увидим мягкий знак.

Бесконечное множество различных процессов обладает свойствами корреляции. Помимо букв, звуков, изображений, по тем же законам могут меняться значения токов, давлений, скоростей и температур. Но математика смогла обобщить все явления, в которых случайные значения скорости, яркости или буквы зависят от тех значений, которые имели место мгновение назад. Она назвала их «марковскими процессами» - по имени русского математика Маркова, который первым исследовал подобные процессы.

Все эти сведения о вероятностных законах словесных текстов вы можете почерпнуть из специальных статей и книг. Но если вам посчастливится побывать в лабораториях Нового Города, вы сможете увидеть собственными глазами, как случаем управляет закон. Здесь вам предложат вновь обратиться к урне с шарами, но на этот раз шары будут отличаться не цветом, а надписью: на каждом шаре будет написана какая-то буква. Вынимая шары наугад и вновь бросая их в урну, вы получите что-нибудь вроде: сухерробьдш яыхвщиюайжтлфвнзстфоенвштцрпхгбкуч тжюряпчъкйхрыс.

- Для чего вы заставляете меня записывать эту бессмыслицу? - спросил я у сотрудника лаборатории, демонстрировавшего этот опыт.

- Бессмыслицу? - улыбнулся он. - Да, пожалуй. Это пример самого хаотичного текста. В этой урне 320 шаров, каждая буква повторяется 10 раз. Вероятность всех букв одинакова:

PА = PБ = PВ = ... = PЯ = 1/32.

Если вы подставите эти значения в формулу Шеннона, то получится, что каждая буква дает информацию в количестве 5 бит.

(Читатель уже знаком с примером такого расчета. В данном случае:

I =

(

1

32

·log

1

32

)

·32 = log

1

32

 = - log 25 = 5 бит.)

Обратите внимание, - продолжал он, указывая на непонятную запись, - каким несуразным получилось второе слово. Встречали ли вы когда-нибудь такие «слова»? Конечно, нет, ведь в нем целых 59 букв! Продолжая этот опыт, вы будете все время получать такие же длинные и несуразные «слова». Почему? Потому что буквы чередуются здесь беспорядочно. 10 шаров не имеют букв. Вынимая такой шар, вы отмечаете пробел, соответствующий концу «слов». Вероятность появления пробела так же равна 1/32. Это значит, что в среднем на каждые 32 вынутые буквы будет один раз попадаться пробел. Значит, в нашем «тексте» 31 буква - это средняя длина слов. А ведь в нормальном тексте средняя длина слова составляет не более 7 букв.

Как же сделать, чтобы наш «текст» стал похож на обычные тексты? А очень просто. Возьмем другую урну. В этой урне среди каждой сотни шаров буква а попадется семь раз. Приблизительно с такой частотой повторяется она в русском тексте. Количество других букв также соответствует их вероятности. Повторите опыт.

На этот раз сообщение выглядело так:

еыт цияьа оерв однт ьуемлойк збя енв тша.

- Не правда ли, это мало похоже на обычную фразу? - обратился ко мне ученый. - И все же здесь уже есть какой-то порядок, по крайней мере нет слов слишком длинных, и каждое из них можно даже произнести вслух. А впрочем, нет. Как произнесешь мягкий знак, - стоящий в начале слова или поеле гласного звука я? Мы можем оценить в цифрах, много ли порядка появилось теперь в нашем тексте. Для этого надо знать, чему равна вероятность каждой буквы, подставить их в формулу Шеннона и подсчитать значение I. Мы уже делали такие расчеты, Получалось, что на каждую букву приходится теперь около 4 бит.

Итак, в первом случае было 5 бит на букву, а теперь только 4. Почему? Потому что уменьшилась неопределенность. Разные буквы имеют теперь не одинаковую вероятность, а разную. У формулы Шеннона есть одно очень важное свойство: она всегда покажет, что наибольшее значение I соответствует равной вероятности всех возможных событий. Если есть черные и белые шары, энтропия будет самой большой, когда и тех и других по 5, по 10 или по 100 штук. Если черных больше, чем белых, неопределенность становится меньше. Значит, в формуле Шеннона уменьшилось I.

То же самое с текстом. Раньше каждые 100 букв несли 500 бит информации, теперь 100 букв дают только 400 бит. Неопределенность фразы, состоящей из 100 букв, стала меньше ровно на 100 бит.

А можно рассуждать по-другому: перед тем как класть в урну шары с обозначениями букв, мы учли их вероятность. От этого в нашем тексте стало больше порядка: в каждой стобуквенной фразе порядок возрос на 100 бит.

- А сколько порядка в обычном печатном тексте? - спросил я ученого.

- На этот вопрос не так-то просто ответить. Чтобы оценить в битах этот порядок, надо учесть корреляцию всех букв и слов. Но мы с вами поступим несколько проще. Вот перед вами стоит вычислительная машина. В ее памяти хранятся все буквы алфавита. Мы сейчас зададим ей такую программу: она будет помнить три последние буквы написанного ей текста и сама выберет четвертую. При этом она учтет вероятности сочетаний: например, она «знает», что вероятность сочетания ста составляет 5 процентов, а вероятность стю - только 1 процент. Значит, в тексте, написанном этой машиной, сочетание стю встретится в пять раз реже, чем сочетание ста. Внимание, я включаю машину!

Прошло несколько мгновений, и на печатном бланке появились такие «слова»:

весел враться не сухом и непо и корко6.

- Нет, вы только полюбуйтесь на эту фразу! - восторженно произносит ученый. - - Это же не машина, а умница! Она «говорит» почти человеческим языком! Во всяком случае, в ее фразах можно найти подлежащее, сказуемое и другие части речи. Потому что порядка в ней стало гораздо больше: машина действует по программе и может учитывать вероятность и корреляцию букв. В каждой букве содержится теперь только 3 бита. По сравнению с первым опытом порядок, существующий в каждых ста буквах текста, увеличился на 200 бит. А ведь мы учли только корреляцию между четырьмя буквами текста. Если же учесть взаимосвязь между всеми буквами и словами, то информация каждой буквы будет равна приблизительно 1 биту. Машина станет настолько «умной», что сможет дать на любой ваш вопрос весьма толковый ответ!

Я очень внимательно слушаю все, что говорит ученый, и, кажется, все-таки перестаю его понимать. Неужели он и в самом деле собирается убеждать меня в том, что можно создать такую машину? Неужели вся разница между текстом, написанным ученым или поэтом, и тем, что пишет эта машина, измеряется только количеством бит? Уж не попали ли мы по ошибке в Лапуту? Ведь это там, по свидетельству Гулливера, ученые мужи постигали высшую мудрость, нанизывая на стержень гирлянды бессмысленных букв! Уж не по их ли стопам идут ученые Нового Города?

И все же факт остается фактом: ведь машина-то действительно пишет почти осмысленный текст. Может быть, ученый все-таки прав: стоит лишь усложнить программу, и машина напишет литературное произведение или научный трактат? Как во всем этом разобраться? Ведь смогли же создать машину, которая делает по программе правильный перевод. Почему же нельзя научить ее составлять разумные фразы? Где границы ее возможностей?

«Да нет же, - пытаюсь я себя успокоить. - Машина никогда не сможет писать осмысленных текстов, потому что в мире есть только одна «машина», способная учесть корреляцию всех букв и слов. Это человеческий мозг. Ну, а как работает мозг? Может быть, он отличается от машины лишь более сложной программой? Очевидно, и в этом придется как следует разобраться. Не надо только торопиться и забегать вперед».

Я замечаю с досадой, что нарушаю правило, установленное мной же самим. Разве можно увлекаться новой задачей, пока не решена прежняя? Проблем возникает так много, что нужно проявить железную выдержку, чтобы не сбиться с пути. Сейчас на повестке дня вопрос об избыточности, и потому я усилием воли заставляю себя вновь сосредоточить внимание на бессмысленных текстах.

- Так как же все-таки оценить их избыточность? - спрашиваю я ученого.

- О, эю уяснить вовсе не трудно. Посмотрите на эти фразы. Пока мы считаем, что все буквы имеют равную вероятность, по формуле Шеннона получается, что каждая буква алфавита несет информацию ровно 5 бит. А если учесть вероятность и корреляцию осмысленных текстов, то окажется, что неопределенность появления каждой следующей буквы составляет всего 1 бит. Получается разница в 4 бита. Это и есть избыточность текста. Значит, избыточность - это не учтенный нами порядок.

- А почему его считают избытком?

- Это тоже нетрудно понять. В каналах связи все буквы заменяются числами. А числа переводятся на двоичный код. Поэтому буква я будет выглядеть, как 100 ООО.

- А почему именно так?

- Разве вы не знакомы с двоичным кодом?

- Я знаком, но мне бы хотелось, чтобы наша беседа была понятна читателям.

- Хорошо, постараюсь выражаться яснее.

Буква я последняя в нашем алфавите. Ее порядковый номер - 32. 32 - это 2б, что в двоичной системе счисления обозначается как 100 000. Но это не сто тысяч! Это именно число 32, но записано оно только двумя цифрами - 0 и 1, и чтобы передать букву я, приходится потратить 6 импульсов: единицу и пять нулей7.

Когда импульсы следуют друг за другом, каждый из них несет одно из двух сообщений: 0 или 1, «да» или «нет». Значит, каждый импульс дает информацию 1 бит. И каждая буква текста при -учете законов чередования дает около 1 бита. Отсюда возникает вопрос: нельзя ли создать такой код, в котором импульсов будет не больше, чем букв?

Сортировка словесного груза

С этим новым вопросом пришлось повозиться еще несколько дней. Им занимались все члены отряда. Мы обнаружили, что существует множество различных способов, позволяющих избавить сообщения от излишеств. Мы начали с самых простых. В одном из текстов нам встретилась фраза:

Чтобы добиться спортивных успехов, необходимо непрерывно совершенствоваться, учиться у ведущих мастеров спорта, трудиться над повышением собственного мастерства, систематически тренироваться и закаляться.

Раньше мы не нашли бы в подобной фразе ничего необычного. Но теперь мы во всем находим излишки и потому прежде всего обращаем внимание на то обстоятельство, что сочетание ться повторяется в этой фразе целых шесть раз.

Если заменить все ться одним условным значком, подобно тому как это делают в стенографии, то 6 таких значков заменят целых 24 буквы, а сообщение станет короче на 18 букв. Метод этот изучается теорией информации и называется «укрупнением сигнала».

А вот пример, который встречался нам раньше. Сообщение о том, что Ботвинник играет черными, содержит в себе всего 1 бит. Но фраза Ботвинник играет черными содержит 22 буквы - целых 110 бит. Следовательно, 109 бит - это чистый избыток!

Как избавиться от «лишнего груза»?

А очень просто. Надо пользоваться специальным кодом: 0 - Ботвинник играет черными; 1 - черными играет партнер. И избытка как не бывало: вся информация уместилась теперь в одном импульсе, потому что импульс дает как раз 1 бит.

Но понять смысл таких сообщений сможет не каждый. Надо заранее знать о том, что возможны лишь два различных исхода, и каждый имеет свою вероятность: P1 - вероятность того, что Ботвинник играет черными; P2 - вероятность того, что черными играет партнер. Зная заранее, что P2 = P1 = 50 процентам, мы посылаем сигналы 0 или 1, и они дают нам как раз то количество информации, которое мы ожидаем, - 1 бит.

Для того чтобы пользоваться этим условным кодом, мы должны предварительно получить информацию о том, что он будет обозначать. Нам должно быть известно заранее, что речь пойдет о шахматном матче, а не о принятии резолюции на Ассамблее ООН. Мы должны знать, что в матче участвуют, скажем, Таль и Ботвинник, а не кто-то другой. Но все эти сведения мы должны получить однажды, а дальнейшие сообщения, вроде: Ботвинник играет черными; черными играет Таль, уточняют лишь, кто из них будет играть черными в очередной встрече, то есть дают всего 1 бит. Поэтому с точки зрения теории информации нет никакого смысла на протяжении всего матча 24 раза подряд повторять подобные фразы - ведь можно значительно уменьшить избыточность, применив специальный код.

Кстати, именно так и поступают работники телеграфа при передаче поздравительных праздничных телеграмм. Почему эти телеграммы стоят дешевле обычных? Потому что в них то и дело повторяются фразы: Поздравляю с Новым годом; Желаю успехов, здоровья, счастья... А работники связи делают просто: вместо слов поздравлений и пожеланий посылают один условный значок. Но все же указанный способ имеет лишь частное применение: он пригоден в тех случаях, когда сообщения повторяются несколько раз. А нельзя ли найти более общие методы, избавляющие от излишеств любой передаваемый текст? Оказывается, такой способ уже нашли. Специальные устройства сортируют «словесные грузы». Грузы эти сортируются не по весу, не по качеству, не по объему, а по вероятности появления букв.

Чтобы передать текст по каналу связи, надо применить какой-нибудь код. Если бы нам предложили выбрать способ кодирования, мы, очевидно, поступили бы просто: поскольку все буквы для нас равноценны, мы выписали бы подряд весь алфавит и присвоили буквам порядковые номера. Затем условились бы, что каждому номеру соответствует какая-то высота импульса: чем больше порядковый номер буквы, тем больше соответствующий импульс.

Казалось бы, именно так и следует поступить. Но если оценить этот код с точки зрения избыточности сообщений, он окажется очень невыгодным. Почему? Потому что он был составлен без учета вероятности букв. Возьмем, например, букву т. В алфавите она занимает 20-е место. Значит, если а передается каким-то маленьким импульсом, то т будет передано импульсом, в 20 раз большим. Чем больше импульс, тем больше энергии расходуется при передаче. Буква т встречается в тексте почти так же часто, как а8.

Если бы мы обозначили букву т маленьким импульсом, то сэкономили бы много энергии. Чтобы уменьшить избыточность, надо применить такой код, чтобы буквам с самой большой вероятностью соответствовал самый маленький импульс.

Если известны заранее вероятности всех букв русского текста, электронная трубка может избавить нас от дальнейших хлопот. Можно поручить ей «сортировку» любого текста.

Так же как в любой телевизионной трубке электроны, излучаемые катодом, фокусируются в узкий пучок. Проходя через щель, образованную двумя пластинами, он падает на экран. Если на верхнюю пластину подать положительный импульс, луч отклонится вверх. Мы включили это устройство в канал передачи словесного текста, каждой букве которого соответствует импульс определенной величины.

Начинается передача. На верхнюю пластину трубки приходят импульсы. Луч прыгает по экрану, отклоняясь то больше, то меньше в зависимости от приходящих сигналов. Экран здесь необычный: на него нанесена тонкая пленка с неравномерной прозрачностью. Это и есть то самое «сито», которое должно произвести «сортировку» букв. Нанося эту пленку, мы учли существующий в тексте порядок. Если появилась буква, имеющая малую вероятность, луч попадает в прозрачную часть экрана. А буквам, которые в тексте встречаются часто, мы постарались создать самый плотный барьер. Чем меньше яркость луча, прошедшего сквозь «сито», тем меньше ток фотоэлемента, с помощью которого будет передан дальше этот сигнал. Значит, на выходе фотоэлемента мы получим тот код, который нам нужен: букве с самой большой вероятностью будет соответствовать самый маленький импульс.

Ценой незначительных усложнений мы можем заставить это устройство учитывать корреляцию бука. Для этого нам придется использовать еще одну пару пластин, отклоняющих луч слева направо. Первый сигнал (например, буква с) отклоняет луч вверх. А следующий сигнал, соответствующий, допустим, букве т, попадет на боковые пластины и заставит луч переместиться слева направо (Чтобы оба сигнала отклоняли луч одновременно, сигнал, соответствующий с, подается на пластину с задержкой по времени). Луч попадет в определенную точку экрана. Сочетание ст встречается в тексте довольно часто - в этой точке прозрачность должна быть невелика.

Такое устройство сможет не только учесть вероятность двухбуквенных сочетаний, но и произвести укрупнение сигнала, посылая определенный импульс взамен каждых двух букв. Чем чаще встречается в тексте данное сочетание, тем меньше будет посылаемый импульс.

Сообщения и предсназания

Вы заметили, что жители Нового Города называют информацию двумя различными именами? В одних случаях ее величают «мерой неопределенности»: чем больше неопределенность событий, тем больше информации дают сообщения об этих событиях. В других случаях говорят, что это «мера неведения»: события могут следовать друг за другом в определенном порядке, но, пока порядок нам неизвестен, информация о событиях будет для нас опять-таки велика. Пока мы не изучили порядка, существующего в буквенных текстах, каждая буква будет давать нам целых 5 бит. И только когда сообщения имеют строгий порядок, который заранее нам известен, информация равна нулю.

За июлем следует август - вот пример сообщения о событиях, которые всегда соблюдают один и тот же неизменный порядок. Был, конечно, такой момент, когда мы впервые узнали о 12 месяцах года. Но это случилось однажды, и с тех пор это сообщение не несет нам никаких новостей. Предварительная информация исчерпала всю неопределенность событий, и потому, приняв первые слова сообщения, мы безошибочно предскажем, что дальше последует слово август. А все, что можно предсказать до получения сообщений, не несет никакой дополнительной информации - это всего лишь ненужный, избыточный груз. Как избавиться от него? Способы могут быть разные. Мы рассмотрим самый простой.

Автомат включил плавильную печь и передает на пульт управления сообщения об изменении температуры. Каждую секунду он посылает импульсы. По величине этих импульсов можно судить о температуре печи.

До последнего времени такие системы применялись повсюду, и никто не искал в них «излишеств». Казалось, все сделано очень разумно: во сколько раз увеличится температура, во столько раз возрастет и сигнал. Но жители Нового Города обнаружили в этом сигнале колоссальный «избыточный груз».

На много ли изменяется температура в течение каждой секунды? Давайте отметим все приращения на нашем рисунке. Получается «лесенка», ступеньки которой показывают, как возрастает температура. «Лесенка» выглядит довольно обычно. А жителям Нового Города она показалась громоздкой и неуклюжей. Если бы подобную лестницу решили построить в подъезде многоэтажного дома, она заняла бы почти все здание: ведь каждая ее ступенька идет от пола нижнего этажа. А сколько ушло бы лишнего материала! Нет, никто из строителей не пошел бы на такие расходы.

Почему же инженеры-связисты должны мириться с таким положением? Разве энергия, которая расходуется при передаче ступенек, растущих от самого нижнего уровня, не требует лишних средств? Ведь можно построить «лестницу», которая станет ажурней, дешевле и легче. Можно предвидеть заранее, что температура будет расти плавно и каждая новая ступенька будет отличаться от предыдущей на небольшую величину. И передавать надо не весь уровень, а только его приращение; тогда ступеньки окажутся меньше в несколько раз. А приемное устройство будет «пристраивать» ступеньку к ступеньке и восстановит весь ход кривой.

А если на обоих концах линии связи установить автоматы, которые смогут хотя бы весьма приблизительно предсказать величины этих ступенек, то «лесенка» станет еще ажурней.

Пусть известно, что в какой-то момент времени температура составляет 500 градусов Цельсия. Автомат, установленный в конце линии (назовем его «К»), уже «изучил» характер процесса и может «предвидеть», что в течение каждой секунды температура возрастет в среднем на 10 градусов. Не дожидаясь новых сигналов, он добавляет эту ступеньку к полученным ранее сообщениям и «запоминает» новое значение - 510 градусов.

Автомат, установленный в начале линии связи (автомат «Н»), делает то же самое: прибавив 10 градусов к прежнему значению, он «запоминает» температуру 510 градусов. А затем начинает сравнивать с истинной температурой. Если «предсказание» подтвердилось, посылать сигнал незачем:'автомат «К» уже отметил эту величину. Но предсказывать можно лишь приблизительно. Точное значение температуры может составить и 508 и 511 градусов. Тогда автомат «Н» зафиксирует разницу между истиной и ее предсказанием и пошлет по линии связи малюсенькую ступеньку - поправку на 1 - 2 градуса. Эти крошечные ступеньки позволят в течение всего периода наблюдений точно фиксировать истинную температуру, не расходуя лишней энергии на «избыточный груз».

А нельзя ли с помощью предсказаний облегчить и «словесный груз»? Ведь просто же, прочитав слова что посеешь..., предсказать, что дальше последует ...то и пожнешь. Может быть, это смогут делать и автоматы?

Иногда можно точно предсказать значение целого слова по сочетанию нескольких букв. Лев Кассиль в своей повести «Кондуит и Швамбрания» вспоминает такой эпизод. Учитель словесности имел забавное прозвише - Длинношеее. Один из учеников задал ему вопрос: можно ли в русском языке найти слово, в котором три раза подряд повторялась бы буква «е»? И, к великому удовольствию класса, не подозревающий подвоха учитель произнес свое прозвище: «Длинношеее». Озорной гимназист рассчитал весьма точно: сочетание это встречается редко, поэтому можно почти безошибочно предсказать, каков будет ответ.

Но подобное слово - лишь редкое исключение. В большинстве случаев значение слов и букв словесного текста предсказать невозможно. Если бы во всех случаях жизни мы могли предвидеть, какие слова последуют дальше, мы не могл# бы из книги, газеты или доклада извлечь для себя никаких новостей.

Упаковка должка быть надежной

Как же все-таки избавить тексты от «лишнего груза»? Предсказания сбываются редко. Электронная трубка устраняет избыточность только частично, потому что при «сортировке» она учитывает лишь вероятность двух букв. Чтобы устранить избыточность полностью, пришлось бы «сортировать» и слова и даже целые фразы: ведь надо учитывать, что после слова черный слово снег появляется очень редко, а вслед за словом производительность почти всегда произносят слово труда. Но стоит ли заниматься такой кропотливой работой? Много ли выиграют сообщения, если мы полностью избавим их от избытка? Нет, от этого они могут лишь проиграть.

Большинство передаваемых сообщений переводятся путем кодирования на язык импульсов. Любая внешняя причипа (например, излучение близ расположенных радиостанций) может изменить величину какого-то электромагнитного импульса. В случае передачи словесных текстов это приведет к изменению или исчезновению какой-то буквы.

Пусть, например, мы приняли по радиотелеграфу следующую последовательность букв:

т, о, м, к, о, е.

По всей видимости, в это сообщение вкралась ошибка. Можно предположить, что вместо м передавалось н или п. Посмотрим, что последует дальше. Если передадут слово стекло, значит ранее было передано слово тонкое; если - болото, то вместо м следует читать букву п.

Чтобы восстановить значение одной искаженной буквы, нам пришлось использовать не только связь ее с другими буквами, но и связь между словами.

Предположим, что для передачи сообщений разработан какой-то новый, лишенный избыточности язык, то есть язык, в котором любая комбинация букв соответствует новому значению слова. Ис-кажение любой буквы в таком «языке» приводило бы к появлению нового слова, и было бы чрезвычайно затруднительно при чтении принятого текста восстановить его первоначальный вид. Оказывается, в целом ряде случаев приходится специально увеличивать избыточность, чтобы избавиться от помех. Например, при разговоре по телефону мы часто повторяем несколько раз неразборчивые слова. Информация от этого не увеличивается: ведь оттого, что вам три раза подряд произнесут слово быстро, вы не получите никаких добавочных сведений о скорости процесса, о котором шла речь. От этого возрастет лишь «объем сигнала», потому что увеличится «тара», в которой упакован «словесный груз». Зато в такой «таре» груз прибудет в полной сохранности: ведь и обычная транспортная упаковка станет прочней и надежней, если увеличить ее толщину.

Голос, собранный по частям

Чтобы не загружать каналы связи ненужными «грузами», жители Нового Города решили подвергнуть проверке все сообщения и все способы их передачи. И оказалось, что каждое сообщение содержит в себе «избыточный груз».

Студия телевидения транслирует новый спектакль. Казалось бы, что может быть лишнего в такой передаче? На экран попадает лишь то, что происходит на сцене. Но люди Нового Города и здесь находят «избыточный груз». Они рассуждают так. На сцене действуют только актеры. А декорации в течение всего акта остаются на месте. И это можно предвидеть заранее, потому что лишь в редких случаях сквозь стены проникают на сцену мифические персонажи или декорации передвигаются раньше, чем начнется антракт. Так есть ли смысл без конца сообщать о том, что пол, потолок, стены и мебель остаются на прежних местах? Может быть, достаточно в первый момент передачи отделить неподвижную часть кадра и, запомнив все декорации, сообщать только то, что действительно является новым?

Оказывается, достаточно. И сигнал от этого станет намного «компактней», потому что он будет нести в себе только то, что заранее нам неизвестно. В канале, который раньше предназначался для передачи одной программы, уместится несколько лишенных избыточности телевизионных программ.

И с каналами телефонной связи можно поступить точно так же: передавать сразу 6 разговоров там, где раньше умещался один. Потому что вместо полного диапазона частот, содержащихся в человеческом голосе, можно передавать только определенную часть. Правда, голос при этом исказится настолько, что трудно будет узнать даже близких знакомых. Но разборчивость речи не пострадает. Значит, по такому каналу можно с успехом передать сводку выполнения плана, газетный текст или служебный отчет. А потеря оттенков голоса будет в данном случае лишь избавлением от излишеств.

Но жители Нового Города решили, что и в этом лишенном оттенков голосе остается много «лишнего груза». Избыточность можно сделать значительно меньше, если научиться «разбирать голос на части», то есть выделять из него сигналы различных частот. Вместо этих сигналов гораздо выгоднее передавать по каналу связи только сигналы-команды. Эти команды будут приводить в действие специальные генераторы, установленные на приемном конце линии связи, и управлять их сигналами. От изменения голоса абонента будут меняться команды, а вместе с ними частоты и уровни вырабатываемых генераторами сигналов. Сложив эти сигналы, вы получите искусственный голос - голос, «собранный по частям». Несмотря на сложность этой системы, она вполне оправдает себя тем огромным количеством сведений, которые можно по ней передать.

И все же возможность ее весьма ограничена. Такая система хороша до тех пор, пока важен лишь смысл переданных слов. Ну, а если передается художественное слово? Что останется от произведения, если вместо живых, выразительных интонаций актера вы услышите монотонный механический голос - голос, собранный по частям?

Опять всплывает понятие «ценности». Никак от него не избавиться - гонишь его в дверь, оно лезет в окно.

При передаче живой речи актера все звуковые оттенки несут ценную информацию. Значит, необходимо сохранить все изменения силы (уровня) звука и весь диапазон частот. А при передаче цифровых показателей или сводки погоды интонации ценности не представляют. Поэтому в специальных каналах их отметают как ненужный, избыточный груз.

Но даже такой, лишенный всяких оттенков искусственный голос создать вовсе не просто, потому что он состоит из огромного множества различных сигналов, или, как говорят инженеры связи, имеет «очень богатый спектр». Впрочем, к понятию спектра нам придется еще вернуться, потому что в теории информации око играет немаловажную роль.

ГЛАВА 4. НА ГРАНИ ФАНТАСТИКИ

Сигналы из космоса

Статьи по теории информации, публикуемые в специальных журналах, рассчитаны на подготовленного читателя, и их нельзя читать с такой же легкостью, как, скажем, повесть или рассказ. Но тот, кто имеет необходимую подготовку, будет читать их с захватывающим интересом. За длинными строчками уравнений он уловит черты современности, напряженный ритм нашей эпохи, четкие действия автоматов, способных производить сложные вычисления, управлять производством, переводить иностранные тексты и выводить на орбиту космические корабли.

Трудно сказать, что здесь кому помогает: теория практике или наоборот. Несомненно, что без теории информации нельзя было бы сконструировать систему связи для управления полетом ракеты. Но с такой уверенностью можно говорить и о том, что теория информации не развивалась бы столь стремительно, если бы не возникла нужда в создании подобных систем.

Чтобы опустить воздушного змея, надо тянуть за ниточку, которая связывает его с землей. Космический корабль может покинуть орбиту и вернуться на Землю, если передать по радио соответствующую команду. Значит, подобно воздушному змею, он связан с Землей невидимой нитью, носящей название «информация».

Казалось бы, осуществить подобную связь не так уж сложно. На Земле - передатчик, на борту - специальный приемник. Когда на вход приемника поступят сигналы, он их усилит, и они смогут включить автомат, осуществляющий спуск.

Однако если учесть, что, помимо команды спуска, на корабль подаются другие команды, управляющие приборами и автоматами, установленными на борту, задача станет намного сложнее. В этом отношении корабль похож н-е на змея, а на куклу-марионетку, которую с помощью нескольких нитей заставляют проделывать множество разнообразных движений.

А с борта корабля поступают на Землю другие сигналы. В них содержатся сообщения о давлении и температуре в специальном контейнере, о космической радиации, о распыленных в пространстве частицах материи и о магнитном поле Земли. Во время полета эти сигналы следуют непрерывно, и каждый из них должен быть принят наземной станцией и направлен в отведенный ему канал. Так возникает многоканальная связь.

Самый простой канал связи состоит из передатчик ка и приемника, настроенных на одну частоту. Но космическая станция обеспечивает одновременную передачу по десяткам различных каналов. Как это достигается? Нельзя же установить на борту корабля двадцать передатчиков, работающих на двадцати различных частотах? Такая система была бы слишком громоздкой и совершенно неприемлемой для космических станций, при конструировании которых необходимо экономить каждый грамм веса. Вот здесь-то теория информации и приходит на помощь технике связи.

Шаг за шагом

Чтобы представить себе, как велика роль теории информации в решении проблем, выдвигаемых нашей эпохой, надо внимательно проследить весь путь создания многоканальных систем. Вот почему отбросим на время общие рассуждения и займемся конкретным делом: спроектируем радиостанцию для связи с космическим кораблем. А поскольку мы с вами еще не покинули Нового Города, то воспользуемся его лабораториями и цехами, где быстро и точно могут изготовить аппаратуру по нашим схемам и чертежам. Затем с космодрома Нового Города взлетит на орбиту новый корабль, и мы сможем принять сигналы из космоса и прочесть по ним, как протекает полет.

Как приступить к решению этой задачи? Прежде всего мы должны подумать о том, как перевести все сообщения, передаваемые из космоса, на один общий язык - язык радиосигналов. Для этих целей современная техника применяет специальные датчики - устройства, превращающие все интересующие нас величины в электрический ток.

Если включить в электрическую цепь сопротивление, величина которого зависит от температуры, ток в этой цепи будет изменяться вместе с температурой. Это простое устройство может служить датчиком температуры.

Для измерения давления мы используем специальный конденсатор, одна пластина которого представляет собой гибкую мембрану. С увеличением давления емкость конденсатора будет расти, потому что, прогибаясь, мембрана уменьшает зазор. Подобное устройство сможет служить еще и датчиком сообщений о количестве метеоритов, удары которых будут чувствительными для гибкой мембраны.

Мы имеем множество датчиков и один передатчик, излучающий на Землю сигналы. На сигнале должны быть записаны все сообщения. Но при этом должна соблюдаться строгая очередность.

Итак, я начинаю набрасывать первую схему. Вот множество датчиков. Каждый из них я подключаю к одному из контактов, расположенных по кругу. Специальный ползунок может вращаться по этому кругу и поочередно «прощупывать» каждый контакт. В тот момент, когда ползунок соприкоснется с контактом, сигнал одного из датчиков поступит на передатчик и будет принят наземной станцией.

Все происходящее напоминает картину войскового смотра, когда главнокомандующий шаг за шагом минует ряды выстроенных перед ним подразделений и заслушивает четкие рапорты командиров. По команде, пришедшей с Земли, ползунок начинает поочередно обходить расположенные по кругу контакты, и каждый из них «рапортует» о состоянии доверенного ему объекта наблюдений:

- Температура?

- Двадцать!

- Давление?

- Семьсот тридцать!

- Излучение?

- Сорок рентген!

Пришедший на Землю ответный сигнал подает команду такому же переключателю, который одновременно (синхронно) с бортовым переключателем «совершает обход» соответствующих контактов, передавая их «рапорт» приемному устройству наземной станции:

- Температура?

- Двадцать!

- Давление?

- Семьсот тридцать!

- Излучение?

- Сорок рентген!

Конечно, в сигналах, пришедших на Землю, не содержится таких подробных ответов. На экране видны лишь отдельные всплески - импульсы тока. Высота их зависит от уровня измеряемых величин. Если растет давление, значит в соответствующем датчике растет ток. Этот ток воздействует на передатчик и увеличивает излучаемый им сигнал. Соответственно растет импульс на экране наземной станции.

Но здесь возникает первый сложный вопрос. Представьте себе, что система, которую мы хотим спроектировать, уже запущена в космос и точность ее сообщений гарантирует успешный полет. Пусть датчик, измеряющий давление внутри одного из отсеков, подключен к контакту номер один. Ползунок коснулся контакта, и вы получили сообщение о том, что давление соответствует норме. Ползунок пополз дальше, а в вас вдруг закралось сомнение: а что, если в следующее мгновение давление резко подскочит вверх? Вы с нетерпением ждете следующего сообщения. Вам кажется, что ползунок движется чересчур медленно: прошло так много томительных мгновений, а он не прошел и четверти круга. Но вот, наконец, обход завершен, и ползунок вновь вернулся на первый контакт. Вы почувствовали облегчение: давление не превысило нормы. И вдруг снова тени сомнений смутили ваш покой. Несколько мгновений назад все было в порядке. Сейчас тоже. А что было в промежутке между двумя сообщениями? Может быть, по каким-то причинам произошел резкий скачок давления в этом отсеке и оно превратило в лепешку часть приборов, установленных на борту корабля?

Впрочем, должен признаться, что я чересчур сгустил краски. «Тени сомнений» не смогли бы возникнуть в перерыве между двумя сообщениями, потому что даже при самой медленной скорости ползунок успевает в течение каждой секунды обежать все контакты по нескольку раз. Но измеряемые величины могут меняться еще быстрее. И оттого, что сообщения следуют с перерывами, полученная нами картина явления может быть совсем не похожа на то, что происходит на борту корабля.

И все же во многих случаях жизни нам приходится верить таким вот прерывистым сообщениям. Как проверяют продукты питания, выпускаемые фабрикой или заводом? Разве кто-нибудь пробует все сосиски или подвергает анализу каждый кусок колбасы? Нет, лишь время от времени с продуктов снимают пробу. По нескольким деталям, изготовленным цехом, делают заключение, что вся партия соответствует норме. И никто не высказывает опасений, что в перерыве между отдельными пробами проскочил производственный брак.

Но как часто снимаются подобные пробы? Через час или через день? Может быть, достаточно проверять раз в неделю? Но если в начале недели установлено, что колбаса изготовлена из свежего мяса, разве кто-нибудь даст гарантию, что к концу недели мясо будет таким же свежим? Очевидно, продукты питания проверяются чаще.

А как часто надо «снимать пробы» со спутника?

Не так-то просто ответить на этот вопрос. Пока ясно только одно: чем быстрее изменяются интересующие нас показатели, тем чаще надо снимать с них «пробу». Если бы нас интересовала погода в какомто районе Земли, мы могли бы принимать сообщения о температуре и скорости ветра не чаще, чем раз в 20 - 30 минут, потому что за это время погода в общем-то останется той же. Но ведь мы хотим получать сигналы со спутника. А уж тут дело сложнее. Спутник летает с огромной скоростью, и потому «космическая погода» может в течение каждой минуты измениться несколько раз. Успеют ли следить за этими изменениями наши отрывочные сигналы? Какой перерыв во времени допустим для отдельных «проб»?

Вот здесь и приходит на помощь теория информации. В основе многих ее положений лежит так называемая теорема Котельникова, позволяющая определить необходимую частоту «проб».

Среди тех, кто впервые поднял вопросы, касающиеся общих проблем передачи сообщений, советскому ученому Котельникову принадлежит почетное место. Это он впервые назвал «каналами связи» все пути, по которым может бежать информация, объединив этим термином и нервные ткани, и проволоку, и эфир9.

Им же была доказана теорема, согласно которой сведения о любых явлениях и процессах могут быть приняты на расстоянии в виде отдельных отрывочных «проб». Частота этих «проб» зависит от тех частот, которые содержит в себе сигнал.

Известно, что солнечный луч, пропущенный сквозь распыленную в воздухе влагу, дает красивые переливы цветов, которые мы называем радугой. Эти цвета образуют так называемый спектр. Белый луч распадается на семь цветов спектра, потому что он несет в себе множество различных частот.

Каждый сигнал, пришедший из космоса, тоже обладаег определенной «окраской» - его «цвет» зависит от содержащихся в нем частот.

К этой простой аналогии инженеры-связисты пришли не сразу. Сначала эти частоты были получены чисто теоретически, с помощью издавна используемых математикой преобразований Фурье. Затем научились выделять их из сложных сигналов с помощью специальных электрических фильтров. Нам с вами предстоит сейчас проделать подобную процедуру, для того чтобы воспользоваться теоремой Котельникова и определить, как часто придется снимать «пробы» с борта космического корабля. А зная частоту этих «проб», мы определим, с какой скоростью должен вращаться ползунок шагового переключателя во время «опроса» датчиков.

Чувствуете, какая длинная получается здесь связь? Одно цепляется за другое. Надо знать форму принятого сигнала, определить состав его спектра и привлечь на помощь теорему Котельникова, для того чтобы ответить лишь на один, казалось бы, совсем не сложный вопрос: как быстро должен вращаться наш ползунок?

Но удивляться этому не приходится. Ведь с помощью ползунка мы хотим получать информацию. Так где же, как не в теории информации, должны искать мы ответа на каждый вопрос? Раз уж мы взялись конструировать систему космической связи, нам придется вооружиться терпением и шаг за шагом пройти все звенья этой цепи.

Предположим, что сигнал одного из датчиков, с которого мы хотим снимать «пробы», имеет сложную форму, изображенную на рисунке. Нетрудно заметить, что здесь есть определенная частота повторения: через равные промежутки времени ток датчика нарастает и падает до нуля. Если это происходит 100 раз в секунду, значит частота повторения составляет 100 герц.

Этот сложный сигнал содержит в себе множество простых (синусоидальных) сигналов различных частот: 100, 200, 300, 400 герц. При этом чем выше частота, тем слабее сигнал. Эти простые сигналы и образуют спектр.

Давайте изобразим этот спектр иначе. Пусть каждый сигнал спектра будет «привязан» к шкале, по которой отмечены все частоты. Теперь на нашем рисунке сложный сигнал датчика будет выглядеть как частокол. Высота этого «частокола» определяется уровнями сигналов. (Уровень синусоидального сигнала определяется его амплитудой, то есть наибольшим отклонением напряжения от нулевого значения.) Каждый сигнал спектра имеет в общем узоре (то есть в сложном сигнале) определенный «удельный вес». Начиная с некоторой частоты (например, 1000 герц), составляющие спектра будут настолько малы, что приемник наземной станции их попросту не замечает. Да их и не следует замечать: они так малы, что их отсутствие не повлияет на форму сигнала.

Вот теперь мы можем, наконец, воспользоваться теоремой Котельникова и определить необходимую частоту «проб». Смысл теоремы довольно прост: если среди многих частот, содержащихся в сложном сигнале, наибольшая частота, которую «замечает» приемник, составляет 1000 герц, то информация окажется достаточно полной только в том случае, если в течение каждой секунды «пробы» будут сниматься не меньше 2 тысяч раз.

Во всех случаях частота опроса должна быть в два раза больше самой высокой частоты, содержащейся в спектре сигнала.

Наука предсказаний

Все было бы хорошо, если бы сигналы всех датчиков имели неизменную форму и обладали определенной частотой повторения. Но на практике дело обстоит гораздо сложнее.

Например, если датчик дает информацию о распыленных в космосе мельчайших частицах, то сигнал в соответствующем канале непрерывно меняется, потому что частицы встречаются то чаще, то реже, плотность их может быть то постоянной, то изменяться в течение каждой секунды несколько раз. А когда изменяется форма сигнала, изменяется и его спектр. Наш «частокол» будет очень подвижным, он может стать то уже, то шире, а уровень прыгает то вверх, то вниз. Говоря образно, спектр будет «дышать». Как найти наибольшую частоту такого подвижного спектра? Как определить необходимую частоту наших «проб»? С какой скоростью должен производить опрос шаговый переключатель?

Чтобы ответить на эти вопросы, теория информации привлекает на помощь другую теорию - теорию случайных процессов.

Если частота и уровень образующих спектр сигналов изменяются по случайным законам, значит можно определить вероятности различных уровней и частот. А зная вероятности, можно предвидеть будущее. Спутник, скажем, существует только в проекте, а мы уже знаем, как будут вести себя сигналы из космоса, когда, достигнув орбиты, он действительно станет спутником нашей Земли. Но для этого нам придется исследовать множество подобных сигналов - ведь само понятие «вероятность» справедливо только для многократно повторяющихся событий.

Нельзя, например, применив теорию вероятностей, предсказать, сколько раз из десяти подброшенная монета упадет вверх гербом. Может быть, 5, а может быть, 3 или 6. И все же теория утверждает, что вероятность выпадения любой из сторон монеты равна 50 процентам, и можно с полной уверенностью предсказывать, что подбрасываемая монета не сможет опровергнуть этого утверждения. И действительно, когда английский ученый Карл Пирсон ради эксперимента подбросил монету 24 тысячи раз, число падения вверх гербом составило 50,05 процента! А ведь так оно и должно быть: чем больше бросков, тем более точно подтверждается то, что предсказано вероятностью. Здесь действует закон больших чисел.

Явления, вероятность которых учитывает теория информации, куда сложнее и многообразнее, чем падение подброшенной монеты: ведь в процессе передачи сигналов происходит непрерывное изменение многих уровней и частот. Потому и приходится учитывать их вероятность, чтобы узнать, каких сигналов следует ожидать. Между прочим, в теории случайных процессов ожидание - это не вынужденное безделье, а точно подсчитанная величина. Ее называют «математическим ожиданием».

Однако не слишком ли мы увлеклись теорией? Может быть, лучше обратиться к примерам из жизни?

На стройку должна прибыть партия рабочих. Начальник стройки отдал распоряжение завхозу закупить для них спецодежду. А какие нужны размеры, не сказал. Да и не мог сказать: у него есть список рабочих, но в этом списке, разумеется, не отмечен их рост. Но завхоз уверенно составляет заявку, в которой числится много спецовок средних размеров и меньшее количество на высокий и малый рост.

По списку закуплено и выдано 5 тысяч спецовок, и к концу раздачи становится ясным, что из всех 5 тысяч рабочих только для нескольких хитрый снабженец не угадал нужного размера. Кладовщик в полном недоумении: подумать только, наугад закуплено столько костюмов, и почти все оказались в самый раз!

А стоит ли удивляться? Ведь завхоз, сам того не подозревая, составлял список по законам теории вероятностей. Быть может, он никогда в жизни не слышал, что есть на свете такая теория, но жизненный опыт подсказал ему, что средний рост имеет наибольшую вероятность, а люди слишком высокие или очень уж низкие встречаются как исключение.

Но можно было ту же задачу решать и более строго. Например, так. Дать команду рабочим прекратить работу на стройке и выстроиться в один длинный ряд. Линия, «огибающая» рабочих, будет кривой случайного распределения роста людей.

Завхоза, который решился бы предложить подобный способ расчета спецовок, начальник стройки, очевидно, уволил бы в тот же день. И он был бы прав: лучше закупить сотню лишних спецовок, чем прерывать строительство хотя бы на полчаса. К счастью, завхозы, как правило, обходятся без подобных приемов, полагаясь на свой жизненный опыт. Но нас с вами этот пример интересует с точки зрения чисто теоретической, а потому (да простит нас строгий начальник стройки!) мы попытаемся довести расчет до конца.

Давайте установим 5 размеров спецовок и составим таблицу их вероятностей.

Номер

размера

спецовок

Расход

ткани

(кв. м)

Число спецовок

на каждую сотню

рабочих

Вероятность

данного

размера

1

2,0

15

0,15

2

2,5

20

0,20

3

3,0

30

0,30

4

3,5

25

0,25

5

4,0

10

0,10

Теперь можно смело закупать 150 первых и 200 вторых размеров на каждую 1000 спецовок - составленная по законам теории вероятностей таблица «предскажет» рост вновь прибывших рабочих без значительных ошибок.

По этой таблице можно делать и другие расчеты. Можно рассчитать, сколько надо купить ткани для того, чтобы сшить вновь прибывшим рабочим костюмы точно по росту. Как это сделать? Ведь рост каждого из рабочих нам по-прежнему неизвестен. Зато мы можем рассчитать по нашей таблице, какого расхода ткани следует ожидать. Каждый из указанных в таблице расходов мы помножим на его вероятность и, сложив все полученные цифры, определим ожидаемый средний расход.

Средний расход = 2,0·0,15 + 2,5·0,20 + 3,0·0,30 + 3,5·0,25 + 4,0·0,10 = 2,975 ≈ 3 кв. м.

Расчет, как видите, подтвердил, что ожидать надо именно среднего роста - недаром завхоз закупал средний размер. Если мы собираемся покупать материал на 5 тысяч спецовок, то надо исходить из того, что все 5 тысяч рабочих имеют одинаковый средний рост. Но разве среди 5 тысяч рабочих не найдется высоких и низких? Найдутся, конечно. И спецовки им придется шить разные: и средние, и малые, и большие. Однако в среднем на каждого из рабочих придется потратить материала ровно столько, сколько требует средний размер.

Конечно, в жизни подобные задачи решаются значительно проще: ведь никто не упрекнет снабженца, если в результате обеспечения 5 тысяч рабочих на складе останется Немного неиспользованного материала. Но техника не терпит ни «избытка», ни «недостатка»: от точности определения вероятности и математического ожидания уровней и частот всех сигналов зависит точность передачи сообщений и общее количество информации, которое наша система сможет нам передать.

Логика автоматов

Теория с практикой связана неразрывно. Теория утверждает, что точность полученной информации будет тем выше, чем больше частота опроса, а техника связи создает шаговые системы, в которых роль ползунка выполняет сфокусированный поток электронов, способный в течение каждой секунды обежать все контакты тысячи раз.

Теория позволяет определить частоты, содержащиеся в спектрах сложных сигналов, а техника связи использует специальные фильтры, с помощью которых каждый сигнал направляется в отведенный ему частотный канал.

Применяя подобные фильтры, можно осуществлять передачу по многим каналам без помощи шагового переключателя, разделив сообщения по частоте.

Но еще чаще применяются такие системы, в которых различные сообщения различаются одновременно и по времени и по частоте.

Такая система позволит передавать очень большое количество информации. В каждый частотный канал попадают сигналы от нескольких датчиков, с которых снимает показания шаговый переключатель или электронный луч. Сигналы эти воздействуют на специальные генераторы, частоты которых (их называют «поднесущими частотами») должны попасть в соответствующие фильтры приемной станции. Каждый из генераторов, в свою очередь, воздействует на передатчик, вырабатывающий несущий сигнал. Этот сигнал пронесет по эфиру все сведения и будет принят наземной станцией, которая направит различные частоты по разным каналам.

В такой системе разные сообщения будут стекаться к одному передатчику, подобно тому как на крупном заводе все показатели выполнения плана идут от рабочих участков в единое плановое бюро. А в наземной станции сообщения вновь растекутся по разным каналам. (Если сравнить с тем же заводом, то надо представить себе, как приказ директора передается по инстанциям ко всем рабочим местам.)

Задача, которую нам теперь предстоит решить, может служить еще одним ярким примером неразрывных уз практики и теории. Нам придется разработать такие схемы, которые смогут не только передавать и принимать информацию, но и делать выводы из полученных сообщений.

Чтобы вывести спутник на заданную орбиту и вновь вернуть его на космодром, надо создать специальные автоматы. Они должны не только принять сигналы со спутника, но и послать ему ответные команды. Эти команды могут меняться в зависимости от сообщений, которые приходят из космоса.

Обрабатывая огромное количество данных, автомат сам «принимает решение» с учетом всей информации, которую он получил. Значит, и в нашем проекте должны быть использованы такие системы.

И сейчас иногда приходится слышать: «Ну разве это работник? Никакой инициативы! Действует «от» и «до» - как автомат». Какая несправедливость! Разве современные автоматы не способны учитывать и сопоставлять различный сведения для принятия нужных решений? Разве у них нет своей логики? Нет, очевидно, прошло то время, когда плохого работника можно было сравнивать с автоматом. Теперь приходится согласиться с тем, что в определенных условиях автомат может действовать так же разумно, как человек. Как же удалось людям создать автоматы, способные учитывать разнообразную информацию и в самых различных ситуациях находить правильное решение?

Оказывается, все случаи сопоставления сведений можно свести к короткому перечню правил, изучением которых занимается один из разделов математики: алгебра логики, или алгебра событий. Правила алгебры логики применимы к любым счетно-решающим устройствам, независимо от того, установлены ли эти устройства на космическом корабле, в вычислительной машине или... в обыкновенном лифте.

Обращали ли вы внимание на одну маленькую особенность лифта: сколько бы вы ни жали на кнопку вызова, он не начнет спускаться, пока в его кабине находится пассажир. Потому что лифт «рассуждает» так: «Зачем же спускаться за вторым пассажиром, если первый еще не доставлен на нужный этаж?» Логично, не правда ли? Но где же спрятана эта «логика лифта»? Взгляните на эту таблицу. В ней перечислены все условия, которые нужно выполнить, чтобы лифт начал спускаться по вызову.

Таблица 1

Необходимые условия спуска

Обозначения 

условий

На нижнем этаже дверь шахты закрыта

Дн.э

На верхнем этаже дверь шахты закрыта

Дв.э

Пассажира в кабине нет

П

Дверь кабины открыта или закрыта

Дк+Дк

Ожидающий внизу нажал кнопку вызова

Кв

Буквенные обозначения этих условий выбираются произвольно: каждая из букв, имеющихся в правой части таблицы, может быть с успехом заменена любой другой. Однако, применяя эти обозначения, мы уже использовали определенные правила алгебры логики. Так, например, общепринятым является обозначение отсутствия пассажира (отрицания события) через значок П с минусом наверху, в том случае если присутствие его обозначается буквой П без минуса.

Слово «или» в алгебре логики заменяется знаком « + ». Значит, написав условное обозначение Дк+Дк, мы предоставили возможность пассажирам, выходящим из лифта, оставлять кабину открытой или, подчиняясь привычке, прикрывать за собой дверь.

В случае, когда все условия выполняются одновременно (то есть одновременно должно произойти и Дн.э, и Дв.э, и П, и Дк+Дк, и Кв), алгебра логики пользуется знаком умножения - «×». Теперь все происходящие в лифте события, для описания которых мы до сих пор пользовались разнообразными и многочисленными словами, сведутся к простой и короткой формуле:

С1 = Дн.э × Дв.э × П × (Дк+Дк) × Кв.

(Заметим, что вероятность события (Дк+Дк) равна 1, н потому в дальнейшем этот множитель можно исключить.)

Описанный случай не является единственным случаем спуска (именно поэтому мы и обозначили его как С1).

Второй случай спуска (С2) осуществляется при условиях, перечисленных в таблице 2, и может быть представлен в виде такой же простой формулы:

С2 = Дн.э × Дв.э × Дк × П × Кс.

Таблица 2

Необходимые условия спуска

Обозначения 

условий

На нижнем этаже дверь лифта закрыта

Дн.э

На верхнем этаже дверь лифта закрыта

Дв.э

Дверь кабины закрыта

Дк

Пассажир находится в кабине

П

Пассажир в кабине нажал кнопку спуска

Кс

Чтобы лифт начал спускаться, должно быть выполнено или С1 или С2. В любом случае должен включиться мотор, спускающий лифт (М). Значит:

М = С1 + С2 = Дн.э × Дв.э × П × Кв + Дн.э × Дв.э × Дк × П × Кс.

Дальше все, как в обычной алгебре: вынося за скобки общие множители Дн.э и Дв.э, получим:

М = Дн.э × Дв.э × (П × Кв + Дк × П × Кс).

Тому, кто впервые столкнулся с алгеброй логики, нелегко увидеть в последней записи простую электрическую контактную схему. Но достаточно сопоставить между собой все три колонки 3-й таблицы, чтобы убедиться в том, что переход от формулы к схеме тоже является простым и логичным.

Таблица 3

Обозначение

алгебры

логики

Соответствующая

контактная схема

Словесное выражение

выполняемой операции

A×B

Цепь I - II будет замкнута в том случае, если сработали и А и В

A+B

Цепь I - II будет замкнута, если сработал А или В

A+B

Цепь I - II будет замкнута, если сработал А или не сработал В (при срабатывании В цепь размыкается)

Посмотрите внимательно на эту таблицу, и вы убедитесь в том, что изображенная на рисунке схема находится в полном соответствии с формулой:

М = Дн.э × Дв.э × (П × Кв + Дк × П × Кс).

Значит, правила алгебры логики помогли нам спроектировать простейшее автоматическое устройство, схема которого была получена нами сначала с помощью формулы, а затем в виде соединенных между собой в определенной последовательности контактов реле.

До тех пор пока в этой схеме не нарушены механические контакты и четко срабатывают реле, схема «помнит» условия, записанные в таблицах 1 и 2. Просмотрите еще раз эти условия, мысленно замыкая соответствующие контакты, и вы убедитесь, что цепь I - II, включающая мотор для спуска кабины, окажется замкнутой только в том случае, если выполнены все условия, соответствующие случаю С1 или С2.

Те же логические операции может с успехом выполнять электронная лампа. Если каждый из приходящих импульсов (хцу) может по отдельности отпирать электронную лампу, вызывая импульс тока в ее анодной цепи, значит лампа выполняет операцию х или у, то есть х + у. В случае, когда лампа отпирается при одновременном воздействии обоих импульсов, она выполняет операцию х и у (х · у). Каждый из этих импульсов в отдельности не способен отпереть лампу, и лишь при совместном их появле» нии лампа откроет им путь.

Надо сказать, что сложные контактные схемы начали применяться в автоматике значительно раньше, чем алгебра логики пришла на помощь конструкторам и инженерам. Долгое время такие схемы строились «по догадке».

Пока количество контактов в схеме не выходило за пределы десятка, такой способ никого не смущал. Но когда сложные задачи автоматики потребовали включения в схему десятков и сотен контактов, построение схем превратилось в мучительную головоломку. А с помощью алгебры логики любой школьник сможет безошибочно составить сложную схему. Когда проверили по формулам сложные схемы, созданные ранее «по догадке», оказалось, что в них одни и те же цепи замыкаются десятками параллельных контактов! Их можно было попросту отключить от электрической схемы, совершенно не нарушая работы автоматических устройств.

Что же тогда говорить о современных вычислительных машинах, схема которых состоит из сотен тысяч ячеек?

Без применения алгебры логики о создании подобной схемы не могло быть и речи. Зато с помощью этой необычной алгебры удается создать сложнейшие логические схемы, производящие целую серию операций в соответствии с заданной им программой. Логика позволяет этим устройствам в ответ на каждый сигнал «отыскать в памяти» нужные сведения, сопоставить их с этим сигналом, оценить результаты сопоставлений и направить их в нужный канал. Прежде чем совершить новую операцию, машина «оценивает» прежние результаты, руководствуясь теми же правилами логики: «Если имеется А и В, следует делать С».

Так возникает сложная последовательность «самостоятельных» действий автомата, подчиняющихся лишь самым общим правилам, известным математикам под названием «алгоритмов». Но как ни сложны эти операции, все они подчиняются формулам алгебры логики, причем в основе их всегда лежат простейшие операции типа А к В, А или В.

Современная математика состоит из многих самостоятельных разделов, и нелегко перечислить явления, которые удалось свести к ее формулам, символам и значкам. А когда-то человек не мог сосчитать даже собственных пальцев. Он мог лишь сказать, что их много, потому что первобытная арифметика знала только две количественные оценки: или «много», или «один». Потом человек научился считать. Потом заменил числа значками, и оказалось, что с помощью иксов и игреков гораздо легче решить любую задачу, потому что не надо помнить о яблоках, лежащих в ящиках или корзинах, о поездах или пешеходах - заменяй все иксом и игреком и сразу получишь ответ. А теперь еще алгебра логики... Если вместо наших обозначений подставить в формулы иксы и игреки, логика лифта будет выглядеть так:

М = p·q(x·y + h·x·z).

С виду обычное уравнение. Сколько раз мы писали их на уроках алгебры в наших школьных тетрадках! И все_ же это не те уравнения, и алгебра тоже не та: за символами х, у, р или q здесь скрываются не бездумные трубы бассейна, где труба р отбирает x литров в секунду, а труба q с таким же бессмысленным равнодушием наливает воду обратно в бассейн. Наша схема не позволит лить воду из пустого в порожнее! Ведь она обладает логикой, может взвешивать обстоятельства и решать: если p наполняет бассейн водой, то незачем через q гнать воду назад.

Чувствуете, как тут все происходит? В этой простой и маленькой схеме живет частица гибкой человеческой мысли! Именно живет: если меняются обстоятельства, то меняется и результат. Конечно, «обстоятельств» в лифте не так уж много: вошел пассажир или вышел, намерен ехать вверх или вниз. И все же. решая свою простую задачу, схема должна сопоставить все, что в данный момент происходит, для того чтоб «принять решение», как ей следует поступить. В сложной схеме таких обстоятельств будет уже значительно больше, длиннее станут ее уравнения, а «рассуждения» будут настолько разнообразны, что сам создатель такой машины уже не предскажет их результат.

В последнее время на страницах журналов и газет часто спорят, сможет ли когда-нибудь машина написать хорошую музыку или стихи. Пока можно твердо сказать одно: для настоящего творчества в логике этих машин не хватает многих еще не известных науке правил. Но и без «машинных стихов» алгебру логики связывают с поэзией узы самого тесного потомственного родства: ее «отцом» был отец известной писательницы Войнич10, а «крестной матерью», посвятившей жизнь развитию этой отрасли знаний, - племянница знаменитого Байрона - леди Лавлейс.

Надо думать, что связь эта далеко не случайна. В этой науке и тех схемах, которые она -породила, смелый полет фантазии сочетается со строгой логикой рассуждений, и в этом есть, несомненно, своя поэзия и красота.

Универсальный язык

Мне кажется, что читатель уже не рискует показаться нескромным, утверждая, что в вопросах, связанных с информацией, он приобрел кое-какой багаж.

Работая над проектом, мы научились превращать сообщения в электрические сигналы, передавать их по многим каналам и обрабатывать эти сигналы с помощью логических схем. Остается решить лишь один важный вопрос. Для того чтобы все звенья нашей системы взаимодействовали и имели «общий язык», мы должны применять в них какой-то единый код. Опыт последних десятилетий подсказывает единственный путь: самым удобным «языком электроники» является двоичный код.

Главным его преимуществом является простота. В самом деле: можно забыть все цифры, правила деления и умножения и ряд более сложных правил, если умеешь верно считать до двух.

Смотрите, как это просто: возьмите любое десятичное число, например 307.

Что означает подобная запись?

Она означает, что в этом числе содержится 3 сотни, 0 десятков и 7 единиц. И десятки, и сотни, и единицы - это различные степени числа 10. В этом нетрудно убедиться, взглянув на такую запись:

100

102

3

10

101

0

1

100

7

Значит, число 307 можно представить так:

307 = 3·102 + 0·101 + 7·100.

Теперь такую же запись составьте и для различных степеней числа 2.

20

1

21

2

22

4

23

8

24

16

и т.д.

Любое число (например, число 25) вы можете разложить по степеням числа 2 и определить, какие разряды двоичной системы содержит в себе это число:

25 = 16 + 8 + 1 = 1·24 + 1·23 + 0·22 + 0·21 + 1·20.

Теперь вынесите множители всех разрядов и прочтите полученное число: 11 001. Так выглядит в двоичной системе счисления десятичное число 25.

Таким же путем можно превращать в набор единиц и нулей любые числа. Теперь вспомните, каких трудов стоило вам в свое время выучить наизусть таблицу умножения. До сих пор живут в вашей памяти обложки тоненьких школьных тетрадок, а на них девять столбиков, в каждом по 10 строк. А в двоичной системе всю таблицу можно усвоить с первого взгляда:

0 × 0 = 0

0 × 1 = 0

1 × 1 = 1

Остается условиться о том, что, посылая импульс, мы передаем цифру I, а отсутствие импульса соответствует цифре 0; и различными сочетаниями импульсов мы сможем сообщать любое число. По этому принципу и строится двоичный код.

Почему именно этот вид кодирования нашел применение в разнообразных устройствах автоматики и системах связи?

На протяжении истории своего развития человечество разрабатывало и применяло разнообразные коды. Одним из самых распространенных кодов является наш разговорный язык. На первый взгляд кажется странным, что во время приятной беседы мы осуществляем кодирование собственных мыслей и расшифровываем мысли своего собеседника. И тем не менее дело обстоит именно так. Одну и ту же мысль можно кодировать звуками (в разговоре), буквами (в письменной речи), условными знаками (в стенографии) и, наконец, импульсами (в телеграфии и других системах связи).

Не так уж мало, если учесть, что все эти виды кодирования имеют столько же вариантов, сколько существует в мире различных языков! И среди всего этого многообразия условных обозначений все более широкое применение находит двоичный код. А все потому, что он состоит всего из двух элементов и можно легко «обучить» двоичному счету любой автомат.

Самая простая ячейка способна «разговаривать» языком двоичного кода. Это может делать электронная лампа, магнитная ячейка, полупроводниковый прибор или контакт реле. Пока течет ток через лампу или контакт - они «помнят» цифру 1 и дают ответ «да». С того момента, когда от новой команды лампа запрется или реле разомкнет контакт - в ячейке будет храниться 0. Значит, она пригодна и для ведения счета и для логических операций. Две ячейки могут хранить в себе числа 00, 01, 10 или 11. А цепочки таких ячеек способны «помнить», умножать или складывать многозначные числа, передавать их друг другу, вести обработку любой информации по любой программе. А числами можно рассказать обо всем.

Теорема Котельникова позволяет любой непрерывный процесс передать отрывочными сигналами и каждое сообщение об изменении уровня выразить двоичным числом. Яркость луча телевизора изменяется плавно, но глаз способен улавливать изменение яркости только в том случае, если оно превышает определенный предел. Значит, весь кадр можно разбить на неуловимые для глаза ступеньки и, присвоив каждой из них порядковый номер, превратить концерт, кинофильм и спектакль в чередование единиц и нулей. Тем же свойством «градации» (восприятия громкости по ступеням) обладают и наши органы слуха. Значит, и звуки симфонии можно перевести на двоичный код.

С помощью двоичного кода можно записать логику самого сложного автомата. Любая логическая операция создается цепочкой простейших ячеек. Отпираясь и запираясь, они дают ответ другим частям схемы: да - нет, нет - да, да - да - нет. Или 1001110. Стоит лишь присвоить порядковый номер каждой букве алфавита, и текст превратится в чередование нулей и единичек, а простая радиолампа сможет «прочесть» вам «Медного всадника» на своем, «ламповом», языке. Она будет лишь отпираться и запираться, посылая за импульсом импульс, но в чередовании их сохранится вся пушкинская поэма. В них - душевные муки Евгения, петербургские улицы, затопленные разгневавшейся Невою, и сам «чудотворный строитель», скачущий на отлитом из меди коне.

Впрочем, поэму Пушкина, пожалуй, никто не станет переводить в импульсы двоичного кода. У автоматов и различных систем передачи сигналов и без того достаточно дел.

В космос запущен новый корабль.

С помощью электронной машины сделан сложный экономический расчет.

На поточной линии без участия человека собран сложный комбайн.

А непременные участники этих событий - автоматы и электронные схемы - рассказывают об этом друг другу одними и теми же, чрезвычайно «скупыми» словами: да - нет, да - нет, да - да - нет.

Еще в XVII веке выдающийся математик Лейбниц отчеканил в честь двоичной системы счисления медаль. На ней было написано: «Чтобы вывести из ничтожества все, достаточно единицы». Но лишь в наше время полностью подтвердились его пророческие слова. Разве не этими единицами заставляем мы сложные электронные схемы совершать истинные чудеса? И не случайно любые события мы можем описывать одними и теми же импульсами: в бесконечном многообразии информации проявляется ее поразительное единство.

Будут новые города!

С тех пор как наука смогла обнаружить в многообразии сведений и сообщений обобщающие единые признаки, слово «информация» приобрело новый, глубокий смысл. Это чудесное слово послужило основой единых методов приема и обработки сигналов в самых различных каналах связи. Вот почему принципы, которые мы с вами только что обсуждали, применяются с равным успехом в самых различных системах связи, работающих и в космосе и на Земле.

Автоматы, которые могут без участия человека превращать сырье в сложные механизмы, существуют уже не первый десяток лет. Но в последние годы появились совсем иные машины. «Сырьем» для них служат разные сообщения, а «готовым продуктом» - решения и команды.

Они могут обрабатывать информацию, как другие машины обрабатывают дерево или металл. С каждым годом таких машин становится больше, и все же потребность в них год от года растет. Почему это происходит? Потому что наука и техника развиваются в настоящее время столь бурно, что без помощи автоматов человек рисковал захлебнуться в потоке добытых им сведений и новостей.

Из ручейков информации, родившихся в человеческом обществе в древние годы, вылился этот нескончаемый бурный поток. Когда-то клинопись на нескольких глыбах гранита умещала в себе все сведения, добытые человечеством за многие тысячи лет. Потом пришли уникальные летописи на пергаментных свитках. И лишь с появлением печатных станков информация впервые обрела голос, который могли услышать одновременно тысячи разных людей. А когда на помощь печати пришли радио, телефон, телеграф, телевизор, для информации исчезли время и расстояние. Достижение одного человека стало достижением всего человечества, любые научные данные проверяются в сотнях лабораторий и множатся в тысячи раз. Не будь машин, владеющих информацией, человек в конце концов потерял бы способность ориентироваться в потоке сведений и новостей.

Поставьте себя в положение конструктора, которому необходимо спроектировать сложную современную машину, включающую в себя комплекс взаимосвязанных механических, электрических и радиотехнических средств. Чтобы вновь разрабатываемая конструкция отвечала всем требованиям современной техники, она должна включить в себя все передовые достижения. И плох тот инженер, который, решая вставшую перед ним задачу, будет пытаться «открывать Америку» там, где можно найти готовый ответ. Но вместе с тем каждое выбранное решение не должно быть случайным, и, чтобы найти среди многочисленных книг, статей и отчетов нужный материал, инженер должен искать ответ на сотни различных вопросов, перебирая тысячи печатных страниц. Чем сложнее и многообразнее становятся технические средства, чем шире разворачивается фронт научно-исследовательских работ, тем все более и более затруднительными становятся подобные поиски. Этот вопрос вырастает в огромную государственную и мировую проблему, ибо даже специально организованные институты научной информации уже не в состоянии «переварить» все материалы, ежемесячно пополняемые человечеством на страницах 50 тысяч научных журналов, издаваемых на 100 языках!

А в Новом Городе с информацией справиться просто. Стоит лишь сообщить машине нужную тему, и она, просмотрев сотни источников информации, даст вам нужный ответ. Автоматы-библиотекари здесь так же обычны, как в других городах автоматические контролеры или раздатчики газированной воды. Мало того, что машины могут перевести иностранный текст, зашифрованный специальным кодом. Жителям Нового Города уже некогда переводить тексты на перфокарту - они научили машину «понимать» речь докладчика и «читать» иностранный журнал.

В почтамтах Нового Города тоже работают такие машины. Они могут прочесть написанный неразборчивым почерком адрес и направить по назначению сотни тысяч писем и телеграмм. И все это уже не фантастика, вы сейчас сами поймете принцип действия подобных машин.

Дело, конечно, далеко не простое. Чтобы научить машину узнавать написанную любым почерком букву, надо применить множество хитроумных устройств. Прежде всего необходимо превратить букву в электрические сигналы. Для этого луч бежит по строкам экрана, подобно тому как взгляд человека скользит по строчкам печатных страниц. Но здесь всю «страницу» заняла одна буква - та, которую машина должна «узнать». Пробегая каждую строчку, луч пересечет очертания буквы, и в эти моменты возникнут импульсы тока. Таким образом, любая буква (например, М) превращается в серию импульсов, образующих сложный сигнал.

В памяти машины есть образцы всех печатных и письменных букв. Превратив каждую букву текста в электрические сигналы, машина сравнивает ее с образцом и оценивает корреляцию. Когда очередь дойдет до ячейки памяти, в которой хранится буква М, корреляция окажется наибольшей; как бы ни менялись очертания буквы в зависимости от почерка или шрифта, она все же будет похожа на образец, сохраняемый памятью этой машины, и устройства, оценивающие корреляцию, смогут всегда обнаружить их взаимосвязь. В этот момент подается сигнал о том, что буква опознана. И так, букву за буквой, машина с огромной скоростью пробегает весь текст.

Научите эту машину «запоминать» и сравнивать очертания различных предметов, и она отличит овчарку от пуделя, а может быть, даже и «узнает» вас в лицо.

Если вы хотите, чтобы она «понимала» вас с голоса, вы должны изучить спектр человеческой речи, определить, какому спектру соответствует каждый произнесенный вами звук или слог. Затем вы сможете научить машину различать эти спектры и к каждому спектру подбирать определенное сочетание букв. И машина будет делать очень полезное дело: превращать устные речи в печатный текст. А если нужно - то сразу в несколько текстов, написанных на нескольких языках.

А можно сделать наоборот: заставить машину следить за строчками текста и вырабатывать команды, управляющие множеством генераторов. По этим командам генераторы будут изменять частоту и уровень своих сигналов так, чтобы вместе они создали определенный спектр. Такая машина будет иметь свой «искусственный голос». Она сможет читать всевозможные тексты и произносить их сразу на нескольких языках.

Конечно, понять принцип - это еще не значит создать машину. Не так-то просто разобраться в бесчисленном множестве спектров, зависящих не только от содержания речи, но и от того, кто именно произнес эту речь. Речь имеет множество различных оттенков, ее спектр нескончаемо многообразен, каждое мгновенье в каналах связи такой машины возникает новый сложный и неустойчивый спектр.

Не простая задача - создать устройства, способные различать непрерывно меняющиеся спектры и каждую форму спектра превращать в серию соответствующих команд. Но это уже вопросы чисто технические, и так или иначе их удается решить. В частности, в институте языкознания в Грузии создан один из таких «синтезаторов голоса». В настоящее время он уже научился разборчиво произносить различные фразы по-русски, но в произношении сквозит... грузинский акцент!

Факт, конечно, забавный, но легкообъяснимый: ведь для того чтобы обрести собственный голос, машине приходилось анализировать голоса тех, кто ее обучал.

В мире становится все больше и больше машин, предназначенных для переработки всевозможной информации. Без них теперь не обходятся ни одна отрасль техники и ни одна область науки. Разве могли бы мы без их помощи обработать в сотые доли секунды то огромное количество данных, которые необходимы для вывода на орбиту космического корабля? Разве могла бы современная химия изучать без их помощи процессы, происходящие в клетке? Молекулы белковых веществ или сложных органических соединений состоят из длинных цепочек атомов, а любая перестановка звеньев этой цепочки приводит к изменению веществ.

Наши привычные меры слишком обыденны, чтобы представить себе то огромное количество сведений, которое приходится обрабатывать при исследовании этих процессов. Если бы мы могли взять из невообразимого множества существующих в природе цепочек по одному образцу каждого типа молекул белка и свить из них веревку толщиной в палец, она имела бы такую длину, что свет, излученный в начале этой веревки, достиг бы конца через 75 тысяч лет! А ведь свет пробегает 300 тысяч километров в течение каждой секунды.

Только машина способна учесть все сведения, получаемые при анализе белковых реакций. С ее помощью современная химия проникает в глубь этих сложных явлений, и уже недалек тот день, когда ученый сможет связать разрозненные атомы в «гроздья» и получить молекулы, в которых рождается жизнь.

Информации в мире стало так много, что она уже не вмещается в прежние рамки, ее необходимо как можно быстрее «перевести на поток». Автоматическая обработка огромного количества сведений стала такой же насущной необходимостью, как передача их через печать, радио, телеграф и телефон. Люди узнали, какими средствами можно решать эту задачу, - значит, в ближайшем будущем во всех уголках мира возникнут Новые Города.

ГЛАВА 5. ИСТИННОЕ И ЛОЖНОЕ

В эфире «тесно»

Каждый город имеет свою историю. Новый Город появился совсем недавно, но и в его коротенькой летописи отмечено немало славных побед. Над кем одержаны эти победы? Казалось бы, жизнь здесь течет размеренно и спокойно, люди проводят дни среди приборов и формул, графиков и таблиц. Тому, кто впервые попал в этот город, не так-то легко усмотреть в этих графиках и таблицах следы напряженной, неустанной борьбы.

А борьба идет повсеместно. В шуме цехов и в тиши кабинетов, в радиостудиях и на телецентрах жители Нового Города борются против помех.

Помехи - это неумолимый, коварный враг. Проникая в каналы связи, они нарушают четкое взаимодействие органов автомата, искажают смысл сообщений, телеграфный текст превращают в набор бессмысленных знаков, музыку - в шум водопада, телевизионный спектакль - в беспорядочный снежный вихрь.

Откуда берутся эти помехи? Да отовсюду.

Эфир - это всеобщий канал связи, которым пользуется весь мир. В нем присутствуют тысячи разных сигналов. Мы хотим получать сигналы со спутника, а вместо них на вход наших приемников попадают сигналы станций, расположенных на Земле. И все становится бесполезным: сбитые с толку релейные схемы уже не производят логических действий, а начинают бессмысленно хлопать контактами. Голос спутника тонет в шуме и треске. На экранах вместо четких импульсов виден сплошной зеленый бурьян.

Вот почему, создавая системы связи, инженеры всегда учитывают, что в эфире «тесно».

«Тесноту» эту, конечно, не следует понимать как недостаток пространства. «Места» в эфире сколько угодно. Но когда мы говорим, что информация обладает объемом, мы понимаем, что это не совсем обычный объем. В небольшом объеме черепной коробки умещается столько сведений, что им не хватило бы места в миллионах огромных книг.

В эфире объем сигналов будет тем больше, чем больший диапазон мощностей и частот занят сигналами радиостанций и чем дольше ведется их передача. Поскольку с каждым годом станций становится все больше и больше и их сигналы заняли весь диапазон рабочих частот, «теснота» в эфире становится все ощутимее. А если учесть, что вместе с сигналами наземных радиостанций на вход приемников поступают помехи космических излучений, грозовые разряды и искры промышленных установок, мы уже не будем удивляться, если вместо четких сигналов спутника увидим на наших экранах лишь сплошной хаотический шум.

Пусть не смущает вас выражение: «Увидим шум на экране». Действительно, «увидеть» шум бывает гораздо легче, чем его услышать. Услышать можно лишь те сигналы, частота которых не превышает 20 тысяч колебаний в секунду. Все остальные помехи - это «неслышный шум». С точки зрения инженера-связиста, шум - это все, что мешает нормальной работе станции. В одном случае это треск и шорох в наушниках, в другом - всплески на специальном экране.

Вы скажете, странные люди эти инженеры-связисты! Информацию они называют «грузом», а «шумом» называют то, что и услышать нельзя.

А может быть, они все-таки правы? В самом деле, считалось, что рыбы безмолвны. «Нем, как рыба» - эта поговорка уже давно вошла в обиход. Но вот появились приборы, способные принимать в воде ультразвуковые сигналы, и обнаружились удивительнейшие вещи: оказалось, что рыбы «громко кричат»! Этот «шум» нельзя услышать, потому что его частоты выше слышимых (звуковых) частот. И все же факт остается фактом: простор океана наполнен «рыбьими голосами», и если бы мы могли их услышать, мы убедились бы в том, что «рыбий базар» ничуть не спокойнее птичьего.

Однако вернемся к нашим задачам. Среди всех причин, рождающих «видимый шум» на экране, мы не учли еще один очень важный фактор - собственные шумы. Ведь мы хотим принимать сигналы далекого спутника. Преодолев огромные расстояния, они придут настолько слабыми, что нам придется усиливать их в миллионы раз. И собственные шумы, возникающие за счет теплового движения молекул и атомов, в элементах схемы, будут усилен-ы вместе с полезным сигналом. При таком большом усилении они мешают не меньше, чем сигналы соседних станций: ведь все безмолвные элементы приемника - лампы, конденсаторы, сопротивления - начинают «кричать» на разные голоса.

Сколько досадных хлопот доставляют эти помехи! Как от них избавляться? Начнешь уменьшать усиление - шумы станут меньше, но и сигнал уменьшится во столько же раз.

Инженер начинает искать компромиссы. Он пытается «сузить двери» - ставит на входе каналов фильтры, пропускающие узенький спектр частот. Теперь все помехи, имеющие другие частоты, не попадают в канал. Но и тут подстерегает беда: для полезных сигналов «двери» стали тоже слишком узки. В канал попадает лишь часть необходимого спектра, и сигнал, «протиснувшись в узкие двери», будет настолько обезображен, что смысл сообщений уже невозможно понять.

Мало этого. Та часть полезного спектра, что не прошла сквозь «узкие двери», полезет в «двери» соседних каналов и станет для них помехой, такой же опасной, как и все другие сигналы, которыми насыщен эфир.

Где же выход? Остается еще одно, пожалуй самое эффективное, средство: надо повышать мощность полезных сигналов, с тем чтобы они могли «подавить» любые шумы. Но что значит повысить мощность? Это значит увеличить вес передатчиков, вес и размеры питающих их устройств.

Едва ли вышел бы на орбиту хотя бы один искусственный спутник, если бы техника шла только этим путем. Теория информации открыла перед техникой новые перспективы. Научив людей измерять информацию, Шеннон открыл им новые истины. Он показал, что смысл сообщений может быть точно разгадан даже тогда, когда среди шумов и посторонних сигналов, словно иголка в сене, затерялся полезный сигнал. Он доказал теорему о том, что даже наполненный «шумом» канал сохраняет свою пропускную способность: определенное количество сведений может быть передано вместе с шумами, и при этом вероятность ошибки будет ничтожно мала. Надо выполнить всего лишь одно условие: применить наилучший код. Какой же?

Теорема Шеннона не дает ответа на этот вопрос. Она лишь доказывает, что такой код может быть создан. В разных случаях он может быть разным. Стоит лишь найти лучший из кодов, и сообщение перестанет «бояться» шумов.

С тех пор теория информации неустанно ищет лучшие коды...

Польза сравнений

«Истина познается путем сравнения». Этот издавна применяемый в науке принцип в связи с развитием теории информации воплотился в целый ряд приемов и схем. Есть совсем простые приемы.

Одно сообщение идет по трем каналам связи. Каждый канал состоит из приемника и передатчика, работающих в определенном диапазоне частот. Если в этот диапазон попадает помеха, сообщение будет иметь искаженный характер; например, передавалось число 100, но в момент передачи третьего знака возникла помеха, и получилось число 101. Подобных случайностей может быть сколько угодно - сообщение может совершенно утратить свой смысл. Но есть два запасных канала. Они настроены на другие частоты: помеха, попавшая в один из каналов, не опасна для двух других. Поэтому по двум каналам пришло сообщение 100, а по одному - 101. Чему же верить? Решить несложно: можно почти с полной уверенностью утверждать, что передавалось сообщение 100.

Но слишком уж дорого обходится эта уверенность: должны непрерывно работать все 3 канала, хотя в принципе мог бы справляться один. Ну что ж, давайте попробуем обходиться одним каналом. А для того чтобы не бояться случайной помехи, будем передавать сообщение три раза подряд. А отличать истинное от ложного мы поручим специальному автомату. Принцип действия его очень прост.

Пусть число 01001 передается подряд три раза, причем каждая из передач сопровождается помехой, дающей ложный знак 1 вместо одного из нулей. Вот эти случаи:

Истинное сообщение. .. .. .. .. .. .. .. .. .. .. .. .. . .

01001

Ложное сообщение первое. .. .. .. .. .. .. .. .. .. .. .. . .

11001

Ложное сообщение второе. .. .. .. .. .. .. .. .. .. .. .. . .

01101

Ложное сообщение третье. .. .. .. .. .. .. .. .. .. .. .. . .

01011

Число, полученное в результате сравнения. .. .. .. .. .. .. .. .

01001

Каждый полученный знак поступает в ячейку памяти. Для того чтобы в этой ячейке накопился знак 1, необходимо, чтобы сообщение 1 повторилось не менее трех раз подряд. Создать такую ячейку нетрудно.

Подключим конденсатор к сетке радиолампы, и пусть каждый импульс (то есть сигнал 1) несет ему «порцию» заряда. Трех таких «порций» должно быть достаточно для того, чтобы лампа могла отпереться. Когда она отперта, она «помнит» знак 1.

Взгляните теперь на таблицу: три раза подряд сигнал 1 повторился при передаче 2-го и 5-го знаков.

Значит, только 2-я и 5-я ячейки будут отперты, остальные будут «помнить» знак 0. А все пять ячеек передадут истинное сообщение: число 01001.

Это простое устройство делает сложное дело: извлекает истинное сообщение из трех ложных. Между прочим, так же работает следователь, когда, пользуясь ложными показаниями трех соучастников, он восстанавливает истинную картину, сравнив показания между собой.

И все же, как ни остроумно это устройство, оно так же невыгодно, как и система из трех каналов. Арифметика тут довольно простая: каждое сообщение повторялось три раза, значит в три раза уменьшилось количество информации, проходящей через данный канал. Увеличился лишь объем ее упаковки. Как же создать надежную упаковку, не загружая канал? Вот тут и приходят на помощь те специальные коды, которые имеет в виду Шеннон.

К обычным обозначениям двоичных чисел добавляется еще один знак.

Сообщения в

двоичном коде

Добавочный

знак

Сообщения с

добавочным знаком

00

0

000

01

1

011

10

1

101

11

0

110

В одних случаях добавляется 0, в других - 1. В результате в любом сообщении (см. 3-ю колонку) будет содержаться четное число единиц.

В какой бы момент ни появилась теперь помеха, она не сможет создать ложного числа. Она может превратить сообщение 101 в 111 или ООО в 100, но ни одна из этих ложных комбинаций не содержится в нашей таблице, потому что помеха, добавив знак 1, создала нечетное число единиц. Значит, приняв такое сообщение, мы сразу обнаружим, что оно содержит ошибку, которую породил посторонний сигнал.

Однако это лишь одна сторона вопроса. Ведь, обнаружив ложное число 111, мы еще не можем установить истину, так как в этом случае могло передаваться и 011, и 110, и 101. Оказывается, можно создать и такие коды, которые способны исправить самих себя. Этот код выглядит так:

Передаваемое

число

Обозначение

кодом

1

00 000

2

01 110

3

10 101

4

11 011

Код построен таким образом, что любые две комбинации отличаются друг от друга не менее чем тремя знаками (например, у 10 101 и 11 011 отличаются 2-й, 3-й и 4-й знаки). Пусть пришло сообщение: 10 111. Истинно оно или ложно? Автомат начинает «оценивать» этот сигнал. В его памяти хранятся все истинные комбинации:

00

000

(I)

01

110

(II)

10

101

(III)

11

011

(IV)

Он начинает по очереди извлекать их из «памяти» и сравнивать с принятым числом 10 111. Может быть, было передано 00 000? Нет, сходства здесь нет никакого: четыре знака принятого сигнала не совпадают с этим числом. Автомат продолжает действовать.

II комбинация (01 110) уже больше похожа на принятую, но и здесь не совпадают целых 3 знака. Зато III комбинация отличается только одним знаком: в памяти есть комбинация 10 101, а принято 10 111. Автомат делает вывод: передавалось число 10 101, но в момент передачи 4-го знака появилась помеха, и потому вместо 0 в приемник пришла лишняя единица. Такой код не требует повторений: автомат однажды «запомнил» истину и ни одного сообщения не принимает «на веру».

Он восстановит истинное значение в том случае, если в переданном сообщении есть один ложный знак. Но ведь могло случиться и так, что в момент передачи сигнала помеха возникла дважды?

Могло. Но вероятность такой помехи слишком мала. А если надо избавить себя даже от этих редких случайностей, придется прибегнуть к еще более сложному коду, который даже в этом случае поможет автомату правильно прочитать сигнал. Но ничего не дается даром: чем больше надежность «упаковки», тем больше импульсов содержит в себе каждый переданный сигнал.

В чужом городе

Представьте себе на минуту такую картину: только что в космос запущен спутник, на борту которого установлена аппаратура, изготовленная заводами Нового Города по нашим схемам и чертежам. Мы стоим у приемника наземной станции и с замиранием сердца ждем, когда появится первый сигнал. Пять, десять минут проходят в томительном ожидании, а на экране вместо четко очерченных импульсов видны лишь нескончаемые хаотичные всплески. А в наушниках вместо позывных сигналов со спутника раздается шорох и треск. В чем же дело? Ведь мы учли опасность помехи и применили специальный код. Этот код должен помочь нам отличить ложные импульсы от настоящих. Но теперь мы убеждаемся, что и эти меры не избавили нас от помехи: она оказалась настолько сильной, что вообще уничтожила импульсы, «утопив» их в шумах. Как видно, нет от нее избавленья...

Но инженер, знакомый с теорией информации, рассуждает иначе. Он знает, что в хаосе посторонних сигналов скрываются все нужные сообщения, надо лишь найти способ выделить их из шумов.

Легко сказать «выделить»! А как это сделать? На каждый полезный импульс приходятся сотни случайных всплесков; извлекать его, очевидно, не легче, чем искать в амбаре с пшеницей рисовое зерно.

И все же его извлекают. У сигнала есть свойство, отличающее его от случайных помех: он имеет регулярный характер. А события, повторяющиеся регулярно, всегда выступают на первый план.

Представьте себе, что вы первый раз идете по улице незнакомого города. Вам здесь все интересно: архитектура зданий, одежда людей, модели автомашин. Время вас не стесняет, и вы идете безо всякой конкретной цели, как говорится, куда глаза глядят.

Вечером вы вернетесь в гостиницу утомленный всем, что вам довелось увидеть, и будете спать крепким сном. А если утром сосед вас спросит, где были вы накануне, в каком районе есть такая-то площадь, где находятся театры или музеи и каким транспортом можно до них добраться, вы не сможете толково ответить ни на один подобный вопрос. И вот что характерно: в ответ на эти вопросы в вашей памяти всплывут и площади, и музеи, и театры; вы вспомните, что встречали именно те названия, о которых спрашивал сосед. Но где именно? Что встречалось раньше, что позже? Что находится близко, а что далеко? Все впечатления первого дня превратились в пестрый хаос деталей, из которого трудно извлечь именно то, о чем спрашивает сосед.

Но вот прошло несколько дней. Каждое утро вы выходили из подъезда гостиницы и совершали один и тот же путь. Ваша память фиксирует все больше и больше отдельных деталей. Вы уже знаете, в каком направлении и в какое время следуют отдельные виды транспорта в общем потоке трамваев, автобусов и автомашин. Вы запомнили, в котором часу открываются столовые и магазины. Даже среди случайных прохожих уже встречаются знакомые лица: почтальон, идущий навстречу в этот утренний час, белобрысый мальчишка, всегда прибегающий к школе за минуту до начала занятий, пожилой служащий, спешащий в учреждение, что расположено там, за углом.

Почему же среди бесконечного многообразия уличных событий ваша память запечатлела именно эти детали? Потому что каждая из них повторялась несколько раз. Характерным свойством, отличающим их от всего, что каждый день происходит на шумных улицах города, является регулярность их повторений.

Но этого мало. Если бы, например, в силу служебной необходимости вам приходилось повторять этот путь через каждые 10 часов, вы не заметили бы ни школьника, ни почтальона. Предположим, что в первый день вы встретили школьника в 9 часов утра. В следующий раз вы будете проходить мимо той же школы в 7 часов вечера. Затем в 5 утра, в 3 часа дня, в 11 вечера. Только спустя 5 дней вам доведется еще раз пройти мимо школы одновременно со школьником, но к тому времени в вашей памяти, очевидно, уже не сохранятся следы прошлой встречи и вы не узнаете его среди непрекращающегося потока других горожан.

Чтобы это событие было зафиксировано вашей памятью, необходимо еще одно условие: оно должно совпадать по времени с вашей ежедневной прогулкой.

Тот же принцип совпадения по времени (в технике он носит название «синхронизм») используется в большинстве современных устройств, предназначенных для отыскания регулярно повторяющегося (периодического) сигнала среди случайно возникающих посторонних помех. Самым простым устройством, способным решить такую 'задачу, является радиотехнический контур - конденсатор и катушка индуктивности. Стоит лишь «ударить» по этому контуру каким-то сигналом, и он начинает «звенеть», подобно тому как звенит камертон. Приходящие к камертону внешние звуки могут быть разными, но он всегда сохраняет «собственный голос», потому что его колебания обладают собственной частотой. Контур тоже имеет собственную частоту колебаний и «звенит» на этой частоте. Правда, «звон» его мы не услышим, так же как не слышим некоторых шумов.

Если приходящие из эфира импульсы следуют с частотой собственных колебаний, каждый пришедший импульс будет «раскачивать» контур, и его «звон» становится все «громче» и «громче» - напряжение на контуре начнет нарастать.

Случайные помехи не повторяются регулярно. Каждая из них «раскачивает» контур., но действуют они «не в такт». Попробуйте раскачивать качели случайными толчками, настигая их в тот или иной момент. Сколько бы вы ни затрачивали усилий, вам не удастся раскачать их как следует. Зато несколько «синхронных» толчков, сделанных в момент, когда, достигнув наибольшей высоты, качели замерли, готовясь совершить свой обратный путь, сразу создадут огромный размах колебаний.

То же самое происходит и в контуре. Сильные, но беспорядочные помехи действуют на контур гораздо слабее, чем затерявшийся в них регулярный сигнал. Поэтому спустя очень короткое время полезный сигнал на выходе контура превысит уровень посторонних сигналов и передаст порученное ему сообщение в полном объеме.

Применяются и более сложные схемы, которые в такт с приходящими сигналами включают специальные устройства, способные «накапливать» этот сигнал.

Наконец, существуют и такие схемы, которые учитывают корреляцию сигнала, то есть связь его с тем сигналом, который был принят несколько мгновений назад. Если сигнал имеет регулярный характер, такая взаимосвязь обнаружится всегда.

По-иному обстоит дело, когда на вход приемника попадают случайные сигналы. Мы знаем, что по значению переданной по телеграфу буквы можно предсказать вероятность появления нескольких следующих букв: между буквами одного слова имеется тесная взаимосвязь. Однако едва ли удастся осуществить такое же предсказание для тех букв, которые последуют через час, через минуту или даже всего лишь через долю секунды. Слишком многообразны и неопределенны те закономерности, которым подчиняются различные тексты. Взаимосвязь случайных сигналов осуществляется только в течение коротких промежутков времени. Взяв для сравнения большой интервал, мы обнаружим в измеряющем корреляцию устройстве полное отсутствие взаимосвязи и тем самым отличим мешающий нам случайный сигнал. На этом принципе основан получивший широкое распространение в последние годы метод корреляционного приема.

Но как же тогда отличить от помех телеграфные сообщения? Ведь буквы тоже следуют друг за другом в случайном порядке.

И не только буквы. По случайным законам будет изменяться сигнал при передаче живой человеческой речи, музыки, телевизионных изображений.

Значит, эти сигналы нельзя отличить от помех?

Такой вывод был бы ошибочным.

Вспомним, как работает система нашего спутника. Сигналы датчиков тоже носят случайный характер. Но прежде чем передать эти сигналы на Землю, надо воздействовать ими на сигнал передатчика, который называют ««несущим сигналом». Получается такая картина: регулярный сигнал передатчика несет на себе другой, более сложный, сигнал. Именно этот регулярный несущий сигнал надо отличить от любых случайных сигналов. Если специальные устройства наземной станции смогут справиться с этой задачей, значит все, что «записано» на несущем сигнале, будет «прочитано» на Земле.

То же самое происходит при передаче любых сообщений: речи, музыки, телевизионных изображений. В любой системе специальные датчики должны воздействовать на несущий сигнал. Датчиком музыки или речи является микрофон. Специальная телекамера - это датчик изображений. А в передаче текста участвует сразу несколько датчиков: превращение слов в импульсы азбуки Морзе - это сложный процесс, в общую цепь передачи «включены» не только глаза и руки телеграфиста, но и его мозг.

Системы, как видите, могут быть разные, но результат всюду один: сообщения превращаются в «записи» на несущем сигнале. Потому и методы выделения регулярных сигналов пригодны для самых различных систем передачи.

Кстати сказать, методы эти использует не только техника, но и природа. Пример с незнакомым городом показывает, что память тоже может накапливать синхронный сигнал. Этот принцип является универсальным. Сообщения могут быть разными, но информация всюду едина: и в технике и в природе она обладает одинаковыми свойствами. Единство это имеет очень глубокие корни, и наука, опираясь на новые факты, ищет его истоки.

Пока инженеры создают специальные схемы, психологи ставят эксперименты: они хотят знать, как воздействует на человека регулярный сигнал. Оказывается, восприятие регулярных сигналов связано с целым рядом особенностей. Каждый из нас замечал, как приковывает внимание ритмичная музыка или декламация. Это связано с тем, что наше сознание и наши «каналы связи» обладают способностью «настраиваться синхронно» на определенный ритм. Не случайно сеанс гипноза обычно начинается с монотонного речитатива: этим приемом гипнотизер «настраивает внимание» своего пациента и подчиняет себе его волю перед подачей последующих «команд».

А бывает наоборот: порой регулярный сигнал мешает воспринимать полезную информацию, и тогда наши каналы связи, задержав его у «порога сознания», освобождают внимание от его назойливого воздействия. Так, находясь долгое время в поезде, мы перестаем замечать стук колес. Тиканье часов, сопровождающее нас почти повсеместно, редко фиксируется нашим сознанием.

Эти примеры говорят о том, что между свойствами информации, используемыми техникой связи, и тем, что мы наблюдаем в природе, существует глубокая, неразрывная связь.

Информация по наследству

Так происходит всегда: сначала накапливаются факты, затем возникает потребность их обобщать. Стоит лишь коснуться некоторых примеров применения методов новой теории в области физиологии и психологии, как тут же напрашивается вывод: природа умеет использовать информацию не хуже опытного инженера.

Но если взглянуть на многие вещи более пристально, вывод этот покажется слишком поверхностным: ведь самому опытному инженеру не под силу пока задачи, которые природой давно решены. Даже простая клетка может использовать информацию лучше самых сложных машин. Так сколько же сведений должен обработать в течение каждой секунды сложный организм? А разве могли бы возникнуть подобные организмы, если бы природа не научилась отбирать и хранить все полезные сведения в течение сотен и тысяч веков? %

О чем говорит теория Дарвина? Она утверждает: в борьбе за существование побеждает тот, кто в силу каких-то случайных изменений организма приобрел преимущество перед другими. Значит, одни случайности могут оказаться счастливыми, другие - роковыми. Но только счастливым случайностям суждено сохраниться для будущих поколений, потому что случайности роковые губят тех, кто их приобрел. Природа сортирует случайности, отбирает из них все полезные и передает информацию потомству.

А та информация, которую организм получает в течение жизни? Ведь и она влияет на ход эволюции! Приспосабливаясь к условиям, организм приобретает новые качества, которые также будут переданы по наследству.

Познав это свойство живой материи, человек научился его использовать: он искусственно создает такие условия, при которых растения и животные приобретают полезные признаки.

И темпы развития стали совсем иными: ведь природа фиксировала лишь случайные признаки, возникавшие однажды за сотни и тысячи лет. А человек сам диктует условия и достигает цели в течение нескольких поколений. Много веков человек добывал информацию, наблюдая природу; зато теперь он может вернуть ей свой долг. Осуществляя селекцию видов, человек создал новые породы животных и новые сорта земледельческих культур.

Но селекция видов - это всего лишь косвенный метод: человек изменяет условия, а новые признаки вырабатывает сам организм. Не всегда можно точно предвидеть, как повлияют условия на потомство, и очень часто многие годы работы не приносят селекционерам ожидаемых результатов.

А нельзя ли ту же задачу решать иными путями?

Ведь все признаки, приобретенные организмом в течение жизни, содержатся в микроскопических клетках, слиянием которых зарождается новая жизнь. Нельзя ли изменить наследственные признаки, воздействуя прямо на эти клетки?

Эта мысль зародилась уже давно, но лишь с появлением теории информации она обрела реальную почву. Теория информации указала конкретный путь: надо прежде всего научиться читать «записи», предназначенные для потомства, - расшифровать «наследственный код». А когда принцип этого кода будет разгадан, появится возможность вносить в него коррективы, то есть полезные признаки, которыми должен быть наделен будущий организм.

Задача, конечно, далеко не из легких. Какое множество сведений уместилось в этой малюсенькой клетке! Если записать их обычным способом, наверное, выйдет добрый десяток томов. В этих томах будут перечислены все черты сходства между родителями и потомством: внешнее сходство и сходство характеров, общие вкусы, склонности и привычки. И всетаки это будет лишь малая доля сведений, содержащихся в клетке. Чтобы получить эти сведения, пришлось бы разобрать организм «по косточкам», потому что во всех тканях и органах можно обнаружить массу деталей, унаследованных от предков. Не случайно же даже склонности к определенным заболеваниям передаются от родителей детям. Ясно одно: чтобы уместить столько сведений в микроскопической клетке, природа использует весьма совершенный код.

Но жажда знаний неукротима: человек задался целью во что бы то ни стало разгадать этот код. Вооружившись теорией информации, биологи нанали вновь исследовать клетку. И вскоре страницы научных журналов известили мир о первых успехах: в клетке найдено вещество, способное хранить и передавать информацию, - дезоксирибонуклеиновая кислота. Это мудреное название стало так часто мелькать в устных и письменных сообщениях, что вскоре его избыточность стала весьма ощутимой. Зачем загружать отчеты таким длинным названием? Его разбили на части и ввели сокращения: дезоксирибо - Д, нуклеиновая - Н, кислота - К, а вместе - ДНК.

Итак, наследственная информация хранится в определенной части клетки (так называемых хромосомах), содержащей в себе ДНК.

Утверждение это сначала считалось гипотезой, но гипотеза была настолько правдоподобной, что ученые всего мира стали подробно исследовать ДНК. В прессе появлялись все новые и новые данные, добытые экспериментом. ДНК обладает электрическими и магнитными свойствами...

Ее молекулы ведут себя подобно чейкам электронных машин...

Молекула ДНК создала «себе подобных», когда ее поместили в соответствующий раствор...

Сообщения появлялись, сменяя друг друга, словно кадры киноэкрана. Это был интереснейший фильм: на глазах современников научный мир шел на штурм глубочайшей тайны природы.

Факты связывались в систему, и вот уже вырисовываются контуры «записей», содержащихся в клетке. Как же он выглядит, этот таинственный код? Оказывается, просто: длинные цепочки атомов, образующих молекулы ДНК, несут в себе информацию для будущих поколений. Изменилась комбинация атомов - изменилось содержание «записей», появился новый наследственный признак. В общих чертах все обстоит именно так. Но одно дело - в общих чертах, а другое - со всеми подробностями. В общих чертах принципы алфавита всех европейских языков сходны друг с другом. Но разве можно понять смысл какойнибудь записи без знания языка? И с ДНК получилось приблизительно то же: общую идею кода уяснили довольно быстро, а прочитать сообщение полностью пока не сумел никто. Но ключ к этим записям наука уже отыскала.

Это случилось совсем недавно. На конференции биохимиков, происходившей летом 1961 года в Москве, американский ученый Ниренберг сообщил, что расшифрована часть программы, по которой осуществляется синтез белков. А вскоре эта программа была расшифрована полностью. Где же записана эта программа?

Все в тех же цепочках ДНК. Они состоят из четырех видов атомных групп. Сочетанием этих групп определяется вся программа. Если, например, обозначить эти группы условно цифрами 1, 2, 3 и 4, то одно из сочетаний будет читаться как 2, 3, 4.

Эта запись означает, что в образовании новых белковых молекул должна участвовать одна из аминокислот, называемая глютамином.

Существует 20 различных аминокислот, и каждая из них будет участвовать в синтезе при подаче соответствующей «команды», например: по «команде» 2, 1, 4 в синтез включается метионин, 2, 2, 1 - тирозин и так далее.

Так по программе этих естественных кодов работает «цех», выпускающий самую сложную в мире продукцию, основу всего живого - белок.

«Команды» следуют друг за другом, образуя множество комбинаций, а от этой последовательности зависит, в каком сочетании будут использоваться 20 различных аминокислот. Значит, структура белка, а следовательно, и всех тканей растущего организма будет зависеть от «записей», содержащихся в ДНК.

Код, которым пользуется природа для передачи наследственной информации, в принципе ничуть не сложнее, чем любой технический код. Но сколько потребовалось усилий для его расшифровки!

Путем тончайших анализов установили, что ДНК содержит в себе 4 вида атомных групп. Анализ белковых соединений показал, что они состоят из 20 аминокислот.

Эти заслуги принадлежат биохимии. А теория информации вооружила науку о жизни новой идеей: она доказала, что разнообразная информация может быть сведена к одинаковым знакам, и подсказала, каким образом из 4 знаков (то есть 4 групп атомов ДНК) строится 20 различных команд.

Если бы эти команды подавались двоичным кодом, то в каждой команде содержалось бы 5 знаков двоичного кода. Расчет тут простой. 4 знака дадут 24, то есть 16 комбинаций (команд). А нужно, чтоб было не менее 20. Поэтому и берется 5 знаков: 25 = 32.

Природа ведет свои записи не двоичным, а четверичным кодом с помощью 4 атомных групп ДНК. Сколько же знаков содержится в каждой команде?

Двух знаков будет еще недостаточно, так как 42 = 16, а нужно не менее 20. Тогда берется три знака: 43 = 64. Значит, природа использует для наследственной информации четверичный трехзначный код.

Так наука приобрела ключ к расшифровке главной тайны природы: тайны рождения жизни, хранящейся в виде естественных кодов в молекулах ДНК.

Так подтвердилась теория генов, служившая предметом споров и разногласий в течение многих десятков лег. Сторонники этой теории давно утверждали, что в клеточных хромосомах есть особый носитель наследственных признаков - так называемый ген.

Исследования ДНК не только подтвердили эту теорию, но и помогли понять, как устроен ген. А вместе с таинственностью гена исчезли и некоторые свойства, которыми его ошибочно наделяли. Согласно прежним теориям ген не подвластен внешним влияниям. Что бы ни пережил организм, его ген останется неизменным до тех пор, пока какие-то таинственные внутренние перемены (генетики их называют мутациями) не повлияют на ген.

Ошибочность этих взглядов стала теперь вполне очевидной: информация, получаемая из внешней среды организмом, безусловно влияет на всю деятельность организма и в том числе на структуру тех самых цепочек, в которых содержится наследственный код. Благодаря этой взаимосвязи можно способствовать появлению полезных наследственных признаков, изменяя условия внешней среды.

Теория информации проливает свет на многие факты, которые до сих пор не могли найти объяснения. Что происходит при слиянии клеток? Почему именно этим слиянием начинается новая жизнь? Может быть, при этом происходит обмен веществами?

Нет, обмениваться здесь нечем: обе клетки состоят из одних и тех же веществ. Может быть, возникают какие-то новые вещества?

Эти предположения тоже не подтвердились. Так для чего же сливаются клетки? До последнего времени этот вопрос оставался неразрешимой загадкой. Но теория информации дала ответ и на него.

Раз клетка содержит в себе информацию, значит для нее тоже опасны помехи. Часть сведений, содержащихся в клетке, наверняка имеет искаженный характер; ведь на все поколения в течение жизни влияло много различных «помех». В наследственном коде остались следы пережитых болезней и случайных вредных воздействий внешней среды. Как избавиться от этих случайных сведений?

Техника в данном случае поступила бы просто: она использовала бы дублирующий канал. Если сигналы одинаковы в обоих каналах, значит нет сомнения в достоверности сообщений. Там, где на один из каналов воздействовала помеха, прибор мгновенно зарегистрирует разницу сигналов.

То же самое происходит при слиянии клеток: «сопоставлением сведений», заложенных в каждой из них, исключаются случайности, и только то рациональное, что накоплено и сохранено природой, приобретает право на существование, развитие, жизнь.

Чтобы исключить влияние одной и той же помехи на оба канала связи, для них выбираются различные диапазоны частот. Сама природа позаботилась о том, чтобы исключить влияние одних и тех же «помех» на две линии предков - слишком разнообразны и неповторимы условия внешней среды. И сразу становится ясным, почему осужденные законом родственные браки дают, как правило, неполноценное потомство: ведь родственные клетки произошли от одной линии предков, подвергавшихся воздействию одних и тех же случайностей. Вот почему рожденный от подобного брака ребенок особенно подвержен наследственным заболеваниям, существовавшим в роду.

С тех пор как теория информации пришла на помощь биологам, прошло всего лишь несколько лет. Но как много нового принесли эти годы! Сколько интереснейших фактов, научных гипотез, новых взглядов, смелых идей!

Когда пытаешься обобщить все это, невольно задаешься вопросом: почему и в технике и в биологии информация проявляет так много одинаковых свойств?

Вот мы отметили, что при слиянии половых клеток сопоставляются коды. То же самое можно делать с помощью специальных технических средств. Наше сознание способно «отфильтровывать» периодические сигналы. А в технике на этом принципе осуществляется накопление и корреляционный прием. Чем объяснить такое сходство передачи информации в технике и в живых организмах?

На первый взгляд вопрос кажется ясным: инженеры учатся у природы. И правильно делают. Ведь даже самый простой организм, рожденный природой, - это изумительно точный и гибкий, необычайно сложный и в то же время всесторонне «продуманный» автомат. Техника только начинает искать те оптимальные методы передачи информации и ее обработки, которыми давно пользуется природа.

Но как объяснить такой удивительный факт: технические методы приема и обработки сигналов возникли значительно раньше, чем теория информации нашла себе применение в биологии. Значит, не техника училась этому у природы, а биология заимствовала разработанные техникой методы и приемы, научилась глубже проникать в живой организм. И тогда обнаружилось, что информация в живом организме проявляет себя точно так же, как в «организмах» современных машин.

Всюду обнаруживается ее беспокойный, но твердый «характер». Она «вмешивается» в процессы и «наводит свои порядки» с помощью зашифрованных кодами всевозможных команд и программ. По этим программам машины производят сложнейшие операции, природа создает белки и живые клетки, живой организм сохраняет устойчивость в любых условиях внешней среды. С тех пор как люди научились задавать машине эти программы, ее поведение стало похожим на повадки живых существ.

Впрочем, «похожим» - слишком неточное слово. Ведь дело тут не во внешнем подобии - машина попросту воспроизводит процессы, которые до сих пор могли протекать лишь в тканях живых существ.

Выдающийся физик Нильс Бор не раз говорил об ограничениях, с которыми сталкивается наука на пути к познанию тайны живого. Всякий эксперимент с живыми объектами в той или иной степени нарушает процессы их жизнедеятельности. Многие данные о химическом составе или физических свойствах можно добыть лишь ценой жизни исследуемого объекта. А с прекращением жизни исчезает та главная тайна, ради которой проводится эксперимент. Нильс Бор приходит к неутешительным выводам:

«Свобода, которую мы вынуждены предоставить организму, как раз достаточна, чтобы позволить ему скрыть от нас свои последние тайны. С этой точки зрения само существование жизни должно рассматриваться биологией как элементарный факт».

И все же наука не пожелала признать последние тайны жизни «элементарным» (читаи - непознаваемым) фактом. Нельзя проникнуть внутрь организма, не нарушая его процессов. Зато можно строить модели и изучать по ним организм.

Но если можно построить модели отдельных процессов, присущих живым организмам, то, может быть, можно создать и живую машину?

Еще недавно такое предположение казалось нелепым. Но чем больше накапливалось фактов, тем более веским становился этот вопрос. Грань живого и неживого стала вдруг настолько расплывчатой, что теперь уже трудно дать четкое определение: что же мы должны признавать живым? То, что дышит и размножается, видит, слышит, питается, взаимодействует со средой? Но ведь почти все эти функции уже сегодня выполняют машины. А что будет завтра? Если машина научится создавать по программам другие машины, она способна будет продлить свой «род»? Впрочем, не надо увлекаться чрезмерно. Машина уже и сейчас создает другую машину, пусть пока в виде расчетов и схем. Но при этом «машина-ребенок» всегда оказывается примитивнее. Значит, в отличие от любого вида живых организмов «машинное племя» не способно к развитию.

Кажется, вопрос приобрел полную ясность, найдена грань живого и неживого: даже создание машиной «себе подобных» не обеспечивает эволюции, необходимой для продления «рода».

Но вот Тьюринг, фон Нейман и Колмогоров анализируют уравнения, отражающие свойства машины, и делают вывод, который вновь возрождает тот же вопрос. Оказывается, дело опять-таки в информации. Чем больше заложено информации, тем больше способна создать машина. А с некоторого момента произойдет качественный скачок: машина, созданная машиной, окажется совершеннее своих «предков».

Конечно, таких машин пока нет: «машина Тьюринга» - это всего лишь длинный ряд уравнений. Но уравнениям следует верить - они доказывают принципиальную возможность существования подобных машин.

Так где же граница живого и неживого? Как возникает живое в природе и где черпает оно информацию? Откуда взялась та информация, по которой был создан первый живой организм?

Эти вопросы родились не случайно. Теория информации - новая ступень человеческих знаний. Вооружившись ею, человек по-новому видит мир: в корне самых различных явлений он обнаружил связь только что познанной информации с давно открытой им энтропией.

Часть вторая. ИНФОРМАЦИЯ ВСЮДУ

ГЛАВА 1. ПУТЕШЕСТВИЕ В МИКРОМИР

Мир в кубике газа

Итак, дорога ведет к энтропии. Это слово мы часто слышали в Новом Городе, но смысл его так и не поняли до конца. Правда, кое-что мы о ней уже знаем. Энтропия - это неопределенность. Помните шары, которые мы извлекали из ящиков, что стояли на площади Новых Идей? В одном опыте участвовало 9 черных и 1 белый шар. В другом было 6 черных и 4 белых шара. Второй опыт имел большую энтропию, потому что неопределенность исхода опыта была здесь больше, чем для 9 черных шаров. Все это учитывается формулой:

I = ∑ Pilog Pi.

То же самое с текстом. Когда неопределенность его велика, возрастает и энтропия. Текст с самой большой энтропией - это бессмысленный набор букв:

СУХТРБЬДЩ ЯЫХВЩИЮАЖТЛ...

Но еще говорили нам, будто в процессах физики тоже учитывают энтропию. Ток нагревает провод - энтропия растет. Почему? Что она выражает? Как ее оценить? Вот это мы хотели бы понять до конца. А для этого нам придется побывать в необычном мире - в мире молекул.

Как проникнуть в этот мир? Может быть, следовало попросить в Новом Городе микроскоп, позволяющий увидеть молекулу? Очевидно, такой микроскоп там есть, да что толку! В поле зрения его попадут отдельные молекулы, а жизнь микромира такова, что в каждом ее эпизоде принимают участие миллиарды частиц. Если бы вам довелось смотреть на футбольное поле сквозь замочную скважину и в вашем поле зрения находилось бы одновременно не более трех игроков, вы все же получили бы некоторое представление о ходе футбольного матча. Тем более что недостающие фрагменты матча вы можете дополнить воображением - в вашей памяти запечатлелось немало футбольных встреч. Но мир, в котором живут только молекулы, вам совершенно неведом, и в данном случае даже фантазия не может прийти на помощь.

Есть и другой путь. В физике существует кинетическая теория газа. Эта теория позволяет выразить законы движения молекул в виде формул, графиков и таблиц. Глядя на эти формулы и кривые, физик может представить себе, как в пространстве, заполненном газом, движутся одновременно миллиарды частиц. Но то физик... Он знает высшую математику. Он умеет видеть движение в неподвижных графиках и значках. А как же быть нам?

А вот как.

Давайте построим маленькую батисферу, величиной с молекулу, и отправимся на ней «в плавание», или, если хотите, в своеобразный «полет».

- Что за нелепая фантазия? - поморщится, прочитав эти строки, какой-нибудь ученый педант. - Зачем писать о том, чего никогда не было и не будет?

А почему не было? Подобные вещи уже случались. Правда, не в жизни, а на страницах популярных книг. Не знаю, как тому ученому, а мне лично с раннего детства полюбилась увлекательнейшая повесть Яна Ларри «Приключения Карика и Вали». Она заставляет взглянуть на мир иными глазами: в букашках, которые казались такими ничтожными, она позволяет распознать опасных врагов или верных друзей. Сколько ярких и увлекательных подробностей из жизни насекомых донес до нас ее автор! А ведь не случись героям повести стать существами иного масштаба, они никогда в жизни не побывали бы там, где им довелось побывать. Всему виной эта странная жидкость... Достаточно было лишь по очереди прикоснуться губами к таинственной склянке, чтобы в следующее мгновенье уже мчаться с головокружительной скоростью, едва удерживаясь на гибком теле стремительной стрекозы...

Так изобретенная автором жидкость помогла героям его повести проникнуть в необычный и неведомый мир. Может быть, следуя их примеру, мы сумеем побывать в гостях у молекул? Правда, нам придется пойти еще дальше: стать меньше, чем были Карик и Валя, еще в миллиарды раз. Что делать! Мир, куда мы хотим проникнуть, имеет такие масштабы: в кубике воздуха с ребром в 4 тысячных миллиметра умещается столько молекул, сколько людей населяет весь земной шар!

Итак, мы намечаем маршрут. На карте он выглядит просто: надо разместиться в батисфере, находящейся в безвоздушном отсеке сосуда, затем через клапан проникнуть внутрь сосуда с газом, пересечь облако газа и вылететь через клапан с противоположной стороны. Казалось бы, куда проще? Секундное дело. Кто мог думать, что столько неожиданных событий произойдет на этом коротком пути!

Вот мы заняли место внутри батисферы и подаем команду на старт. Специальная катапульта, задав начальную скорость, направила нас к первому клапану. Он открылся и, пропустив батисферу, тут же захлопнулся вновь. Осталось пересечь пространство сосуда и вылететь через второй клапан. Но что это?

Прямо навстречу движется какое-то тело. Оно угрожает врезаться в батисферу. Катастрофа неминуема... Удар - и мы, резко изменив направление, отлетаем к стенке сосуда. Снова удар - и мы уже отброшены в другую сторону. Удары сыплются градом. Наша маленькая батисфера мечется из стороны в сторону, мы потеряли всякую ориентировку, мы уже не знаем, какой из двух клапанов должен выпустить нас наружу, не можем сказать, где верх, а где низ. А удары следуют непрерывно, и вокруг нас происходит то же: с бешеной скоростью молекулы летят навстречу друг другу, ударяются и отскакивают в разные стороны, чтобы через мгновенье столкнуться вновь. Неужелй не будет конца этому хороводу? Но ведь так мы никогда не достигнем цели!

Так и хочется крикнуть жителям молекулярного мира: «Граждане, перестаньте толкаться, соблюдайте правила движения!» Но они продолжают налетать друг на друга: в их мире нет иных правил движения, кроме бесконечной толкотни. Если бы нам удалось сосчитать удары, оказалось бы, что в течение каждой секунды мы испытываем столкновения миллиарды раз. Миллиарды в секунду! Разве можно различить в этом нескончаемом потоке каждый отдельный удар? Но мы различаем, ведь мы теперь существа иного мира и иного масштаба.

Зачедо мы променяли увлекательный Новый Город на этот однообразный, бессмысленный мир? Цель наша ясна: мы хотим понять энтропию.

Ученые, которым впервые удалось познать тайны этого мира, не имели в распоряжении фантастической батисферы. У них не было и микроскопа, который хоть краешком глаза позволил бы им заглянуть в' этот мир. Они могли лишь догадываться о том, что здесь происходит, и строить теории, опираясь на эти догадки.

«В этом мире царят случайности» - таково было одно из первых предположений, высказанных выдающимся ученым прошлого века Джемсом Максвеллом. Каждое столкновение - это случайное событие, но в течение одной секунды на долю любой из молекул такая случайность выпадает много миллиардов раз. И каждый раз она меняет направление полета. Где окажется она в следующую секунду? Никто не может этого предсказать. Вот почему наш современник, основоположник кибернетики Норберт Винер, проникнув мысленным взором в хаотический мир молекул и сравнивая методы исследования этого мира с законами небесной механики, искренне восклицает:

- Астрономия - идеально простая наука!

Солнечная система - и кубик газа. С раннего детства мы с трепетным чувством смотрели в безграничные дали вселенной, испытывая благоговение перед наукой, способной открывать законы движения целых миров. Но вот появились методы исследования случайных процессов, и законы классической механики, открытые великим Ньютоном, превратились в начальную ступень познания материального мира. Используя законы Ньютона, можно предсказать с абсолютной точностью, что 11 августа 1999 года в 11 часов 8 минут по Гринвичу произойдет солнечное затмение в Западной Европе, а 16 октября 2126 года в 11 часов солнечное затмение будет наблюдаться в Москве. Но никакие из существующих методов не дают возможности предсказать даже за сотую долю секунды, в какой части кубика окажется хотя бы одна из молекул газа.

А впрочем, кого волнует судьба одинокой молекулы? Наука нашла другие методы, позволяющие оценивать одновременное движение бесчисленного множества частиц. Ученые смогли увидеть в этом движении не только хаос нескончаемой пляски, но и незыблемый строгий закон. Для этого им пришлось использовать известное в математике понятие вероятности, применить статистические методы, позволяющие найти общую закономерность очень многих событий, и ввести новое понятие, получившее название «энтропия». Однако не рано ли об энтропии? От простых законов Ньютона к сложной сущности энтропии человеческий гений проделал долгий, трудный и весьма извилистый путь...

Тайны невидимого движения

Представим себе на секунду то далекое время, когда еще не знала вселенная ни Земли, ни Солнца, когда вся наша солнечная система была хаосом мельчайших частиц.

«А разве было такое время?» - спросит ктонибудь из читателей.

Было. Нам Земля и Солнце кажутся вечными, а в масштабах вселенной вся их история - всего лишь короткий миг. Но откуда известно людям, что было в те невообразимо далекие годы? Как могли они выскочить за пределы своего мира, ограниченного временем и пространством, и оглянуться на миллиарды лет назад? Им помог разум. Неустанно изучая свою маленькую планету и окружающее пространство, человек познает законы, которым подчинена вся вселенная. К числу таких законов относится закон сохранения энергии, установленный в середине прошлого века.

В наше время этот закон известен каждому школьнику, и любой мало-мальски грамотный человек представляет себе его суть. Но какими тернистыми путями шла к нему человеческая мысль! От Ломоносова до Карно многие поколения ученых пытались доказать, что в природе существует «закон сохранения движущей силы». Опыт подсказывал им, что нет в природе такого явления, где бы движение родилось ниоткуда. Но как убедиться, что это незыблемый и всеобщий закон? Чтобы доказать его, нужна какая-то единая мера, пригодная для оценки всех форм движения. Может быть, этой мерой является сила? Но что считать силой? Ноша давит на плечи путника, потому что в природе есть сила тяжести. Великий Ньютон доказал, что сила эта рождена притяжением, а притяжение тел друг к другу - это непреложный закон. Но почему нагретый газ сильнее давит на стенки сосуда? Может быть, в этом проявляется «сила тепла»? Понадобились века, чтобы приобрел окончательную и полную ясность этот, казалось бы, совсем обычный вопрос.

Надо насквозь проникнуться духом прошлого века, чтобы понять, почему все, что сегодня кажется очевидным и ясным, вызывало столько сомнений всего лишь сто лет назад. Сделать это совсем не так просто, как может показаться на первый взгляд: с ранних лет в нашем сознании безраздельно господствует современность. Разве мы представляем себе, как трудно было нашим предкам приучить себя к мысли о том, что они ступают ногами не по плоской глади тарелки, а по поверхности гигантского шара, а «на той стороне» шара точно такие же люди ходят «вниз головой»? Надо сохранить в себе всю свежесть детского восприятия, чтобы удивиться этому так же, как удивлялись наши отцы. Спросите у кого-нибудь из ваших знакомых: как попала на глобус Америка? Очевидно, вопрос покажется странным: кому не известно, что ее открыл легендарный Колумб?

Ну, а как он ее «открывал»?

В ответ на этот вопрос вам расскажут, что Колумб плавал туда, где еще не были корабли европейцев, и увидел там землю, которую до него не видел никто. Ей присвоили имя Америка. Разве не так было на самом деле? Представьте себе, что нет. Не только Колумб, но и десятки других мореплавателей, достигавших после него берегов Америки, не подозревали, что это новый, неведомый материк. Они считали, что попадают в Индию новыми водными путями. А впрочем, лучше сказать об этом словами Стефана Цвейга:

«Год 1502-й. Происходит столько событий, что их не обозреть и не постичь: за десять лет открыто больше, чем за тысячелетие. Один за другим корабли выходят из гаваней, и каждый привозит домой новые вести. Словно прорвали вдруг заколдованную пелену: всюду - на севере, на юге - открываются земли. Каждый корабль, плывущий на запад, находит новый остров. В календаре со всеми его святыми уже не хватает имен, чтобы дать названия всем открытиям... Но странно, странно! Почему же все эти острова, все эти диковинные страны индийского побережья были неведомы ни древним, ни арабам?.. Неужели уже и впрямь объехали вокруг света, неужели Колумб действительно был так близок от Г анга, как он уверяет, и мог бы, продолжая путь на запад, встретиться с Васко да Гамой, если бы тот шел на восток?.. Земной шар! Меньше он или больше, чем считали раньше? Хоть бы кто-нибудь объяснил все эти чудеса! Человечество хочет, наконец, после всех этих открытий знать, что же оно открыло. Решающее деяние века - это чувствует каждый - совершено, но люди еще не понимают его смысла и значения».

Прошло еще много десятилетий, прежде чем из отрывочных сведений мореходов сформировались законченные очертания и на глобусе мира возник Новый Свет. Потому что в сознании наших предков не было того пятнистого шарика, который служит для нас образом нашего мира, и им было так же трудно представить себе, что такое Америка, как трудно бывает воссоздать законченный облик античных богов и героев, имея в руках несколько черепков. Но нам уже нет нужды заниматься этой кропотливой работой: за нас сделали ее предки. От них получили мы изображения храмов и статуй древнего Карфагена и вечный памятник мужеству и отваге, известный под скромным названием «глобус».

Слово «энергия» тоже пришло к нам от предков. Энергию нельзя представить себе так же конкретно, как статую или глобус. Но все же смысл этого понятия нам ясен настолько, что мы даже не подозреваем, какими трудными путями шло человечество к его сути.

А знаменитый закон сохранения? Как прост и очевиден его всеобъемлющий смысл! Что бы ни случилось в мире, энергия никогда не возникнет и никогда не исчезнет. Она только переходит из одной формы в другую. Пароход движется энергией топлива, энергия тока питает транспорт, приборы и механизмы, а сама электроэнергия рождается внутренней энергией атома, тепловой машиной или силой падающей воды. В этом всемирном круговороте энергия циркулирует без «утечки»: если остановилась машина, значит ее энергия целиком превратилась в тепло. Куда, казалось бы, проще? Но это лишь кажущаяся простота. В этом законе объединились все сведения, по крупице собранные наукой, подобно тому как в едином слове «Америка» слились десятки открытых в разное время бухт, заливов и островов. А ведь было время, когда ученые тоже обследовали неизвестные острова и заливы, не представляя себе, где начинается Новый Свет.

XIX век. Все новые и новые силы открывает в природе наука. Открыта сила притяжения, изучена сила давления, ведутся исследования электромагнитных сил. Все это материальные силы природы. А сколько еще появляется на страницах «ученых» трактатов всяческих магических, чудотворных и божественных сил! Там, где наука не может объяснить природу явления, находятся горе-теоретики и тут же рождают теории, основанные на действии какихнибудь новых «таинственных сил»! Вот и попробуй разобраться в этой пестрой смеси различных понятий, именуемых одним словом «сила», найти действительные, объективные силы и установить для них какой-то общий закон.

«Есть много процессов, которыми форма силы изменяется так, что происходит видимое превращение одной силы в другую, - писал Майкл Фарадей. - Так можно превратить химическую силу в электрический ток или наоборот. Изящные опыты Зеебека и Пельтье показывают взаимную обратимость электричества и магнетизма11.

Но ни в одном случае... нет чистого творения силы без соответствующего исчезновения чего-либо взамен ее».

Чего-либо... Но чего же? Силы? Да нет же, не силы - энергии! Не хватает одного только шага, чтобы превратить общие соображения в строгий и точный закон. Но закона все нет и нет.

Словно волна о камень, бьется мысль ученых о неуловимый «закон сохранения движущей силы природы». Но не может волна сдвинуть с места этот камень: хотя слово «энергия» и произнесено Юнгом в начале века, никто из ученых пока не смог уяснить себе его смысл.

А техника поступает гораздо проще. Она не мучается вопросом о том, почему тепло двигает поршень. Она просто заставляет тепло делать нужное и полезное дело с помощью невиданных доселе паровых машин. В этих машинах тепло рождает новые силы. Откуда они берутся? И что же в конце концов представляет собой тепло?

До середины прошлого века человечество не волновал этот вопрос. Его вполне устраивало объяснение, родившееся в умах античных ученых больше 2 тысяч лет назад. Тепло - это вещество, невесомое и прозрачное, оно может свободно проникать в «поры» любого тела, оттого и происходит при нагревании расширение тел. Именно в таком виде живет в сознании ученых со времен Аристотеля и до середины прошлого века так называемый «теплород».

Но вот рождается тепловая машина, и спокойно прожившая тысячелетия теория теплорода вдруг начинает расползаться по швам. Она не может вместить в себя тех явлений, которые рождены новой техникой, для этого ее ветхие рамки стали узки.

Наблюдая процесс сверления медных стволов орудий, английский ученый Румфорд задумывается над вопросом: чем разогревается обрабатываемый металл? Теплородом? Если верить этой теории, теплород не может возникнуть. Неизменное количество этой таинственной «жидкости» испокон веков отпущено богом природе, а нам остается лишь перегонять ее с места на место путем разогрева и охлаждения тел. Но вот Румфорд смотрит на медные пушки, и тени сомнений шевелятся в его душе. Откуда взялся в таком огромном количестве этот таинственный теплород? Ствол был холодным, сверло - тоже, но вот вращающееся сверло погружается в толщу металла и выбрасывает стружку, раскаленную чуть ли не докрасна. И тут впервые рождается мысль о том, что нет в природе пресловутого теплорода, а металл нагревается потому, что движение сверла, вгрызающегося в стволы орудий, превращается в теплоту. Как близок был Румфорд к открытию мирового закона! И все же не ему суждено было найти ту меру, которая позволила свести воедино все виды движения. Ее установил Роберт Майер, предложивший опыт определения механического эквивалента тепла.

Опыт был чрезвычайно прост: падающая гиря заставляет вращаться специальные лопасти, расположенные в цилиндре с водой. Остается лишь точно измерить, какую работу совершает падающая гиря, на сколько градусов разогрелась вода за счет трения, а затем убедиться, что определенному количеству расходуемой механической энергии соответствует строго определенное количество выделяющегося тепла.

Трудно переоценить значение этого эксперимента: ведь он впервые в истории утвердил для различных видов энергии единство и неразрывную связь. Энергия не исчезает. Она может менять свою форму, переходить от системы к системе, но если в одной из систем энергии стало меньше, значит ровно на столько же возросла энергия взаимодействующих с ней систем. Превратившись в ряд точных формул, этот закон стал фундаментом всех последующих открытий и на Земле, и во вселенной, и в сложном мире элементарных частиц. Вот почему простой опыт, описанный немецким медиком Робертом Майером, занял почетное место среди великих открытий всех стран и эпох.

Обратите внимание: не физик, а медик сумел оказать науке такую услугу. Что же удивляться тому, что современная физика изо всех сил старается вернуть медикам и физиологам этот давнишний долг! Физике бывает очень обидно, когда какой-нибудь наш современник не желает допускать кибернетику к изучению организмов, считая, что это «механицизм». Нет, мир, несмотря на удивительное многообразие существующих в нем явлений, отличается глубочайшим единством, и лишь тот, кто умеет видеть это единство, способен открыть в нем новый закон. И не случайно мысль о связи тепла и механической работы зародилась у Роберта Майера еще в то время, когда он служил корабельным лекарем, а предметом его исследований был человеческий организм.

С тех пор как опыты, предложенные Робертом Майером, дали науке единую меру энергии, тепло перестало быть теплородом, потому что тепло - это только движение, и бесполезно искать в нагретом физическом теле мифическое «тепло-вещество». Теплород ушел из науки так же безропотно, как ушел, уступив место локомотиву, неуклюжий и медлительный дилижанс.

И еще один очень важный вывод вытекал из открытия Майера: в природе нет «закона сохранения теплорода». Напротив: тепло может возникнуть и исчезнуть, потому что из тепла получаются иные формы движения, а любое движение может вновь превратиться в тепло. Не количество теплорода, а количество энергии сохраняется всегда неизменным. Но энергия постоянно меняет свою форму. Вот почему Энгельс считал, что открытый наукой закон сохранения энергии был одновременно и законом ее превращений.

В своем вечном стремлении глубже понять природу человеческий гений одержал еще одну большую победу: наука нашла ту общую меру, которая во всем многообразии материальных сил природы утверждала единство и взаимную связь. Найти общее в том, что кажется совершенно различным, - наука всегда видела в этом свою главную цель. В бесконечном многообразии веществ и химических элементов она ищет единый принцип взаимодействия электронов, атомных ядер и элементарных частиц. С помощью теории колебаний она устанавливает общие законы движения в таких различных явлениях, как свет, звук, радиоволны, колебания атомов, маятника, мембраны или натянутых струн. Законам случайностей подчиняются все массовые явления - от пляски молекул в кубике газа до потоков транспорта и пешеходов, распространения инфекционных болезней и неточностей обработки деталей, порождающих производственный брак.

А информация? Разве не тем же стремлением обобщить огромную массу явлений рождено это новое понятие современной наукой? Но как бы ни развивалась наука в дальнейшем, закон сохранения энергии никогда не утратит своей всеобъемлющей роли, потому что заложен он в самом фундаменте всех явлений нашего мира.

Еще наши древние предки умели получать тепло трением камня о камень. Но разве они думали, что движением рук можно вызвать иное движение в невидимом мире микрочастиц! И только с появлением понятия «энергия» люди окончательно поняли, что тепло - лишь одна из форм общего движения мира, которому нет начала и не будет конца. Это была революция в физике.

А революцией в технике оказалось появление тепловых машин. Техника выдвинула перед наукой проблему связи тепла с механической энергией. И наука помогла технике решить этот насущный вопрос. Джемс Уатт изобрел паровую машину, а Сади Карно объяснил, как циркулирует в ней тепло. Теперь стало ясно, откуда черпает силы тепловая машина. Превращение тепла в электричество или в механическую работу - ' это преобразование движения, превращение из одной формы в другую. Движение не исчезает и не рождается вновь. Тепловая машина лишь превращает движение молекул нагретого пара в движение электронов по проводу или в движение поршня. И нельзя создать такую машину, в которой движение возникало бы «ниоткуда»: чтобы получить механическую энергию, надо отобрать у топки тепло.

Казалось бы, с появлением единой меры движения вопрос приобрел полную ясность: превращение тепла в работу - это переход хаотического микродвижения в ту ощутимую энергию поршня, с помощью которой можно заставить двигаться корабль и паровоз. Но вновь и вновь возникают сомнения. Если тепловое движение это хаотическая пляска молекул, то почему же газ, разогретый в сосуде, давит с одинаковой силой на все его стенки? Чем обусловлено это давление? Ударами молекул о стенку сосуда? Но ведь на каждую площадку молекулы падают с разными скоростями. И число их будет случайным. Значит, случайной будет и сила ударов. Почему же все-таки газ с одинаковой силой давит на любую площадку?

Такой вопрос встал перед учеными прошлого века, и очень скоро на него был найден ответ. Помогла математика - она открыла закон, способный охватить одновременное движение миллиардов частиц. Это был закон больших чисел.

Мы уже видели, как проявляется действие этого закона при учете какой-либо буквы среди огромного количества букв. Мы видели, как подтвердился этот закон в опыте с монетой, которую английский ученый Карл Пирсон подбрасывал 24 тысячи раз. Даже живые люди вынуждены подчиниться его всеобъемлющей силе. Убедившись однажды, что число пассажиров, входящих на одну из станций метрополитена, составляло 5 процентов от общего числа пользующихся метрополитеном людей, вы обнаружите тот же процентный состав при любом повторном подсчете (если, конечно, не возникнет каких-либо особых условий, таких, как, например, происходящий неподалеку от этой станции футбольный матч).

Любопытный получается результат: каждый из пассажиров ездит, когда ему нужно, а все вместе они независимо от желания соблюдают объективный закон. Ну, а уж если люди не могут нарушить закона, то молекулы и подавно. Град их ударов о стенки сосуда всегда превращается в один непрерывный удар. Ведь и град, падающий на землю, соблюдает закон больших чисел - еще не было случая, чтобы после дождя и града среди луж и комочков льда обнаружилась совершенно сухая площадка.

Математика смотрит на вещи просто. Ей все равно, что происходит в мире: идет ли дождь, или молекулы бьют по стенке сосуда, передаются ли телеграфные тексты, или болельщики едут на ответственный матч. Для нее молекула или буква, капля дождя или пассажир метрополитена - все едино, все является примером случайных событий, и все события соблюдают один закон. Чем больше число случайных событий, тем строже он выполняется. Несквлько молекул, заключенных в микроскопическом объеме, вовсе не подчиняются этому закону. Но в каждом кубическом сантиметре объема находится так много молекул газа, что закон больших чисел соблюдается ими с удивительной строгостью. Ученые подсчитали, что случайное отклонение давления в одном кубическом сантиметре всего на 1 процент может произойти не чаще, чем один раз за 101014 секунд. Чтобы представить, сколько времени содержит в себе это трехэтажное число, достаточно сказать, что 1010² секунд уже составляют миллионы миллиардов лет!

Так в окружающем нас материальном мире действует один из основных законов диалектики, согласно которому в форме случайностей проявляется необходимость. Необходимой, неизбежной является равномерность давления газа, обусловленного случайными ударами молекул о стенки сосуда, определенное число повторений какой-то буквы, ровный слой воды на асфальте от случайных капель дождя.

Не все ученые прошлого века признавали эту необходимость. Даже Карл Пирсон, который не пожалел времени для того, чтобы воочию убедиться в действии этого закона, подбрасывая монету 24 тысячи раз, все же так и не признал объективной необходимости различных явлений, утверждая, что «необходимость» принадлежит лишь «к миру понятий». Что ж, мы можем только посочувствовать тяжелому положению тех ученых-идеалистов, которые, сталкиваясь с законами материального мира, вместо того чтобы признать эти законы, предпочитают не верить своим глазам. Общие методы исследования массы случайных событий помогают науке все глубже и глубже проникать в тайны природы, познавать, каким законам подчиняется мир.

Вот почему в мире молекул, казавшемся нам лишь нагромождением беспорядка, обнаружились строгие закономерности, отраженные в физических формулах и кривых. Оказывается, все, что приключилось с нами в облаке газа, Максвелл еще в прошлом веке описал одним уравнением и одной кривой.

Смысл кривой Максвелла довольно прост. Если всю площадь, расположенную между осью С и кривой Максвелла, принять за 1, то площадь заштрихованной полоски составит 0,07. Это значит, что вероятность движения любой частицы со скоростью большей, чем С1, но меньшей, чем С2, равна 7 процентам. Таким образом, кривая Максвелла дает возможность увидеть, как среди огромного количества одновременно движущихся молекул распределяются вероятности скоростей. Есть много молекул, у которых скорость близка средней скорости, и лишь небольшое количество молекул движется с очень большими или очень малыми скоростями.

Кажется, мы начинаем привыкать к необычным условиям «жизни» этого мира. По-прежнему мечется из стороны в сторону наша маленькая батисфера, но теперь мы зиаем, что в этом мире иначе быть и не может, и потому спокойно рассуждаем о кривых Максвелла и о тех общих законах, которым подчиняются большой и маленький миры.

Но надо все же подумать о том, как выбраться из этого хоровода. Нельзя же болтаться в нем бесконечно! Сколько бы ни носились мы здесь в своей фантастической батисфере, мы не узнаем больше ничего нового: пройдут часы, дни и столетия, а молекулы будут по-прежнему, подчиняясь кривой Максвелла, разыгрывать свой нескончаемый матч. И вдруг...

Мы даже не успели толком понять, что произошло. Какое грандиозное событие разом преобразило этот равнодушный, устойчивый мир? Мы успели только заметить, что все окружающие нас частицы внезапно устремились в одном направлении. Спеша и толкая друг друга, они неслись все дальше, к какой-то неведомой цели. Гонимая их толчками, наша маленькая батисфера в один миг пересекла все пространство и со стремительной скоростью вырвалась из сосуда.

Наконец-то! Теперь можно выйти из батисферы и обрести свой привычный размер. Кстати, и подумать, что же все-таки произошло? А произошло следующее: отверстие, через которое мы проникли в сосуд, имело особый клапан. Этот клапан открылся, когда о него ударилась батисфера, и тут же захлопнулся, потому что огромное количество молекул разом налетело на него с внутренней стороны. Мы оказались в замкнутом объеме сосуда. И мы действительно могли бы болтаться в нем долгие годы, если бы перед началом путешествия не приказали специальному автомату открыть клапан в определенный момент. Разом нарушились все законы. Теперь уже нет одинакового давления на стенки сосуда, нет движения, изображаемого кривыми Максвелла, все «жители» охвачены одним порывом - они стремятся как можно скорее достигнуть отверстия, которое открыл наш спасительный автомат. Что заставляет их неудержимо стремиться к нему?

Разность давлений. Внутри сосуда оно выше, чем за его пределами. Микромир не терпит «несправедливости». Его «жители» считают, что должен быть заселен равномерно весь доступный для них объем. Пока стенки мешали им выйти за границы сосуда, они жили в «состоянии равновесия», и именно это состояние подробно исследовал и описал уравнениями и кривыми Максвелл. Но вот открылось отверстие, образовалась разность давлений, и равновесие сразу нарушилось. Молекулы получили возможность стремительно вылетать из отверстия. И будут вылетать до тех пор, пока давление внутри сосуда не станет равным давлению атмосферы. Тогда наступит новое равновесие, и молекулы станут снова водить свои хороводы, подчиняясь закону, который открыл Максвелл.

Значит, не все события, происходящие в облаке газа, можно описать кривыми Максвелла. Есть у газа еще одно очень важное свойство: выведенный из равновесия, он стремится вернуться в это состояние, и молекулы до тех пор не будут подчиняться кривой Максвелла, пока в границах отведенного им пространства не «восстановится справедливость», пока давление не станет ровным во всех частях. Для того чтобы до конца понять природу этого свойства, и понадобилась энтропия.

История энтропии

Термин «энтропия» родился в середине прошлого века. Его ввел в физику немецкий ученый Клаузиус, и с его легкой руки условный значок энтропии завоевал себе прочное место в длинном ряду термодинамических формул. Формулы эти говорили о том, что при нагревании тела увеличивается его температура, а также давление или объем.

Все это не было новостью. Еще задолго до появления формул термодинамики эти факты были установлены опытным путем. Новостью было то, что при нагревании тела возрастает его энтропия. Усвоить это было не так-то легко. Если увеличение объема можно было увидеть воочию, а температуру и давление буквально «пощупать руками», то энтропия долгое время оставалась загадочной и непостижимой «функцией состояния» различных тел.

Энтропия будет возрастать до тех пор, пока полученное тепло не распространится по всему телу равномерно, - так говорили формулы, и им приходилось верить.

Однако слепая вера - плохой помощник ученого даже в том случае, когда ее подтверждают экспериментальные данные и математический аппарат. Нашлись люди, которые захотели «увидеть» и энтропию. Если она является «функцией состояния», значит ее изменение должно быть связано с изменением состояния тела. Наблюдал ли кто-нибудь это изменение? Нет. Что ж, ничего удивительного. Невидимое изменение состояния тела - это изменение его микроструктуры. Выдающийся австрийский физик Людвиг Больцман был первым ученым, вскрывшим природу энтропии и ее связь с микроскопическим состоянием тел.

Энтропия возрастает тогда, когда происходят микропроцессы, приводящие к равновесному состоянию газа. А равновесие газа - это уже знакомый нам хаотический танец частиц.

Выходит, не зря пошли мы на риск, отправившись в путь на маленькой батисфере: гораздо легче понять ход рассуждений Больцмана тому, кто хотя бы однажды «повидал» этот мир. Вспомним, как мы неслись к открытому клапану, подхваченные толпой торопливых частиц. Это был как раз тот момент, когда в сосуде нарушилось равновесное состояние газа. В равновесном состоянии давление должно быть равным во всех частях. А здесь нарушена «справедливость»: молекулы с наружной стороны клапана чувствуют себя гораздо свободнее тех, что внутри. Но этого не терпит природа: пока не уравняется давление, молекулы будут со стремительной скоростью вылетать из сосуда вон.

Но не только давление стремится стать равномерным. Температура тоже зависит от движения тех же частиц. Когда тело находится в равновесии, его температура одинакова во всех частях. Если его подогреть с одной стороны, равновесие нарушится. Но тут же движение микрочастиц передаст тепло во все части тела, температура начнет выравниваться, в теле вновь восстановится равномерный хаос, который изобразил кривыми Максвелл.

А пока в хаотическом танце молекул не наступит этот порядок, в теле будет расти энтропия. В мире, где царит хаос, происходит множество всяких событий. Но как бы ни складывались эти события, они должны подчиняться законам этого мира: число «жителей», находящихся в одном кубическом сантиметре любой части сосуда, должно быть в среднем одним и тем же.

Кто диктует «жителям» этот порядок? Что мешает молекулам «столпиться» в одной части сосуда, оставив свободными другие места? Почему все «жители» этого мира обречены быть серой, безликой массой? А что, если появятся среди них такие, кто захочет выделиться из «толпы»? Представьте себе картину: тихо движется огромная масса молекул, а среди общего плавного хоровода резвится несколько «привилегированных» микрочастиц. В чем заключаются их «привилегии»? Они расходуют слишком много энергии, и слишком мало достается ее на долю других. Тело изолировано от внешней среды. Энергия не убывает и не прибывает. Значит, чем больше резвятся «избранные», тем более медленным будет движение всех остальных. Такие явления совсем не типичны, потому что никто из «жителей» этого мира не в силах нарушить один непреложный закон: закон возрастания энтропии.

Энтропия будет расти до тех пор, пока в равных объемах не окажется равное число «жителей», имеющих близкие значения скоростей. Такое состояние является состоянием равновесия, и оно имеет наибольшую вероятность. Зато у таких событий, как «столпотворение» в одной части сосуда или слишком большая скорость отдельных микрочастиц, вероятность очень мала. Значит, с ростом энтропии тело стремится к более вероятному состоянию - вот та основная идея, которую дал физике Больцман. И на основе этой идеи он впервые связал понятие вероятности с понятием энтропии.

Сущность энтропии начала проясняться. Энтропия связана с вероятностью состояния. А наиболее вероятным является состояние равновесия, когда в любой части сосуда находится в среднем одно и то же количество сталкивающихся частиц.

Теория вероятностей знает немало подобных примеров. Если на ровную площадку брошено 100 одинаковых игральных костей, то сумма выпавших на них очков будет всегда близка 350. Почему именно этому числу?

Потому что оно является наиболее вероятным. Давайте рассуждать так. Наибольшая сумма очков равна 600. Она будет в том случае, если все кости упадут вверх «шестерками». Может ли случиться такое событие? Теоретически может. А практически нет, потому что его вероятность близка нулю. Точно так же не может случиться, чтобы все 100 костей выпали вверх единицами. Отсюда уже ясно, что выпавшая сумма должна находиться где-то между 600 и 100. Если хотите определить ее более точно, подсчитайте «математическое ожидание» этой суммы. Нам с вами уже приходилось делать подобный расчет. В данном случае он выглядит ничуть не сложнее:

M =

(

1

6

 ·1 +

1

6

 ·2 +

1

6

 ·3 +

1

6

 ·4 +

1

6

 ·5 +

1

6

 ·6

)

 ·100 = 350.

Мы взяли вероятность выпадения каждой из 6 граней (1/6), умножили ее на число очков каждой грани (1, 2, 3, 4, 5, 6), сложили полученные числа и умножили на количество игральных костей. 350 - это средняя сумма. Сколько бы мы ни кидали наши игральные кости, сумма очков будет всегда близка средней сумме, то есть числу 350.

То же самое происходит и в микромире. Как бы ни толкали друг друга молекулы, количество их в единице объема и скорости их движения всегда близки какой-то средней величине. Так будет до тех пор, пока газ находится в равновесии, пока в любой части сосуда одно и то же давление, одна и та же температура. И в этом случае энтропия тела, выражающая вероятность его состояния, равна наибольшей величине.

Вот теперь мы, наконец, подходим к тому моменту, когда все, что увидели мы в хаотическом мире молекул, можно будет свести к одной замечательной формуле:

S = - ∑ Pilog Pi.

Узнаете ли вы эту формулу? Еще бы, ведь она так часто встречалась нам в Новом Городе! Только там не было знака «-», а вместо S стоял значок I. Шеннон взял эту формулу из теории Больцмана. Он применил ее для расчета количества информации, и потому в его формуле стоял значок I. А Больцман использовал в своих формулах предложенный Клаузиусом значок энтропии S. А в общем Больцман и Шеннон оценивали с помощью этой формулы одно и то же качество явлений - их неопределенность.

Согласно теории Больцмана наибольшая энтропия газа соответствует самому хаотическому движению молекул. Согласно формуле Шеннона наибольшей энтропией обладает самый «хаотичный» текст:

СУХТРБЬДЩ ЯЫХВЩИЮАЖТЛ...

Если температура постоянна и одинакова во всех частях тела, значит оно находится в равновесии. Кривая Максвелла покажет нам, как при этой температуре (на рисунке она обозначена через Т1) распределились вероятности скоростей. Если мы подогреем только одну часть тела (например, одну стенку наполненного газом сосуда), равновесие нарушится на какое-то время. Но вскоре находящиеся в сосуде молекулы газа восстановят привычный для них порядок, тепло распространится по всему объему, наступит новое равновесие при температуре Т2.

Смотрите, что происходит с кривой Максвелла: она стала широкой и плоской, более близкими друг другу стали вероятности разных скоростей. А раз так, значит величина энтропии, подсчитанная по формуле S = - ∑ Pilog Pi должна возрасти. Так же, как в тексте, где буквы имеют близкую вероятность, так же, как в опыте с равным количеством разноцветных шаров.

Значит, и формула энтропии и кривые Максвелла говорят об одном и том же: получив тепло, тело увеличивает свою энтропию, потому что возрастает неопределенность движения: можно почти с одинаконой вероятностью ожидать и малых (С1), и средних (С2), и больших (С3) скоростей.

Значит, и в тексте, и в опыте с шарами, и в хаотическом танце молекул есть одна и та же закономерность: неопределенность, равная ∑ Pilog Pi, увеличивается в том случае, когда становятся равными вероятности различных событий.

И все же не так-то просто представить себе по кривым Максвелла всю картину движения, царящего в облаке газа. Дело в том, что эти кривые отражают лишь вероятность той или иной величины скорости, а ведь надо учесть еще и вероятности всех направлений. Например, можно считать, что кривые, изображенные на нашем рисунке, отражают скорость движения слева направо, то есть вдоль оси X. Для частиц, движущихся сверху вниз, должна быть построена вторая кривая. Третья кривая будет соответствовать направлению, перпендикулярному плоскости рисунка (ось У). А если частица движется под углом к стенкам нашего куба, значит ее скорость (С) определяется всеми тремя кривыми, потому что она содержит в себе три составляющих: Сх, Су и Сz.

Картина получается довольно сложной, если попытаться представить себе движение миллиардов частиц. И едва ли у кого-нибудь из ваших знакомых хватит терпения разобраться в том, что случилось с вами в кубике газа, если вы по ходу рассказа будете то и дело прибегать к помощи этих кривых.

Как же описать эту картину тому, кто не видел ее сквозь люк батисферы?

Давайте попробуем сделать так: отметим положение всех частиц для какого-то мгновения времени. Осталось учесть скорость и направление. Для этого условимся, что направление стрелки, идущей от каждой точки, совпадает с направлением движения микрочастицы, а длины стрелок соответствуют значениям скоростей. Вот мы и получили тот хаос, который существует в какое-то мгновение в кубике газа.

В следующее мгновение, столкнувшись между собой, частицы изменят направление и скорость движения, и картина станет совершенно иной. И участвовать в этой «пляске» будут не десятки точек, уместившихся на нашем рисунке, а миллиарды молекул газа. Но все же этот рисунок дает возможность представить себе, что творится в маленьком кубике газа, и понять, почему физикам приходится вооружаться сложным математическим аппаратом, чтобы понять, как живет этот мир.

Усилиями многих ученых были найдены методы, позволяющие исследовать этот хаос. И все эти исследования вновь и вновь подтверждали справедливость замечательной формулы:

S = - ∑ Pilog Pi.

Удивительная формула! Смысл ее обсуждался на конференциях и в научных журналах. Пожалуй, за всю историю науки не было формулы, на которую во всех областях человеческих знаний существовал бы такой непрерывно возрастающий спрос. Но где бы ни нашла она себе применение в настоящем и в будущем, смысл ее будет одним: там, где различные события имеют разную вероятность, неопределенность невелика. Если величины Р становятся равными для всех возможных событий, неопределенность растет.

А ведь было время, когда находились ученые, упорно не желающие вникать в ее сущность. Можно сказать без преувеличения, что теория Больцмана, связавшая энтропию с вероятностью микросостояния тела, была встречена некоторыми учеными того времени буквально в штыки.

- Долой атомные и молекулярные теории! - громко кричали противники Больцмана.

- Никто не видел молекулы, и незачем объяснять известные и понятные явления туманным взаимодействием каких-то частиц! У физиков и без этого много всяческих дел!

- Надо стремиться к познанию доступных явлений, - поучала научная пресса, - а не вечно скрытой сущности вещей. Поиски скрытых механизмов явлений гибельны, это напрасная трата сил и времени.

Реакционное влияние идеалистов было в то время настолько сильным, что не только новые открытия Больцмана, но и созданная Максвеллом кинетическая теория газов рядом ученых была объявлена «излишней гипотезой». Отчаянные попытки Больцмана спасти эту прекрасную теорию от нападок были встречены холодной иронией, а иногда и развязной откровенной издевкой.

«Кинетическая теория, как известно, так же ошибочна, как и различные механические теории тяготения... Но если кто-нибудь обязательно хочет с ней познакомиться, пусть возьмет в руки произведение Больцмана», - писал немецкий журнал.

Неожиданной развязкой завершился этот исторический этап развития мировой науки: на заре XX века один из выдающихся мыслителей прошлого столетия, физик Людвиг Больцман, покончил с собой. Как могла допустить история такую трагическую нелепость? Разве ясная мысль Больцмана была рождена для того, чтобы ей диктовал свою волю бездушный кусок свинца? Ее стремительный бег был таким ярким... Что за беда в том, что современники и коллеги не способны были воспринять ее блеска? Ее оценят потомки. Она вдохновит новые поколения физиков. А потом, спустя много лет, на заре кибернетики, идеи Больцмана откроют науке и технике новые, неизведанные пути. Нет, не смогла бездушная пуля остановить стремительный бег его мысли. Нельзя убить истину, ведь она помогает понять сущность нашего мира, она несет в века информацию, ту самую информацию, которую с помощью формулы Больцмана впервые измерил Шеннон.

Словно эстафету, принесли нам сторонники Больцмана мысль о связи микродвижения и энтропии.

Первым, кто принял эстафету от Больцмана, был польский ученый Мариан Смолуховский. Вооружившись идеями Больцмана, он попытался представить себе подробности необычной жизни этого мира. В результате Смолуховский пришел к выводу, что мир, в котором царит случайность, даже в состоянии равновесия не остается устойчивым и неизменным. В нем постоянно происходят «волнения»: в каждом элементе объема меняется плотность молекул газа, их становится то больше, то меньше - число их колеблется вокруг какой-то средней величины. Эти явления получили название флуктуаций. Флуктуации подобны тем колебаниям, что совершаются канатоходцем: ведь и он, чтобы сохранить равновесие, должен отклоняться то влево, то вправо.

Теория флуктуаций была еще одним значительным шагом в познании тайн микроструктуры. Но движение, которое изучал Смолуховский, все еще оставалось незримым, а потому находились люди, по-прежнему отрицавшие существование молекул.

Для решительной победы над теми, кто не желал углубляться «в сущность явлений», необходимы были веские доказательства, которые мог дать лишь научный эксперимент. И Смолуховский был первым, кто сумел увидеть, как «живет» микромир. Оказалось, что неопровержимое подтверждение движения молекул буквально «витает в воздухе». Голубой цвет неба, который долгое время объясняли наличием посторонних частиц, обусловлен теми же флуктуациями - непрерывно возникающими и исчезающими уплотнениями молекул. И для того чтобы убедить в этом неверящих, Смолуховский создал искусственное «голубое небо» из идеально чистого воздуха, текущего по специальной трубе.

«Люди всегда имели живое доказательство перед глазами, нужно было только научиться читать в книге природы», - писал он.

А вслед за опытами Смолуховского эксперименты шведского ученого Свидберга и русского физика Ильина отмели и отправили на свалку истории все возражения противников молекулярных теорий. Освещая регулярно повторяющимися вспышками малый объем специальных растворов, они наблюдали под микроскопом, как изменяется число попавших в этот объем частиц. Их микроскоп не позволял увидеть самих молекул; они различали более крупные частицы коллоидных растворов. Эти частицы двигались потому, что их со всех сторон толкали молекулы, как толкали они батисферу, в которой мы совершили наш рискованный рейс.

Но важно было именно это движение, потому что впервые ученым удалось заглянуть хотя бы сквозь «замочную скважину» и увидеть, как «жители» микромира играют в свой бесконечный «футбол».

При каждой вспышке света Свидберг отмечал, сколько «мячей» попадает в его «ворота». Сделанные им записи выглядели так: 1 2 0 0 0 2 0 0 1 3 2 4 1 2 3 1 0 2 1 1 1 1 3 1 1 2 5 1 1 1 0 2 3 3 1 3 3 3 2 2 1 1 1 2 2 4 2 2 1 2 2 6 1 2 2 1 4 2 3 4 5 2 4 1 1 4 1 3 1 1 4 2 3 1 0 0 1 0 0 4 2 1 1 ...

Это только начало ряда. Полный перечень записанных Свидбергом чисел занял бы слишком много места на этой странице: их было более 500. Но в научных архивах бережно хранится каждая записанная цифра: ведь по ним впервые в истории удалось проверить законы, которым согласно теории Больцмана и Смолуховского подчиняется микромир. На первый взгляд кажется, что в чередовании записанных Свидбергом чисел отсутствует закономерность. Однако даже приведенные нами числа дают основание утверждать, что появление в поле зрения микроскопа пяти частиц имеет гораздо меньшую вероятность, чем появление одной или двух. Свидберг произвел статистический учет всех 500 чисел ряда и оценил вероятность появления частиц. Оказалось, что эта вероятность точно соответствует значению, которое предсказывал проделанный Смолуховским теоретический расчет. Как глубоко заблуждались противники Больцмана, считавшие, что наука не в силах постигнуть «вечно скрытую сущность вещей»!

Статистические методы исследования физических явлений, разработанные Больцманом и Смолуховским, вместе с работами Афанасьевой-Эренфест и Гиббса легли в основу направления, получившего всестороннее развитие в современной науке - статистической физике.

А когда в связи с бурным развитием техники связи возникла необходимость определения количества информации, передаваемой через тот или иной канал, мысль нашего современника - ученого Клода Шеннона вновь возвратилась к идеям Больцмана. Взяв из статистической физики формулу энтропии, Шеннон предложил использовать ее для учета количества информации, которую содержит в себе телеграфный текст. На первых порах такая оценка телеграфных текстов казалась всего лишь удачным математическим приемом. Мало кто из ученых серьезно задумывался над тем, что в основе движения молекул газа и чередования букв словесного текста может лежать какой-то общий закон.

- Это чисто формальная аналогия, - утверждали одни.

- Для употребления термина «энтропия» при изучении сообщений нет никаких оснований! - горячились другие.

Все сходились на одном: и в том и в другом явлении имеют место случайности; с помощью вероятности можно оценить и движение молекул и различные значения букв. Дальше этих поверхностных аналогий долгое время дело не шло.

Но вот в 1956 году вышла в свет книга Л. Бриллюэна, в которой он показал, что текст, который хранится в электронных ячейках искусственной памяти, уменьшает их энтропию. Энтропия ячеек уменьшается в точном соответствии с количеством информации, которое содержится в тексте. Чтобы отразить эту связь, Бриллюэн дал информации новое имя: он назвал ее «негэнтропией» - энтропией, имеющей отрицательный знак.

Дело, оказывается, обстоит не так просто, как казалось с первого взгляда. Ведь текст тоже не возникает случайно; он несет в себе зашифрованные наблюдения реального мира. Значит, между энтропией тела, которое исследует физик, энтропией текста, содержащего мысли ученого, и энтропией ячеек, которые могут хранить эти сведения и передавать их друг другу, существует какая-то глубокая связь.

Так потянулась ниточка ко всем известным науке явлениям - от обмена теплом между физическими телами до сложных процессов передачи любых сообщений по каналам связи электронных машин...

ГЛАВА 2. ЗАКОНЫ НИЧЕЙНОЙ ЗЕМЛИ

Читатель требует ясности

Во время путешествия мы столкнулись с множеством разных вопросов, и на каждый из них был найден ответ. Мы прошли по Новому Городу, как обычно ходят туристы: нигде не задерживаясь, не придавая значения частностям, чтобы охватить то главное и интересное, чем славится выбранный нами маршрут. И вот путь окончен. Как только я об этом заявил своим спутникам, сразу же посыпались вопросы:

- Как окончен?

- А Ничейная земля?

- А связь информации и энергии?

- А почему энтропия и в газе, и в тексте, и в организме измеряется с помощью одинаковых единиц?

- А что общего между информацией в клетке и информацией на страницах газет?

- А откуда взялась информация, которая существует в природе? Мы хотим иметь ясность в этих вопросах.

Ну, а если этой ясности нет? Пока речь шла только о технике передачи сообщений, все было просто и ясно. В клетке - уже сложнее. А что касается физических процессов, то тут наука лишь недавно сделала первый, неуверенный шаг.

Можно ли хранить информацию в физическом теле?

Очевидно, можно, иначе мы не могли бы сохранять информацию в искусственной памяти электронных машин. Ведь ячейки «памяти» - это физические тела, от этого никуда не уйдешь. У них есть своя энтропия. Зависит ли она от энтропии текста, который мы хотим сохранить в этой «памяти»? Одни говорят - да, другие - нет. Можно измерить энтропию газа и энтропию человеческой речи. И в том и в другом случае можно оценить ее количеством бит. Но что будут означать эти биты? Одно и то же или нечто совершенно различное? И здесь нет единого мнения. Пока еще никто не сказал последнего слова. Так что же мне прикажете делать? Вести вас на Ничейную землю? А по какому путеводителю мы там проложим маршрут?

Я старался объяснить вам новые методы, отметить все любопытные факты. Но вам все мало, подавай вам Ничейную землю. Да ваше любопытство просто не имеет границ!

- Это не любопытство, - возражает требовательный читатель. - Мы просто не поняли того, что вы написали.

- Чего же вы не поняли?

- Да ничего. Не поняли самого главного - что же такое информация?

- Вот тебе и на! Ведь об этом же говорилось почти на каждой странице. Уж чем только я не пояснял вам этого: и формулами, и словами, и опытами с шарами.

- Формулы формулами, шары шарами. А вот информация... Говорили, что это мера неопределенности, мера неведения и еще там что-то такое. Но ведь не может же мера неопределенности управлять самолетом или заводом!

- А что несет в себе половая клетка? - раздался чей-то задорный голос. - Меру неведения? Откуда же тогда у потомков возникает сходство с родителями?

Вопросы сыплются градом, один выступающий сменяет другого.

- До сих пор мы считали: для того чтобы повлиять на движение, надо израсходовать энергию, приложить силу. А теперь? Ничтожная энергия электрических импульсов может поднять ввысь и вернуть на Землю самолет или космический корабль. Вы скажете, это за счет энергии двигателей. Но чего стоит эта энергия без маленькой энергии импульсов? Она пригодна только на то, чтобы грохнуть о землю и разбить вдребезги гигантский летательный аппарат!

- А возьмите живой организм! - подхватывает следующий оратор. - Отними у него информацию, и сразу прекратятся все жизненные процессы, исчезнет связь между всеми органами, между организмом и внешней средой. Значит, не будь информации, не было бы ни клетки, ни организмов, ни жизни, ни разума, ни летательных аппаратов, ни вычислительных машин? А где она появилась впервые? Может быть, там, в облачке газа? Ведь не случайно же Больцман увидел в нем формулу, которой подчиняется даже словесный текст!

- А потом вы говорили, что газ - это физическое тело. И «память» машины тоже сделана из физических тел. Значит, физические тела могут сохранять информацию? Тогда почему бы ей не ужиться и в газе?

- Вы скажете: «память» машины сделана человеком. А кто «сделал» живую клетку? Если нашли информацию в клетке, то почему ее не ищут в кристалле?

- Вы скажете: кристалл не живой. Но ведь помнит же информацию машина, в которой живых клеток даже в помине нет! Что же получается? Заколдованный круг? Вроде бы, где ни копни, всюду найдешь информацию? Она управляет всеми процессами. Что произошло в организме, получившем новые сообщения? В нем не прибавилось энергии - энергия импульсов совершенно ничтожна. В нем не прибавилось вещества. А все процессы протекают как-то иначе. Какая сила заставила их изменить свой ход?

Нам говорят: информация - это не сила. И не энергия. И не вещество. Так чем управляются эти процессы? Ведь не святым же духом.

Оратор умолк. И я молчу. И вместе с нами молчат читатели. Они ждут, что ответит автор. Значит, выхода нет. Остается одна дорога - дорога к Ничейной земле.

Идите с нами, профессор!

Город остался далеко позади. Мы шагаем по бездорожью. Нет больше четко очерченных площадей и улиц, впереди бескрайная равнина - Ничейная земля. Можно идти прямо или свернуть в сторону - всюду одно и то же: до самой линии горизонта манящая и пугающая бесконечная туманная даль.

Но что это? Тонкая струйка дыма поднимается над ровной поверхностью и исчезает в тумане. Кто-то зажег костер? Неужели и здесь обитают люди? Может быть, они расскажут нам о Ничейной земле?

Мы ускорили шаг. Вскоре на фоне безрадостной серой равнины удалось различить темное пятнышко. Сомнений нет, это походная палатка, раскинутая посреди бескрайной степи. Мы подходим ближе и обращаемся к человеку, сидящему у костра.

- Простите, вы случайно не из Нового Города?

- Да, мы оттуда.

- Экспедиция?

- Совершенно верно. Если хотите - разведывательный отряд. Правда, отряд небольшой, всего два человека: профессор Староверов - он сейчас отдыхает в палатке - и я, его соратник и ученик. Будем знакомы - моя фамилия Быстров.

Кажется, нам повезло. Мы не одни в этом нескончаемом бездорожье. С нами вместе на Ничейную землю идет профессор! Это так неожиданно и в то же время так обычно. Ведь ни одно увлекательное путешествие не обходилось без такого вот мудрого старичка профессора. Благодаря ему не погибли в мире шестиногих страшилищ Карик и Валя, благодаря ему вовремя почуял недоброе пятнадцатилетний капитан фрегата, потому что кто же, кроме ученого, смог бы разглядеть в кишащих живностью джунглях маленькую муху цеце?

И у нас будет все точно так же, как в солидном приключенческом романе. У нас есть свой профессор. Просто удивительно, как мы могли такое долгое время путешествовать без него!

Но ученик профессора довольно холодно встречает наши восторги.

- Вы напрасно считаете, что вам уж так повезло. Вы не знаете профессора Староверова. Должен сказать вам совершенно откровенно: он не имеет ничего общего с теми традиционными чудаками - учеными из приключенческих романов. Те были энтузиасты, а он...

Впрочем, я должен быть по отношению к нему справедливым. Я много лет работаю вместе со Староверовым и, пожалуй, не назову имени ученого, который мог бы соперничать с ним в целом ряде различных наук. От него приобрел я навыки в области точного эксперимента, научился увязывать теорию с практикой, делать выводы и обобщения на базе добытых опытом фактов. Наши цели и взгляды были едины. Но с появлением теории информации между нами словно вырос какой-то невидимый, но ощутимый барьер. Мне стало казаться, что Староверов проявляет излишнее недоверие к новым идеям. Особенно рьяно протестовал он против распространения понятий новой теории на область физических явлений, против поисков связи информации и энтропии...

Я слушал Быстрова и думал о профессоре Староверове. Может быть, он все-таки прав? Ведь наука - это не сцена из плохого спектакля, в котором все положительные герои обязательно полны оптимизма, а проповедником скептических взглядов может быть лишь заведомо отрицательный персонаж.

Ученому и инженеру скепсис нужен не меньше, чем оптимизм. Оптимизм рождает веру и увлеченность. а скепсис заставляет критически оценивать собственные идеи, придает научной или конструкторской мысли подобающую ей строгость. Не этой ли строгостью порожден скепсис профессора Староверова? Может быть, для распространения новых понятий на области, не связанные с техникой, и в самом деле нет достаточных оснований?

- Однако же отважился ваш профессор идти на Ничейную землю, - говорю я Быстрову.

- О, это стоило мне немалых усилий. Я целый год убеждал профессора покинуть насиженные места в лабораториях Нового Города и отправиться на обследование Ничейной земли.

- И напрасно старались, уважаемый! - послышалось вдруг из палатки. - Я только лишний раз убедился в том, что нам совершенно нечего делать в этой бесплодной пустыне.

- Это голословное утверждение! - Быстров вскочил с места, готовый смести брезентовую преграду, отделявшую его от профессора.

- И все же она бесплодна, - донесся голос изза преграды. - Что вы хотите здесь разыскать? Источники информации? Связь информации и энтропии? Зачем вам это нужно? Разве у вас мало дел в Новом Городе? Там лаборатории, библиотеки, радиостанции, вычислительные машины. Творите, совершенствуйте технику, и этого будет вполне достаточно, чтобы обеспечить прогресс. Зачем терять время на ненужные сомнения и вопросы?

- Но ведь не один я мучаюсь сомнениями. Сюда идут все новые и новые люди.

- А кого вы, собственно, имеете в виду? - Прикрываясь рукой от яркого света, профессор вышел из-под навеса. Это был вполне подходящий профессор. Долговязая и сутулая фигура, бородка клинышком, седые пряди и роговые очки. Как обманчива бывает внешность!

- Значит, это вы собрались идти на Ничейную землю? А кто вы такие?

- Я автор книги, на страницах которой нам с вами довелось повстречаться. А это мои читатели.

- Так что же привело вас в этот необетованный край?

- Я обещал читателям побывать с ними на Ничейной земле.

- Боже мой! - театрально произнес профессор. - Боже мой! До чего же легкомысленными бывают авторы популярных книг! Подумайте только - он обещал! А какое вы имели на это право? Что делать здесь вашим читателям, если даже ученые не могут найти пока верных путей?

- Но почему же? Насколько нам известно, некоторые из ученых уже проложили первые тропы.

- Кого вы имеете в виду? Может быть, Бриллюэна? Чепуха! Что он видел, ваш Бриллюэн? Думаете, он исследовал Ничейную землю? Он только походил по ее краю. А куда идти дальше, пока не знает никто. Разве он указал вам дорогу? Он считает, что энтропия в термодинамике и энтропия в теории информации - это одно и то. же. А я утверждаю, что это очень и очень спорный вопрос! И сам Бриллюэн, не успев сделать и двух шагов, сбился с дороги. Вот послушайте, как он подходит к вопросу:

«Энтропия есть мера недостатка информации о действительной структуре системы». Или еще: «Получение информации о физической системе соответствует уменьшению энтропии этой системы».

Вы только вдумайтесь в эти слова! Ведь здесь все смешано в одну кучу! До сих пор все считали, что энтропия - это один из параметров физического тела, такой же, как, скажем, его температура или объем. И вдруг оказывается, что энтропия зависит от того, знаем мы или не знаем структуру тела. Как прикажете это понять? Может быть, и температура зависит от наших знаний? Может быть, тело должно уменьшаться в объеме оттого, что вам захотелось узнать, из чего оно состоит? Это же полный абсурд! А вы собираетесь вести ваших неискушенных читателей по следам этого Бриллюэна! Нет, уважаемый, лучше не лезьте в эти непролазные дебри, а возвращайтесь-ка подобру-поздорову к себе домой! И мы, пожалуй, поступим так же.

- Нет, профессор, мы должны идти дальше. Я, как автор, прекрасно сознаю всю ответственность этого шага, но мы не можем возвращаться домой, не узнав Ничейной земли. Вот ес.ли бы ваши знания дополнить нашим энтузиазмом... Вы не находите, что вместе мы представляли бы собой боевой коллектив? Конечно, мы не берем на себя смелость решать научные проблемы или опровергать Бриллюэна. У нас нет для этого достаточно глубоких знаний. Но у нас есть вопросы, на которые мы будем пытаться найти ответ. В Новом Городе мы не нашли ответов. А читатели требуют. Они хотят знать все. Их интересуют вопросы о том, как связаны информация и энергия, энтропия газа и энтропия словесного текста. Они хотят понять, почему информация может храниться и в живых клетках и в мертвых ячейках электронных машин. Здесь есть над чем подумать, профессор. Понятие «информация» родилось в технике. А по какому праву оно проникло в физиологию и психологию? Мы говорим: язык - это средство передачи информации. Язык связан с мыслью. А мысль - это отражение всего, что происходит вокруг. Везде информация. Где же границы этого понятия? Выходит, у него нет границ? Вот и скажите мне, дорогой профессор, разве могу я на полдороге бросить читателей, покинуть их среди всех этих неразрешенных сомнений, которые я сам в них поселил?

Профессор молчит. Вечереет. Сгущаются сумерки над необъятным простором Ничейной земли.

- Да, конечно, - задумчиво произносит ученый. - Ваши вопросы наводят на размышления. Я уважаю ваше желание во всем найти ясность, но одного желания слишком мало, чтобы пуститься в опасный путь по Ничейной земле.

- Разумеется, профессор! Поэтому мы так рады нашей случайной встрече. Идемте с нами, профессор! Пусть вы ошибетесь - вас поправят другие ученые. Но кто-то же должен идти в неизвестное?

Тем более что путь, указанный Бриллюэном, ведет от облака газа прямо к Ничейной земле.

Вот послушайте! Только что мы закончили путешествие в мир молекул. Мы старались «увидеть» там энтропию. В Новом Городе нам говорили, что энтропия - это неопределенность. А в облаке газа мы увидели, что ее порождает. Энтропия - это неопределенность движения, это хаос движущихся молекул. Вы согласны?

- Безусловно. Против этого трудно что-либо возразить.

- А информация? Разве она могла бы «жить» без движения? Что такое значок Р, - в знаменитой формуле Шеннона? Вероятность событий. А разве могли бы происходить события, если бы все разом остановилось? Откуда бы мы получали информацию, если бы луч телевизора не двигался по экрану, электроны не бежали по проводу, а движущаяся мембрана, заставляя колебаться окружающий воздух, не рождала звук?

- Но позвольте! - перебил профессор. - Вот передо мной лежит раскрытая книга. В ней нет никакого движения. А содержащаяся в ней информация составляет миллионы бит. Значит, может быть информация без движения?

- Вы ошибаетесь, профессор. Здесь есть движение. Для того чтобы получить эти биты, вы должны букву за буквой пробежать глазами весь текст. Разве могли бы вы прочесть в ней хотя бы одну фразу, если бы ваши глаза не скользили по строчкам текста, следя за движением чередующихся букв? Эта книга, вся от первой до последней строчки, рождена движением. Когда-то движением руки автора было впервые создано определенное чередование слов и букв. Движение рук машинистки превратило рукопись автора в печатные страницы. Движением наборщика были созданы оттиски, движением печатных станков из этих оттисков родились тысячи экземпляров книг.

Но еще раньше, чем автором книги была написана первая строчка, какие-то события, происходившие в окружающем его мире, уже будоражили его чувства и создавали движение мысли, которой спустя какое-то время суждено было с помощью кода (алфавита) превратиться в чередование букв. Вы чувствуете, профессор, как неразрывная цепь информации связывает всех, кто создавал эту книгу? Автор получал ее из разных источников или от людей, которые стали героями книги. Машинистка использует в работе информацию, данную автором; наборщик - информацию машинистки; мы с вами черпаем информацию из созданных ими книг. И всюду движение, движение, движение. Вы помните, у Гёте: «Мгновенье, ты прекрасно, остановись, постой!» Если бы прекрасное мгновенье и в самом деле «остановилось» и «постояло», принесло бы оно удовлетворение Фаусту? Как вы думаете, профессор?

- Гм... Очевидно, нет. Он и в самом деле не узнал бы ничего по сравнению с тем, что знал до него.

Модели движения

На Ничейную землю спустилась ночь. На черном бархате незнакомого неба мерцают звезды, и медленно выплывает из-за линии горизонта знакомая Луна. Но мы по-новому смотрим на нее и на звезды: мы думаем о движении, которым наполнен мир. Там, в непроглядной тьме мирового пространства, движутся миры и галактики, гигантские ядерные взрывы на звездах изрыгают в пространство клубы звездной материи и тепловые лучи. И так же, как на Земле, тепловая энергия стремится равномерно распространиться по просторам космического пространства, и так же, как на Земле, растет энтропия нагревающихся тел. Единым законам подчиняется это движение и в микроскопическом мире молекул и в огромных метагалактиках, образующих макромир. Мир словно связан одной невидимой нитью, но кто способен разглядеть эту нить?

Есть среди многих слов человеческой речи одно, быстрое и сверкающее, как взмах клинка, - «мысль». Слово это вместило в себя все остальные слова. И все, что выражается словами. И все, что можно понять без слов. Смысл его безграничен, потому что мысль - это тоже движение, но движение отраженное: в мысли, как в зеркале, отражается мир. Но зеркало отражает лишь то, что зримо. А мысль - все.

Кто видел, как движутся молекулы в облаке газа? Никто. Мысль Больцмана и Максвелла проникла в тайны незримого мира гораздо раньше, чем Свидберг увидел его в микроскоп. Микроскоп тоже рожден мыслью. Но и он не дает всей картины движения: в его поле зрения умещаются лишь маленькие фрагменты нескончаемой пляски молекул. Зато мысль позволяет увидеть все молекулы разом, найти в их хаотическом танце свои незыблемые законы и описать их кривыми Максвелла и блистательной по глубине мысли формулой:

S = - ∑ Pilog Pi.

Кто видел далекие от нас галактики или ту метагалактику, в состав которой входит наша малюсенькая планетка, где не только Земля, но и вся солнечная система занимает не больше места, чем пылинка, затерявшаяся среди каракумских песков?

Их не видел никто. Даже самый совершенный телескоп не позволяет охватить взглядом эту гигантскую систему. Но мысль может связать воедино ее звенья, установить законы ее движения, увидеть не только то, что происходит с ней в настоящее время, но и то, что должно произойти через миллиарды лет. Казалось бы, куда только не проникла человеческая мысль! И вдруг безжизненная равнина, где мысль еще только на ощупь прокладывает дороги, где лишь огонь костра и мы, затерянные среди необъятных просторов неизведанной Ничейной земли.

- Движение, - глядя на огонь, повторяет профессор. - Движение. Движение и информация. Гм... Любопытно!

Но позвольте! - вдруг гневно обращается он к нам. - Что же, собственно, вы собираетесь измерять с помощью единиц информации? Движение? А как же тогда быть с энергией? Ведь до сих пор она исправно несла свою службу и являлась отличной мерой движения для любых его форм!

Несколько секунд длится молчание. Мы не знаем, что ответить профессору. И тут его ученик еще раз пришел к нам на помощь.

- Да, конечно, энергия - это мера движения. Но ведь можно сказать и точнее. Ведь она выражает интенсивность движения. А информация характеризует что-то другое.

- Ну, довольно! - решительно поднялся с места профессор. - Слишком поздний час для решения столь грандиозных проблем.

...Тишина. Кажется, все уснули. И Ничейная земля замерла, не желая ни единым звуком наводить нас на след своих неразгаданных тайн. Может быть, поэтому как-то особенно громко прозвучал радостный возглас Быстрова:

- А, кажется, все-таки понял!

- Что вы там поняли? - бормочет сонный профессор.

- Я понял, что мы передаем по проводу и по эфиру, для чего мы печатаем книги и создаем сложные схемы электронных машин.

- Мне кажется, что человечеству это было ясно и до этой безумной ночи.

- Нет, профессор, уверяю вас! Мысль, которая только что у меня возникла, позволяет, мне кажется, как-то по-новому взглянуть на природу всех связанных с информацией явлений. Не знаю только, в какой последовательности начать излагать эту мысль... Впрочем, вот!

Быстров решительно подошел к рюкзаку и извлек из него какой-то компактный приборчик.

- Слушайте, - торжественно произнес он и нажал кнопку.

Раздался гром духового оркестра, исполнявшего бравурный марш. Быстров стоял рядом с магнитофоном, торжественный и сияющий.

- Нет, лучше вот это! - проговорил он, перебирая свертки магнитофонных лент. - Я захватил с собой несколько любимых романсов и арий. Вот этот, пожалуй, должен понравиться всем. Это голос Собинова. Слушайте...

Все-таки велика сила искусства! Несмотря на поздний час, необычайную обстановку и странное поведение Быстрова, мы затаили дыхание, охваченные невыразимой прелестью музыки Глинки и ароматом пушкинских слов:

...Я помню чудное мгновенье, 

Передо мной явилась ты...

Голос лился легко и свободно, и странно было слышать под небом этой пустыни жалобы на «тревоги шумной суеты». Как много связано с этим романсом и как все это сейчас далеко! Только здесь, в пустынном крае, по-настоящему оценишь силу прогресса, поймешь, что значит живой человеческий голос, привезенный в картонной коробке с другого края земли.

- Интересная судьба у этого романса, - задумчиво произносит Быстров. - Пушкин посвятил эти строки Анне Петровне Керн, а Глинка переложил их на музыку для дочери Анны Петровны. Может быть, поэтому слова и музыка так удивительно гармоничны? Между Глинкой, Пушкиным, Анной Петровной и ее дочерью, по всей видимости, существовало какое-то особое духовное родство...

- Да, вполне возможно, - неожиданно перебил профессор. - Но я все-таки хотел бы знать: с какой целью был организован этот ночной концерт? Вы не могли найти более удачного времени для ваших культурно-массовых мероприятий?

Быстров был явно смущен.

- Видите ли, профессор, я думаю, что вопрос о судьбе нашей экспедиции достаточно важен...

- Но при чем здесь все это? - профессор кивнул на магнитофон.

- Это? - Быстров растерянно посмотрел на нас, как бы ища сочувствия и поддержки. - Это просто один из примеров, подтверждающих мою мысль. Она осенила меня внезапно. Я лежал и думал о том, как с помощью информации регулируются самые различные виды движения: движение станков и летательных аппаратов, движение изображений на телевизионном экране, движение крови в живом организме, движение всех внутренних органов и движение тела во время ходьбы. И вдруг я понял, что несет в себе информация, бегущая по нервным тканям и по искусственным каналам связи. Модель движения - вот что передаем мы с пульта управления, посылая команды самолету или станку!

Быстров сделал паузу и вопросительно взглянул на профессора.

- Это, конечно, красиво сказано, - проговорил Староверов. - Вполне годится для какого-нибудь научно-фантастического романа. Но для научного подхода понятие «модели движения»...

- Вы хотите сказать, что оно не похоже на строгий научный термин? Ну и пусть! Пусть оно напоминает вам художественный образ из научно-фантастического романа! А разве не фантастические вещи совершает информация в каналах автоматов и электронных машин?

- Ну, хорошо, хорошо, - примирительно произнес профессор. - Пусть будет «модель движения», если этот термин вам пришелся по вкусу. В конце концов важен не сам термин, важно, какой в него вкладывается смысл. По правде сказать, я что-то не очень хорошо себе представляю, что это за модель. Модель самолета собирается из миниатюрных деталей. Из маленьких кирпичиков можно построить маленький домик - он будет служить моделью будущих зданий. А модель движения? Из чего она состоит? Из импульсов?

- Да, из импульсов. Если мы управляем станком с помощью двоичного кода, каждый импульс несет в себе один бит. Из битов, как из кирпичиков, строятся эти модели. Чем больше информации, тем сложнее модель, тем более разнообразны те операции, которыми она управляет. Вот смотрите.

Быстров раздул костер и расстелил на коленях чистый лист.

- Если мы управляем одним органом механизма, который перемещается только вверх или вниз, изменить его движение сможет один импульс, или один бит. Но вот нам захотелось двигать механизм в четырех направлениях: вправо, влево, вверх или вниз. «Модели движения» становятся сложными. Они состоят из двух импульсов, из которых можно составить четыре разные модели. Одна из них будет соответствовать движению вправо, другая - влево, две остальные - вверх или вниз. Например, так:

Модель движения

вправо

влево

вверх

вниз

00

11

10

01

Теперь предположим, что мы посылаем команды сразу трем органам автомата и хотим, чтобы в одно и то же время первый двигался влево, второй - вверх, а третий - вниз. Наша модель будет выглядеть так: 11 10 01.

Движение становится более сложным, модель - тоже: она состоит из шести «кирпичиков» и несет в себе количество информации, равное 6 битам.

Теперь допустим, что каждый из управляемых органов должен совершать более сложное движение, выбирая один из 16 вариантов. Изобразим это схематично:

Мы хотим, чтобы наша «модель движения» заставила какую-то часть механизма совершить путь из точки 0 в точку 10. Для этого мы четыре раза заставим его изменить направление, выбирать то левую, то правую ветвь нашей схемы по командам:

Право. Лево. Лево. Право. Или: 0 1 1 0.

Если одновременно с ним второй орган совершает путь из точки 0 в точку 6, то моделью движения этого органа будет последовательность импульсов:

1 0 1 0.

Одновременное движение двух органов автомата изображается моделью из восьми «кирпичиков» - 8 бит. Управление сложным движением многих органов потребует более сложных моделей: для трех органов потребуется 12 бит информации, а для 5 - 20 бит. Это уже немало. Представьте себе, что наша схема - это сложный железнодорожный узел. 20 «кирпичиков» информации своевременно переключат все нужные стрелки и обеспечат безопасность движения пяти поездов. То же происходит и в автомате. Чем больше подвижных частей в механизме, чем большим многообразием, гибкостью обладает каждый его исполнительный орган, тем сложнее взаимодействие органов, тем большее количество информации должна содержать в себе посылаемая модель. Но в любом случае роль информации останется одной и той же: модель из импульсов будет заключать в себе ту же последовательность движений, какую должны совершать различные элементы управляемого станка. Энергия импульсов ничтожна, но содержащаяся в них «модель движения» в точности повторяется органами автомата, обладающими иногда огромной энергией, превышающей энергию «модели» в сотни и тысячи раз. Слабое движение импульсов тока является копией мощного движения автомата или целого завода, подобно тому как маленький моторчик авиамодели - копия мотора, который двигает самолет. Если бы по специальным каналам связи автомату не подавались эти «модели», он совершал бы одну и ту же последовательность операций. Изменяя энергию, мы могли бы лишь ускорить или замедлить движение. Чтобы изменить характер движения, последовательность операций, необходимо передать информацию в виде «моделей движения», состоящих из различных команд. Значит, энергия определяе! интенсивность движения, а от информации зависит его порядок. Вы с этим согласны, профессор?

- Да, пример со станком является довольно наглядным. К сожалению, в других случаях дело обстоит гораздо сложнее...

- Нет, дорогой профессор! Уверяю вас, что во всех случаях происходит одно и то же. Возьмите живой организм. Капните на лапку лягушки кислотой - она ог'дергивает лапку. Вместо кислоты можно использовать горячий или острый предмет. Можно нагреть его до 100 или до 500 градусов - во всех'случаях движение будет одно и то же. Почему? Да потому, что «модель» этого движения хранится в нервных тканях лягушки и все полученные ею сигналы приводят в действие одну и ту же «модель». Пока команды нет - «модель» движения останется неподвижной.

- Значит, по-вашему, могут быть и «неподвижные модели движения»?

- Безусловно, профессор! Таких моделей существует сколько угодно! Это патефонные пластинки и книги, ленты магнитофонов и снятый на пленку кинокадр. Они хранят в себе разные виды движения, и только движением можно «возродить к жизни» любую модель. Достаточно включить мотор, и его равномерное движение превратится в сложное движение мембраны, воспринимаемое нами как движение звуков - музыка или речь. Или в движение героев фильма, благодаря которому оживает киноэкран. А равномерное движение глаза по строчкам текста возрождает массу событий, волновавших автора книги, повторяет движение его мыслей и приводит в движение вашу мысль. Да что далеко ходить за примерами - романс, который вы только что слышали, может служить прекрасной иллюстрацией моих утверждений. «В глуши, во мраке заточенья» родились мысли и чувства, воплотившиеся в пушкинский стих. События его жизни превратились в незабвенные строки, взволновавшие Глинку. Так родилась музыка. Исполнитель романса по-своему воспринял то, о чем говорили слова Пушкина и музыка Глинки, и вложил свое, сокровенное в исполненный им романс. И все эти чувства и мысли, рожденные разными событиями и пережитые разными людьми, воплотились в одной «модели движения», которую созданная нами техника оживляет в любой момент. Разве это не так?

И вот, казалось бы, совершенно иное явление - половая клетка. Что несет она вновь рожденному организму? «Модель развития». А что такое развитие? Опять-таки движение, только движение особого рода - это движение по восходящей линии, от простого к сложному. И если бы природа не позаботилась о том, чтобы все полезные свойства передавались потомству, разве могла бы развиваться на Земле жизнь? Разве могла бы развиваться наука, если бы информация, добытая многими поколениями ученых, не становилась достоянием наших знаний?

Нет, без информации мир вечно топтался бы на одном месте, а все формы движения слились бы в едином хаосе беспорядочно движущихся частиц!

Информация и энтропия

- Остановитесь же! - прервал Быстрова профессор. - Нельзя же, в самом деле, с такой легкостью перескакивать из одной области знаний в другую. Это попросту несерьезно. Вы, кажется, начали с автомата, а теперь уже философствуете о мире так, словно все, что в нем происходит, можно измерить количеством бит.

- Но ведь я же опираюсь на факты, профессор! Если сведения обо всех наследственных признаках заключены в половой клетке, значит сложность будущего организма и в самом деле определяется количеством бит. Почему вы не хотите признать очевидных вещей?

- Если бы все это было так очевидно, мы давно научились бы влиять на наследственность. Но если даже мы и узнаем, сколько бит содержится в клетке, то это еще вовсе не значит, что мы поняли наследственный код. Одно дело - количество сведений, а другое - их содержание. Так что напрасно вы превозносите биты - это всего лишь одна из многих возможных мер. И применять ее надо весьма осмотрительно. Поменьше фантазий, коллега! Планк был великим ученым, и все же он вначале сомневался в реальности квантов, которые сам же открыл.

- Зато Эйнштейн поверил в эту реальность и потому обнаружил фотон. Почему же мы не можем, вооружившись понятием «информации», по-новому взглянуть на природу многих явлений? И на весь окружающий мир?

- Вот-вот. В этом и есть коренная ошибка. Что значит «по-новому взглянуть на весь мир»? Я напомню вам слова Бриллюэна: «Означает ли это вторжение науки на территорию, принадлежавшую по традиции философии, или это открытие новой страны, своего рода Ничейной земли?» Значит, по-вашему, теория информации и в самом деле вторгается на территорию, принадлежащую диалектическому материализму?

- Ну что вы, профессор! Зачем говорить о вторжении? Разве новые взгляды противоречат тому, что открыл диалектический материализм? Напротив! Около ста лет назад он объединил понятием «движение» самые различные явления материального мира, начиная от перемещения тела в пространстве и кончая такими сложными понятиями, как органическая жизнь, человеческая история и мысль.

А информация? Ведь она является мерой движения и шагает по тем же ступеням: от физического тела к клетке, сложному организму, электронной машине и, наконец, разуму, познающему мир. Все, как требует научная мысль. Ведь эта мысль исследовала, как протекает движение от простого к сложному, гораздо раньше, чем мы научились оценивать это движение с помощью новых удивительных единиц!

Вы разрешите мне сделать маленький экскурс в историю? Я хочу, чтобы все члены отряда могли представить себе значение того шага, который нам предстоит совершить.

Несколько столетий назад научные открытия выдающихся ученых всего мира послужили основой развития физики. В переводе на русский язык слово «физика» означает «природоведение». В те далекие годы название «природоведение» отражало ее всеобъемлющую роль. С тех пор каждое десятилетие приносило все новые и новые открытия. Бывшие разделы физики выросли в самостоятельные области науки. Химия и астрономия, геология и биология - все эти отрасли, дополняя друг друга, выработали самостоятельные методы исследований и анализа явлений.

И вот спустя сотни лет понятие «информация» пролило новый свет на всю окружающую нас действительность, породнило, слило воедино различные отрасли современной науки, возродило на новой почве Большую Физику, законы которой распространились на все явления живой и неживой природы. За короткий срок понятие «информация» проделало сложный путь от простого обиходного слова до научного термина и, наконец, до всеобъемлющего объективного фактора, связывающего все формы движения в единую цепь.

Энтропия уже сослужила науке огромную службу.

Это понятие легло в основу термодинамики. С его помощью удалось глубже проникнуть в процессы, превращающие тепло в полезные виды энергии; оно помогло понять, каким образом пар превращается в жидкость, а жидкость - в твердое вещество.

Мы можем встретить значок энтропии в уравнениях, описывающих работу гальванического элемента, процессы поляризации, теплопроводности металлов и т. д.

Но с тех пор как на помощь ей пришло понятие информации, наука начала проникать в самые глубокие тайники природы, искать ответ, каким образом взаимодействием тех же видов энергии, тех же 205 частиц, атомов и молекул зарождается жизнь. Это величественная задача. Стоит лишь изучить «модель движения», разгадать код, существующий в клетке, и мы сможем создавать искусственные продукты питания из химических элементов и вводить в организм человека искусственную белковую ткань. Мы вдохнем жизнь в эти искусственные клетки и ткани, и они, подчиняясь нашей программе, смогут обновить дряхлое сердце и омолодить организм.

Наступает новая эра науки, и мы с вами стоим у ее порога.

- Ну хорошо, - нетерпеливо прервал профессор. - Я готов согласиться с вашей оценкой информации и ее роли, но для меня по-прежнему остается неясным, что же хотите вы измерять количеством бит? Сложность ваших моделей?

- Да, сложность моделей. Но одновременно надо помнить о том, что содержится в этих моделях. Они несут в себе порядок движения. Чем больше информация, тем больше порядка. Представьте себе вычислительную машину, которая может самостоятельно составлять текст. В памяти ее хранятся 32 буквы алфавита, и она выбирает их в совершенно случайном порядке: в любой момент может с одинаковой вероятностью появиться любая из букв. Как будет выглядеть «фраза», написанная такой машиной?

- Получится полная белиберда, - сказал профессор.

- Вроде вот этой? - спросил я и протянул профессору наш путевой дневник.

Быстров и профессор увидели странный, бессмысленный текст:

СУХЕРРОБЬДШ ЯЫХВЩИЮАИЖТЛФВНЗСТФОЕНВШТЦР...

- Прекрасно! - обрадовался Быстров. - Это как раз то, что нам нужно. Это пример самой большой неопределенности движения букв. Этот текст обладает самой большой энтропией. Для того чтобы упорядочить движение, надо дать машине дополнительную информацию. Например, можно заложить в нее такую программу, которая позволит учитывать вероятность появления каждой буквы в зависимости от трех предыдущих букв. Если бы мы могли заставить эту машину вновь написать какую-то фразу...

- Есть и такая фраза в нашем путевом дневнике, - произнес я, переворачивая страницу. - Вот она!

ВЕСЕЛ ВРАТЬСЯ НЕ СУХОМ И НЕПО И КОРКО.

- Очень хорошо, - отозвался Быстров. - Давайте сюда ваши записи. Почему эта фраза похожа на осмысленный текст? Потому что в движении букв появился определенный порядок, близкий к тому, который характерен для русского языка. Откуда взялся этот порядок?

Его создала информация, заложенная в машину.

На сколько уменьшилась энтропия текста?

Ровно на такое количество бит, какое заложено в нашу машину.

Можно ли учесть это формулой?

Можно. Энтропия текста подсчитывается по формуле Шеннона. Чтобы произвести расчет, надо подставить в формулу вероятность всех букв алфавита, то есть вместо Pi писать поочередно:

PА; PБ; PВ ... PЮ; PЯ.

В первой фразе вероятность всех букв одинакова:

PА = PБ = PВ = ... = PЮ = PЯ.

Когда шары, извлекаемые из ящика, обладают одинаковой вероятностью, опыт имеет наибольшую неопределенность. Но стоит лишь задать разным шарам разную вероятность, неопределенность становится меньше: можно предсказать до опыта, что чаще всего будет попадаться черный шар.

То же самсе происходит и с текстом. Пока вероятность всех букв оставалась одинаковой, текст был совершенно неопределенным. Но вот мы заложили в машину программу, то есть передали ей определенную «модель движения», и сразу в движении букв появился определенный порядок. Если теперь подставить в формулу различные величины

PА; PБ; PВ ... PЮ; PЯ

и подсчитать, какой энтропией обладает вторая фраза, легко убедимся, что она стала меньше. Ее уменьшила «модель движения», переданная машине. А что содержится в этой модели? Информация или иегэнтропия.

Чем больше сведений о законах чередования букв в осмысленном тексте заложено в нашу машину, тем больше будет походить на обычную фразу написанный ею текст. Если бы мы могли заложить в нее такое количество информации, какое хранится в мозгу, она, очевидно, могла бы на любой из наших вопросов давать вполне разумный ответ...

- Вы, кажется, увлеклись, Быстров, - нахмурил брови профессор. - Терпеть не могу, когда серьезные рассуждения переплетаются с вымыслами фантазера!

- Ну хорошо. Я буду говорить о более очевидных вещах. Давайте рассмотрим какое-нибудь физическое тело, например находящийся в равновесии газ. Молекулы скачут во всех направлениях. Сколько бы мы ни следили за одной из молекул, мы никогда не смогли бы предвидеть, где окажется она в следующее мгновенье: движение в любом направлении имеет равную вероятность. Но ведь есть и другие физические тела. Например, кристалл. В нем тоже существует непрерывное движение молекул. Но в этом движении сохраняется более строгий порядок: молекулы образуют так называемую «кристаллическую решетку», потому что между ними существует взаимодействие, они связаны друг с другом силовыми полями. Способна ли наша формула оценить этот порядок? Несомненно!

В решетке кристалла есть направления, имеющие наибольшую вероятность: там, где расположены так называемые узлы. А между узлами есть «пустое» пространство: в него не попадают движущиеся молекулы, здесь вероятность их пребывания близка нулю. Если бы мы могли подсчитать значения вероятности для всех областей решетки и подставить их в формулу S = - ∑ Pilog Pi, мы убедились бы, что энтропия уменьшилась оттого, что газ превратился в кристалл. Почему уменьшилась? Да потому, что кристалл хранит в себе информацию - в его движении есть строгий порядок. Именно он и учитывается формулой S = - ∑ Pilog Pi. Ведь ей все равно, какое движеиие подразумевается под значком вероятностей. И для движения букв на страницах книги и для движения молекул в физическом теле она покажет одно и то же: неопределенность движения тем меньше, чем сильнее отличаются друг от друга значения разных Pi. А там, где уменьшается неопределенность движения, появляется какой-то порядок: среди общего хаоса движущихся молекул возникают траектории, имеющие большую вероятность. У такого тела есть своя «география»: широкие дороги и узенькие тропинки, главные трассы и вспомогательные пути.

Водяной пар можно превратить путем охлаждения в воду, а затем в кристаллики льда. Что будет происходить с молекулами этой системы? Они прекратят танец, что был в облаке пара, и начнут двигаться в том порядке, который существует в кристаллике льда. Значит, наше тело, перешедшее из газообразного состояния в твердое, приобрело ту информацию, которой обладает каждый кристалл.

- Но позвольте! - воскликнул профессор. - На каком основании вы называете это информацией?

Ведь никто же не следит за тем, что происходит в этом физическом теле, никто не получает сведений о том, что происходит с его частицами. Значит, нет никакой информации и незачем припутывать к этим процессам модные понятия и слова.

- Тогда разрешите задать вам такой вопрос: а кто следит за тем, как бежит информация по цепям электронной машины? Тоже никто. Но ведь информация существует и в каналах связи’ и в ячейках «памяти»! Каналы же и ячейки строятся из полупроводниковых приборов, основой которых является все тот же кристалл. Значит, кристаллы все-таки могут не только хранить информацию, но и передавать ее друг другу. А нас, людей, это, кажется, задевает, профессор? Нам хотелось бы думать, что информация- - это нечто послушное нашей воле, что только нашим желанием направляется она по различным каналам, что только наше сознание или созданная им искусственная память способны хранить в себе «модели движения», ту информацию, которую дает окружающий мир?

Но оглянитесь вокруг, профессор! Разве информацией, которую несет в себе любая живая клетка, природа не распорядилась без нас? Разве созданные нами машины не передают ее друг другу? А что происходит при этом в их каналах? Опять изменение порядка движения. С приходом каждого импульса электронные потоки меняют направление, они текут лишь через цепочки, в которых есть открытые лампы или замкнуты контакты реле. Чем больше информации хранится в искусственной памяти, тем более сложной становится «модель движения» этих потоков. Так почему же вы не хотите согласиться с тем, что в сложном движении молекул кристалла можно (хотя бы в принципе) оценить вероятность всех направлений и, подставив их в ту же формулу, определить, сколько бит информации сохраняет кристалл?

Поймите самое главное: в любом техническом устройстве информация связана с движением точно так же, как в газе или в кристалле. Наибольшая энтропия - это наибольшая неопределенность движения.

Представьте себе обладающий самой большой энтропией телевизионный сигнал. Как он выглядит на экране? Как нескончаемый снежный буран. Потому что любая яркость луча от черного до белого свечения имеет в любой точке экрана равную вероятность. Но вот мы передали «модель движения», и движение электронов в луче приобрело строгий порядок. Этот порядок передался изображению - и на экране, где только что бушевала снежная буря, появились живые люди, «модель» возродила движение, происходящее на телестудии или на сцене театра, превратив его в движение электронов, падающих на экран. Система получила информацию и уменьшила энтропию.

То же самое происходит со звуком. Звук с максимальной энтропией - это ровный, несмолкающий шум. Звук человеческой речи - это колебания воздуха, изменяющиеся в определенном порядке. Этот порядок передается «моделям» движения, летящим к приемнику с любых расстояний. С получением информации электроны в цепях приемника приобретают нужный порядок движения. Он передается мембране динамика, мембрана заставляет двигаться воздух, сохраняя тот же порядок - музыку или речь.

А в сосуде с газом? Пока газ находится в равновесии, молекулы движутся как попало. Если бы мы могли наблюдать их движение, оно показалось бы нам подобием снежного вихря; если бы мы могли слышать удары молекул о стенку сосуда, мы восприняли бы их как несмолкаемый шум. Но вот газ получил информацию - внешняя энергия увеличила давление в одной части сосуда. И сразу внутри сосуда возник упорядоченный поток молекул: они устремились в ту часть сосуда, где остался разреженный газ. Конечно, в таком движении еще слишком несложный порядок - разве сравнишь его с движением электронов, несущих на экран телевизора целый спектакль? Но все же это направленное движение, и оно также зависит от информации: первый же сигнал, полученный газом, создал этот порядок.

А когда охлажденный газ превратится в массу кристаллов, порядка станет гораздо больше. Если бы вы могли наблюдать движение в решетке кристалла, вы тоже увидели бы своеобразный «спектакль». Подставьте в формулу энтропии вероятность различных перемещений молекул газа и кристалла, и вы убедитесь все в той же неизменной закономерности: пока вероятности всех направлений были одинаковы, была неопределенность движения, была велика энтропия. Но вот газ превратился в кристалл, вероятности стали различны, появился порядок движения, появилась негэнтропия.

Так почему же вы не хотите поверить, что именно информацию сохраняет своим движением самый обычный кристалл?

Ключ н азбуке мира

Всю неделю в отряде царит разброд. Никто не знает, куда идти дальше. Мы ждем решений профессора, а его, очевидно, мало волнуют наши заботы: он целиком погружен в себя. С ним творится что-то неладное. День за днем угрюмо бродит он в окрестностях нашей палатки, а с вечера и до рассвета сидит на ящике из-под консервов, читает какие-то книги, делает записи и расчеты при тусклом свете походного фонаря. На наши вопросы отвечает сухо и односложно, не скрывая, что они его раздражают.

Только в конце недели профессор заговорил.

Это произошло ранним утром, когда первый луч солнца, заглянув в нашу палатку, потревожил сои. Профессор сидел, как обычно, в углу палатки и чтото поспешно записывал в свой походный блокнот Затем он встал, отложил записи в сторону, и мы услышали первую связную фразу, произнесенную им за последние дни:

- Я проверил ваши предположения. - Очевидно, эти слова относились к Быстрову. - Действительно, получается так, что информация присутствует всюду.

- Ну конечно, профессор! - радостно отозвался Быстров. - Она существует там, где происходит движение, а движение происходит везде.

- Забавляетесь афоризмами? - криво улыбнулся профессор. - А я тут долго размышлял над одним вопросом. Мы всегда получали информацию из внешнего мира. Но при этом почему-то были твердо уверены в том, что она наша «частная собственность» и может существовать либо в прессе и в устной речи, либо в каналах связи созданных нами устройств. А тот факт, что она объективно существует в природе, мы почему-то упорно не хотели признать. А она существует... И знаете, что меня в этом убедило? Простой опыт, который я любил проделывать еще в школьные годы. Но сегодня я вдруг взглянул на него по-новому. Оказывается, ваши «модели движения» передаются не только по специальным каналам связи. Те же «модели» способен передать молекулам жидкости самый обыкновенный кристалл. Ну кто мог это подумать!

Профессор выдержал паузу, как бы оценивая, какое впечатление произвели на слушателей эти слова. Затем порылся в ящике и вынул оттуда какую-то склянку, наполовину наполненную водой.

- Вот! - торжественно произнес он. - Вы можете сами убедиться в этом.

Мы поочередно подержали в руках эту склянку, но никто из нас не увидел в ней никаких «моделей». В ней была самая обыкновенная вода.

- Этот простой опыт всем вам хорошо известен, - продолжал между тем профессор. - В воде растворена поваренная соль. Теперь я беру один кристаллик соли и... погружаю в раствор. Смотрите внимательно. Я медленно тяну этот кристаллик пинцетом. Терпение, друзья мои, терпение. Сейчас у вас на глазах произойдет самое обычное чудо. Обычное - потому что в тысячах книг по физике написано о том, что раствор кристаллизуется там, где в него погружен кристалл. И все же это истинное чудо, потому что мы видим, как рукой невидимого ваятеля по образу и подобию одного кристалла лепится другой, точно такой же. Разве это не так? Вы смотрите: молекулы жидкости, находящиеся вблизи от кристалла, прекращают свою бессмысленную толкотню, выстраиваются в очередь и, повинуясь волшебной палочке дирижера, кружатся в причудливом хороводе. «Моделью» их танца служит все тот же кристалл. Смотрите, они выстраиваются в шеренги, в каждой ровно по девять штук, и каждая девятка в точности повторяет движение остальных -танцовщиц. Ну разве это не чудо?

Мы смотрим на склянку, и танец, о котором рассказывает профессор, совершается у нас на глазах. Мы, конечно, не видим молекул, но мы видим, как рядом с погруженным в раствор кристаллом рождается один, другой, третий. Они похожи друг на друга, как братья, их плоские грани в точности повторяют друг друга. Они лишь кажутся неподвижными: мы знаем, что каждый из них, словно из сотов, соткан из миллионов клеток решетки, а в углах каждой из клеток невидимые молекулы водят свой удивительный хоровод. И каждый вновь рожденный кристалл повторяет движения прежней «модели» и вновь посылает «модель» молекулам жидкости для того, чтобы в их беспокойном брожении тоже возник строгий порядок, повторяющий ту же «модель».

- Вы видите это движение? - обращается к нам профессор. - Кристалл передает информацию, кристалл рождает новый кристалл!

Профессора невозможно узнать. Где его строгость, солидность и скепсис? Он так увлечен своими идеями, что похож теперь на мальчишку, которому впервые в жизни позволили потрогать руками руль настоящей автомашины, нажать на педали и дать громкий гудок.

Но как же все-таки понимать его опыты? Каким образом удается кристаллу передать информацию окружающим его молекулам раствора? Ведь не может же он, в самом деле, «рассказать» молекулам жидкости, какой порядок они должны соблюдать! Или он «вдохновляет» их «личным» примером? Или силой наводит этот порядок, «собственноручно» устанавливает каждую молекулу на нужное место, не «бросая слов на ветер», действует «засучив рукава»?

- Да, кристалл действительно действует силой, - поясняет профессор. - Между молекулами его решетки и молекулами жидкости существует взаимодействие. 1

В древности Демокрит объяснял взаимодействие между частицами наличием особых зазубринок и крючков. И долгое время это объяснение оставалось единственным. Даже знаменитый Бойль, открывший одновременно с Мариоттом основной закон газа, строил свои гипотезы на тех же зазубринах и крючках. Но позднее, после установления закона Бойля - Мариотта, нашлось иное объяснение этих взаимодействий. Частицы материи притягиваются друг к другу подобно маленьким магнитам, потому что так же, как магниты, они находятся в окружении силовых полей. Эти поля и заставляют молекулы жидкости соблюдать определенный «строй». Как видите, чуда здесь нет, и все же это огромное чудо: кристалл взаимодействует с другим кристаллом, и между ними происходит обмен информацией, словно они живые, разумные существа!

А я-то, старый упрямец, столько лет прожил в убеждении, что информация живет только в нашем сознании, в газетах и в книгах! Боже мой, как я глубоко заблуждался! Человек, его разум, его теории и каналы передачи, книги и электронные машины - это же звенья единой цепи накопления информации, единого процесса развития, которому подчинен весь наш мир! Как-то странно получилось в науке... Почему человек долго не замечал информации в клетке или в кристалле, а чтобы ухватиться за одно звено этой бесконечной цепочки, ему пришлось создать целую плеяду хитроумных электронных машин? Может показаться, что он обнаружил ее случайно.

Но нет, здесь нет никакой случайности. Это сама информация, накопленная веками поисков и открытий, воплотилась в радио и телеграфе, породила вычислительные машины и этим выдала себя «с головой». А раз уж выдала - значит, нам надо идти до самых ее истоков... Когда начался непрерывный процесс ее накопления? У него нет начала...

И сейчас наблюдают астрономы, как гигантские облака космической пыли образуют скопления звездной материи; как под действием сил притяжения они становятся все плотнее, пока распыленные в них частицы не окажутся так близко друг к другу, что между ними возникает взаимодействие ядерных сил. Тогда гигантские ядерные взрывы рождают в космосе новые звезды, которые становятся солнцами новых миров. И все процессы этой гигантской лаборатории подчиняются нашим земным законам: когда в облаке космической пыли возникает определенный порядок движения, оно накапливает информацию, отдавая энтропию вселенной вместе с излучаемым в пространство теплом.

Когда-то в таком же гигантском процессе возникла наша Земля. И дальше все по тем же законам: из простых форм движения рождались более сложные, молекулы связывались в кристаллы, и новая информация рождала новый кристалл.

Мы и сейчас можем наблюдать течение этих процессов. Только что мы видели, как возникают кристаллы. Химия знает немало примеров, когда сложные молекулы образуются в результате взаимодействия молекул простых веществ. Физика изучает процессы поляризации: под воздействием электромагнитного поля молекулы диэлектрика приобретают новый порядок движения, и за счет этого в нем накапливается заряд. Казалось бы, совершенно непохожие друг на друга процессы. Но нет, в них есть одно общее свойство: накопление информации рождает порядок движения частиц, образующих кристаллы, молекулы или поляризованный диэлектрик. И всегда процесс накопления информации неразрывно связан с противоположным процессом: в окружающей среде увеличивается энтропия, так как во всех перечисленных случаях за полученную информацию взаимодействующие системы «расплачиваются» выделяемым ими теплом.

Благодаря непрерывному накоплению информации происходило развитие нашей планеты. На какомто этапе развития сложные гирлянды атомов породили первые сложные полимеры, затем белки и, наконец, первые клетки - основу всего живого, чем богата наша Земля. И на всех этапах этого движения к совершенству кристалл передавал информацию другому кристаллу, из клетки рождалась новая клетка. А дальше - информация, сохраняемая в нервных тканях сложного организма, появление человека с его разумом, его трудом, его знаниями - в общем та информация, с помощью которой он на наших глазах преобразует весь мир. Так кто же, по-вашему, породил информацию: люди, знания или машины?

Ни то, ни другое, ни третье. Информация существует вечно; так же как и движение, благодаря которому развивается мир.

- Вот видите, профессор, - улыбнулся Быстров. - А вы не хотели идти на Ничейную землю! Я смотрю, вас уже просто невозможно остановить!

- Да, уважаемый! Я хочу идти дальше. И прошу не играть на моем самолюбии! Ошибается всякий; важно уметь признавать ошибки, чтобы они не мешали идти вперед. Я недооценивал информации. Мне казалось, что это домысел, просто «притянутый за уши» термин. А теперь понял, что всюду одно и то же. Мир - эго гигантская система, состоящая из множества разных систем. В любой из них есть элементы. Земля входит в солнечную систему. Элементом живой природы является организм. Элементом организма - живая клетка. Элементы клетки - молекулы. И сама молекула - это обладающая безграничной информацией система. И всюду одно и то же: если система хранит информацию, значит в движении ее элементов есть направленность и порядок. Взаимодействуя друг с другом, системы способны передавать информацию, как только что у нас на глазах проделал это кристалл. Ну кто мог об этом подумать?

- Вы считаете, что мы с вами сделали открытие? Я разочарую вас, профессор. Это было известно еще полвека тому назад.

- Но позвольте, тогда еще не умели измерять информацию!

- Зато знали законы природы. И знали, что все существующие в ней системы способны так или иначе отражать в себе воздействие других систем. Великий Ленин - вот кто впервые сказал об этой способности. Вы помните его «теорию отражения»?

- Да, разумеется. Ленин действительно говорил о том, что всем формам материи присуща способность отражения внешних условий. В более сложных формах материи она становится «способностью ощущений». Да, да, вы правы: указанное Лениным свойство материи - свойство отражения - может быть связано с понятием информации. И напрасно вы думаете, что это должно меня огорчить и расстроить. Напротив, это же так прекрасно - видеть, как по путям, предначертанным Лениным, идет современная научная мысль. Отражения, о которых говорил Ленин, мы научились оценивать количеством бит. А его идеи помогают понять смысл того, что мы измеряем. Вы чувствуете, какая здесь глубокая связь! Вы посмотрите: Ленин говорил, что это свойство присуще всем формам материи. Только что мы видели, как передают информацию клетки или кристаллы. А молекулы и электроны? А те частицы, которые изучает современная физика? Значит, и они могут посылать друг другу сигналы, передавать сообщения, имеющие свой, еще не разгаданный код! Чему вы, собственно, улыбаетесь? - обиделся вдруг профессор. - Я ведь вовсе не собираюсь с вами шутить.

- Нет, нет, профессор, - успокоил его Быстров. - Меня очень увлекают ваши идеи. А улыбаюсь я потому, что мне вдруг пришла в голову очень забавная мысль. Будто какой-то физик, изучавший передачу информации при взаимодействии элементарных частиц материи, написал такой отчет о своих наблюдениях.

«Ну, что у вас новенького?» - на ходу спросило Нейтрино, пролетая мимо Протона.

«Новостей сколько угодно! - -степенно отвечал Протон. - Всего несколько секунд назад я видел, как рядом со мной столкнулись два Нуклона и появился малюсенький Пи-мезон».

- Изволите шутить? - угрюмо произнес профессор. - А сознаете ли вы, что ваша шутка имеет очень глубокий смысл? В вашем примере встретились два нуклона. А теперь представьте себе, что где-то состоялась встреча двух представителей различных торговых фирм. Вы скажете, в этих событиях нет ничего общего? Да, действительно, мир элементарных частиц не похож на наш человеческий мир. Но информация - она все-таки всюду едина. В ней - «модели движения». Они могут быть закодированы буквами и словами, а могут передаваться взаимодействием силовых полей.

Представители фирм обменялись информацией, и возник новый торговый договор, появилась иная форма движения - новый товарообмен.

Столкнулись нуклоны, обменялись энергией и информацией - и вот появилась новая частица со своим законом движения - малюсенький пи-мезон. И не случайно одни и те же взаимодействия рождают одни и те же частицы: каждый раз при встрече нуклонов возникает одна и та же модель. Когда-нибудь мы научимся так же хорошо читать коды этих моделей, как читаем сейчас в газете сообщение о договоре торговых фирм...

- Кажется, вы ударились в область фантастики, дорогой профессор! Разве не вы учили меня избегать ее, когда речь идет о научных фактах?

- С вами невозможно разговаривать! - вдруг не на шутку рассердился профессор. - Вы просто не хотите понять, что речь идет о вполне серьезных вещах! Я же не виноват в том, что информация не знает ни границ, ни пределов, что она так же хорошо чувствует себя на страницах газеты, как и в силовых полях мельчайших частиц! Ведь факт остается фактом: частицы способны передавать друг другу не только энергию, но и информацию, не только интенсивность движения, но и его характер!

Энергия и энтропия... Они всегда рядом, эти два фундаментальных понятия, помогающих уяснить всю «механику» мира, от гигантских метагалактик до мельчайших частиц. От них зависит ход любого процесса. И история у них общая. Они родились в середине прошлого века в связи с появлением тепловых машин.

Так происходит всегда: техника ставит задачи науке. Прошло 100 лет, и опять повторилось то же: техника дала науке новый толчок. С рождением электронной машины наука еще интенсивнее занялась энтропией. Вам не кажется, что в ходе этих событий есть определенная закономерность? Будто кто-то заранее дал всему человечеству четкий, продуманный план...

- Вас это удивляет? - улыбнулся Быстров. - В этом есть очень простая логика. Это этапы завоеваний. Паровая машина была первой технической революцией: человек стал управлять огромной энергией, получая ее из тепла. Электронная машина - это новая революция. На этот раз целью была информация. В прошлом веке были созданы тепловые машины, с помощью которых человек преобразил весь мир. Вместо убогих и медлительных дилижансов во все концы земли помчались стремительные экспрессы, движимые паром и электричеством механизмы заменили труд грузчика и землекопа, легкие _ _ парусные суденышки уступили место трансатлантическим кораблям. Энергия стала подвластна людям, и жизнь на земном шаре приобрела совеем иной облик и ритм. Но человек не остановился на этом. Чтобы стать всесильным владыкой мира, он создал электронные машины и автоматы. С их помощью он подчиняет себе энтропию.

О существовании энтропии люди узнали впервые около ста лет назад, но до последнего времени наука не могла до конца уяснить всех ее свойств. Энергия, если можно так выразиться, родилась уже «зрелой». Люди давно ощущали, что силы природы имеют внутреннее единство, и не хватало только количественной меры, позволяющей точно сформулировать этот закон. А энтропия долгое время жила в «колыбели». Никто не тревожил «младенца», и потому его «нравы» оставались загадкой в течение многих десятков лет. Больцман и его последователи дали первый толчок науке. Но разве они исчерпали всю глубину энтропийных процессов? Если бы было так, мы с вами не оказались бы спустя столько десятилетий на просторах Ничейной земли. А отсюда путь все дальше и дальше... Я уже вижу контуры новой цели: теории тепловой смерти мира. Что, если именно по этой дороге повести теперь наш отряд?

Религия на «научной базе»

Я чувствую, что читателю не терпится сразу задать вопрос. «Теория смерти» - это звучит не оченьто привлекательно. А если добавить к тому же, что согласно этой теории смерть неизбежна, и не только для каждого отдельно взятого индивидуума, а для Земли, солнечной системы и всей нашей вселенной, то в общем-то перспектива выглядит мрачно. Однако не спешите впадать в уныние. Давайте сначала уясним, что это за теория и в чем ее суть.

Прежде всего, почему смерть названа «тепловой»? Что это - смерть от тепла? Нет, не в этом дело. Теория утверждает, что раньше или позже на всех мирах должно воцариться оцепенение. А куда же денется та энергия, которая согревает нашу планету? Ведь энергия не исчезает? Совершенно верно. Но она может «растекаться» по широким просторам вселенной. То тепло, которое достается сейчас одной нашей планете, может равномерно рассеяться на огромных пространствах. Тогда все температуры и давления выровняются и процессы прекратятся.

Значит, «конец света»?

Да, нечто подобное. Но «конец света» никем не был доказан, разве что библией, в которую многие уже перестали верить. А тут вдруг появилась «научная база», позволяющая утверждать, что это неизбежный конец. И на первых порах все казалось очень логичным. Тепловая машина может делать полезное дело за счет отбираемого у топки тепла. Что значит «отобрать тепло»? Как его «отобрать»? Крючком его не подцепишь, ковшом не зачерпнешь. Есть один только способ - контакт с нагретым телом. Мы уже знаем: до тех пор, пока в системе есть разность температур, энтропия будет расти. Тепло не надо «цеплять» или «загребать» - оно само течет от более нагретого к менее нагретому телу. Часть его можно направить в специальный цилиндр, где оно станет разогревать газ, который будет толкать поршень. Затем газ охлаждается, и поршень движется в обратном направлении. Туда-сюда, туда-сюда, и за счет такого движения паровоз 'мчится по рельсам, по водной глади плывет пароход.

Так будет до тех пор, пока источник тепла и холодильник машины сохраняют разность температур. Но вот беда: во всех процессах тепло течет от нагретых тел к телам холодным. Этого требует энтропия: она должна расти до тех пор, пока существует разность температур. Значит, в масштабах вселенной энтропия будет расти, пока есть просторы холодного космоса и раскаленные звезды, излучающие тепло. А когда энтропия достигнет предела, в мире не будет холодных или горячих тел.. Температура станет всюду одной и той же. Негде будй- «черпать» тепло холодильнику, нельзя будет заставить двигаться тепловую машину, корабль и паровоз. Прекратятся потоки солнечных излучений, погаснут на небе яркие звезды - всюду тишина, мрак и покой. Вселенная станет огромным безжизненным трупом.

Такие неутешительные выводы породил открытый Клаузиусом закон возрастания энтропии.

Неужели смерть действительно так неизбежна? Почему же этого до сих пор не случилось? Почему у нас на Земле жизнь не прекращается и не замирает, несмотря на то, что тепло непрерывно течет от горячих к холодным телам? Очевидно, потому, что Земля согревается Солнцем. А когда Солнце погаснет?

Если верить теории, это должно когда-нибудь наступить. Может быть, это будет не скоро? Может быть, к тому времени человек сможет улететь в другие миры?

А куда лететь? Всюду растет энтропия. Всюду неминуема смерть. Грустно, не правда ли?

А кое-кого это даже радует. Например, римского папу. Еще бы, ведь начиная со времен Коперника и Галилея наука шаг за шагом подрывала основы «божественного» мироздания, утверждая закон всемирного тяготения там, где религия обходилась с помощью трех слонов. И вдруг совершенно неожиданно теория «тепловой смерти» подарила служителям церкви прекрасный козырь. Ведь эта теория подтвердила «мудрость» священного писания, давно предрекавшего «конец света» и утверждавшего его «начало» - то есть создание мира силой и волею всемогущ щего божества.

В 1951 году в Ватикане состоялось торжественное заседание папской «Академии наук» с повесткой дня, которая у человека, свободного от предрассудков, должна вызвать улыбку. Она называлась так: «Доказательства существования бога в свете данных современной науки».

Какие же «научные аргументы» привлекли служители церкви в подтверждение своих антинаучных идей? В первую очередь теорию «тепловой смерти».

Папа Пий XII объявил громогласно, что открытый Клаузиусом закон возрастания энтропии «свидетельствует о существовании Верховного Существа».

В самом деле, если всюду растет энтропия и мир неуклонно стремится к хаосу, то как же могла без помощи бога возникнуть наша Земля? А с богом все ясно: он сам «издает» законы и сам может их отменять. Так, отменив однажды всего на одну неделю закон возрастания энтропии, бог сотворил из хаоса сначала землю и небо, затем растения, тварей и, наконец, людей.

Таковы аргументы римского папы.

Ну ладно, папа есть папа. Для него хороша любая теория, лишь бы она помогала сохранить могуществе церкви среди тех, кем до сих пор владеет религиозный дурман. Но почему Норберт Винер вторит римскому папе? Норберт Винер, основоположник кибернетики, человек, впервые громко сказавший об информации, существующей и в цепях автоматов и в тканях живых существ. Откуда у него эти мрачные мысли:

«Мы в самом прямом смысле являемся терпящими кораблекрушение пассажирами на обреченной планете. Все же даже во время кораблекрушения человеческая порядочность и человеческие ценности не обязательно исчезают, и мы должны создать их как можно больше. Мы пойдем ко дну, однако в минуту гибели мы должны сохранять чувство собственного достоинства».

Надо думать, что история отнесет к числу забавнейших парадоксов этот курьезный факт: папа римский придает анафеме провозглашенную Винером кибернетику, а Норберт Винер пропагандирует «тепловую смерть» мира, которая так импонирует римскому папе.

Винер уверовал в неизбежность «тепловой смерти». Вселенная Винера подчиняется закону «большой энтропии», она неуклонно стремится к хаосу, среди которого существуют лишь небольшие, случайно возникшие и обреченные на неминуемую гибель «местные и временные островки» антиэнтропийных пронессов, к числу которых относятся неуклонно развивающаяся природа, все достижения прогресса и сама жизнь. Все это, по мнению Винера, лишь «видимость всеобщей целеустремленности», а «счастливому случаю, который обеспечивает продолжение жизни... придет полный и ужасный конец».

Так считает Винер, обнаруживший новые' черты сходства автоматов и живых организмов, научивший нас еще глубже понять единство и гармонию мира. Почему же он утверждает, что эта гармония временна и случайна? Зачем уверяет нас в том, что информация, породившая клетку и сложные организмы, разум, знания и автоматы, должна вдруг бесследно исчезнуть из нашего мира, уступив место всепобеждающей энтропии? Разве нет в мире движения, сохраняющего строгий порядок? Разве не сохраняют порядка частицы материи, попадающие в электрические, магнитные и ядерные поля? Разве гравитационные и ядерные силы не превращают распыленные в космосе частицы материи в новые яркие звезды? Стоит лишь осмотреться, и мы увидим, как в непрерывном движении мира возникает все новый и новый порядок, как накапливается негэнтропия. Знание открытых диалектикой законов помогает уяснить всю глубину понятий информации и негэнтропии, единство всех связанных с ними видов движения: от процессов теплообмена до обмена знаниями, мышления и законов, которым подчиняется наш, человеческий мир.

Если бы Винер изучил диалектику, он не был бы единомышленником римского папы. Энгельс не знал информации. Но он знал диалектику, поэтому сразу отверг теорию «тепловой смерти». Он говорил о том, что в своих превращениях материя сохраняет свои главные свойства, что «ни один из ее атрибутов никогда не может быть утрачен, и потому с той же самой железной необходимостью, с какой она когда-нибудь истребит на земле свой высший цвет - мыслящий дух, она должна будет его снова породить где-нибудь в другом месте и в другое время».

Ну, а как же все-таки быть с законами термодинамики? Ведь нельзя же отрицать того факта, что тепловая энергия распределяется равномерно. Но энтропия-то при этом и в самом деле растет!

Да, тепловая энергия действительно обладает этими свойствами. Но, помимо тепла, в мире есть и другие виды энергии. Мы изучаем природу сил гравитации, свойства ядерных и электромагнитных полей. Мы исследуем их волновые свойства, то есть тот порядок движения, который существует в этих полях. Значит, эти поля несут в себе информацию. Источник ее нужно искать там, где хаотичное тепловое движение превращается в упорядоченное электромагнитное поле, которое несет энергию в окружающее пространство.

Такова «механика мира»: стоит лишь создать разность температур в любом физическом теле, и в нем сразу возникает негэнтропия, потому что вероятность движения от высокой к низкой температуре будет больше, чем вероятность всех остальных направлений. Значит, в этом процессе есть определенный порядок движения, в нем участвует информация, благодаря которой хаотичное тепловое движение может превращаться в упорядоченное движение электромагнитного поля.

Между прочим, именно эти процессы в свое время заставили Планка ввести те самые знаменитые кванты, на базе которых родилась эйнштейновская теория света и вся современная квантовая механика. Следы информации вновь ведут к этим процессам. Быть может, в недалеком будущем, изучив структуру «частицы света» - фотона и мельчайших частиц вещества, наука сможет точно измерить, сколько в кванте содержится бит.

Гравитационное поле тоже несет в себе информацию. Под действием этого поля распыленные в космосе частицы материи, притягиваясь друг другом, образуют плотные сгустки. Значит, информация, которую несет в себе гравитационное поле, уменьшает энтропию вселенной: в хаотичном движении распыленных частиц материи рождается новый порядок. Затем вступают в действие ядерные поля. Это происходит тогда, когда под действием сил гравитации частицы «слипнутся» в плотную массу, потому что ядерные силы относятся к категории близкодействующих сил. И опять возникает новый порядок движения: гигантские ядерные взрывы рождают братьев нашего Солнца, вокруг которых начинают кружиться сестры наших планет. Так информация, сохраняемая гравитационным и ядерным полем, порождает «модели движения» целых миров.

Сложна и многообразна «механика» нашего мира.

В нем есть упорядоченные системы, отличающиеся и сложностью и размером: элементарные частицы, атомы и молекулы, живые организмы и физические тела, наконец, планеты, звезды и целые галактики - необозримый и неизведанный гигантский движущийся мир. Во всех этих системах различные виды энергии взаимодействуют и переходят друг в друга. В единой связи этих процессов накапливается информация, рождаются новые космические тела и скопления, протекают физические явления, развивается живая природа. В этом непрерывном движении существует и развивается мир.

Разве можно не видеть в многообразии материальных явлений одно и то же удивительнейшее свойство материи: неуклонное стремление создавать более сложные формы движения из простых и наглядных форм?

Из простых молекул возникают более сложные, примитивные формы жизни превращаются в совершеннейшие организмы, а человек, начав с колеса и каменных наконечников, уже пришел к атомной энергии и сложным комплексам «умных» машин.

В этом едином порыве к гармонии и совершенству мир накапливает информацию, потому что именно информация является мерой того порядка, который существует во всех формах движения, известных современной науке. Этот процесс может идти и с уча- „29 стием разума и без его помощи, потому что информацию можно встретить не только в газетах и в автоматах, но и в кристаллах, и в клетках, и в сложном движении электрических и магнитных полей.

Великие мыслители уже давно уловили способность «самодвижения», присущую всем формам материи, способность, благодаря которой развивается мир. Но как не хватало науке той всеобъемлющей меры, которой можно было бы оценить этот вечный порыв! Теория информации была еще в колыбели, а мысль многих ученых уже витала в этих непознанных сферах, тоскуя о новых понятиях, которые связали бы живое и неживое, материю и сознание, физические явления и сложный духовный мир.

«Допускаем ли мы, что, кроме атомов, существует нечто другое, например душа, или современное атомное учение находится в полном согласии со взглядами Демокрита, который считал, что во всех явлениях, включая психику и поведение живых организмов, существуют лишь атомы и пустота?» Этот вопрос задал в 1948 году студентам цюрихской высшей школы один из выдающихся физиков, В. Гейзенберг. И тут же ответил:

«Если мы намерены с помощью методов атомной физики описать процессы жизни или духовные процессы, то нам необходимо расширить математический аппарат... Вполне возможно, что это будет сделано путем введения наряду с прежним еще и других понятий, которые можно было бы без противоречий с ними связать».

И вот, исполняя желание Гейзенберга, теория информации предложила понятие «информации» и расширила математический аппарат.

Благодаря этому понятию все формы движения оказались связанными единой нескончаемой цепью. Мир атомов, исследованный ученым, превращается в длинный ряд уравнений, таблиц и букв.

В этих записях - модель изученного движения. Этой модели предстоит теперь «жить» в различных материальных системах, сохраняя порядок движения, исследованный ученым.

Смотрите, вот уже работники связи берут в руки недавно написанный текст. Телеграфист пробегает его глазами, и модель того же движения возникает „ол в сетчатке глаза, бежит по нервным каналам связи, превращается в азбуку Морзе, в звук, в импульсы, в радиоволны, мчится по кабелям и по эфиру, и вот уже изучаюг ее ученые в разных странах и городах. Подчиняясь их разуму, это движение будет, вновь восстановлено по модели, и новые атомы будут двигаться в колбах или в реакторах, повторяя ту же модель. Потому что в колбах и в радиоволнах, в нервных тканях, в книгах и в мыслях может существовать, переходя от системы к системе, одна и та же модель. А раз так, значит есть и общая мера, пригодная для оценки всех видов движения. И раньше или позже наука должна была отыскать эту меру, потому что еще двадцать четыре века тому назад Демокрит, рассуждая о единстве и гармонии мира, уже почти улавливал в нем всеобщий единый код:

«Подобно тому, как трагедия и комедия могут быть написаны при помощи одних и тех же букв, так и многие различные явления этого мира могут быть произведены одними и теми же атомами, поскольку они занимают различное положение и движутся различным образом».

Двадцать четыре века - немалый срок. Демокрит мог говорить лишь о механическом движении атомов, а современная наука исследует различные формы движения во всей их сложной взаимосвязи. Да и само слово «атом» уже давно утратило тот смысл, который вкладывал в него Демокрит12.

А теперь к мудрым словам Демокрита теория информации добавила еще одну короткую, но весомую фразу:

«И тексты комедий или трагедий и различные формы движения атомов могут быть оценены количеством бит».

Нам все время мешал наблюдатель

Оглянись на пройденный путь, читатель. Совсем недавно ты считал информацией лишь то, что можно услышать собственными ушами или прочесть на страницах книг и газет. Затем ты узнал, что она живет еще в клетках и нервных волокнах. Потом оказалось, что информацию хранят и физические системы, начиная от мельчайших кристаллов и кончая безграничным скоплением звездных миров. Значит, она объективно существует в природе, а те сведения, что приобрел человек, наблюдая природу, - это только часть информации, накопленной миром.

Кажется, ты уже уяснил себе ее многоликую сущность. И все же что-то мешает тебе понять ее до конца. В ней есть какая-то двойственность! Пока мы ходили по улицам Нового Города, мы считали, что битами измеряется неопределенность. Чем больше неопределенность событий, тем больше информации получаем мы, когда случается одно из них. Так было и с буквами, и с шарами, и с лампочками, по которым мы измеряли скорость реакций. И в Новом Городе все привыкли понимать информацию именно так.

А здесь, на Ничейной земле, все вдруг стало наоборот: профессор с Быстровым пришли к заключению, что информация увеличивает упорядоченность движения, что она несет этот порядок в различных «моделях», и чем больше информации, тем больше порядка в движении частиц или других элементов систем. И по формулам получается то же: энтропия подсчитывается со знаком минус, а информация имеет знак плюс. Потому что они характеризуют противоположные качества движения: с увеличением неопределенности растет энтропия, при появлении определенных траекторий тело накапливает информацию. Информация - «негатив энтропии», поэтому и назвал ее «негэнтропией» Леон Бриллюэн.

Ну, а как же все-таки понимать опыт с шарами? Ведь там все было наоборот: чем больше неопределенность опыта, тем больше информации давал нам каждый извлекаемый шар. И с текстом дело обстоит точно так же: в упорядоченном тексте, вроде «весел враться не сухом и непо и корко», каждая буква дает только 3 бита, а в тексте с самой большой энтропией информация, получаемая' от каждой буквы, составляет целых 5 бит. Так что же в конце-то концов измеряется битами - неопределенность или порядок?

- Прекрасно! - неожиданно обрадовался профессор, когда я изложил ему эти сомнения. - Я рад тому, что у вас возник этот вопрос. Ведь именно на этом вопросе споткнулся Бриллюэн.

Помните его утверждение о том, что энтропия системы зависит от сведений, которые получил о ней наблюдатель?

И, между прочим, не один он страдает этим недугом. Многие ученые, рассуждая об информации, никак не могут избавиться от какого-то мнимого наблюдателя, чтобы в его отсутствие рассмотреть объективное состояние реальных систем. А ведь именно из-за него, из-за этого мнимого наблюдателя, вы никак не можете определить, что же все-таки измеряется битами: неопределенность или порядок. Пока он присутствует, все получается путано и сложно.

Начнем все сначала. Пусть в ящике 5 черных и 5 белых шаров. Сколько информации получит наш наблюдатель, извлекая шары? Каждый шар даст ему 1 бит. Теперь возьмем другой случай: 9 черных и 1 белый шар. Вероятность извлечения черного шара составляет 90 процентов, а количество информации при извлечении шара согласно формуле Шеннона составляет 0,47 бита.

Но теперь представим себе такую картину: был ящик с пятью черными и пятью белыми шарами, и каждый шар нес наблюдателю 1 бит. А потом мы незаметно для наблюдателя заменили шары. Теперь в ящике 9 черных шаров и 1 белый, но наблюдатель не знает о том, что их количество стало иным. Для него неопределенность осталась той же: он считает, что с равной вероятностью он может извлечь и черный и белый шары. Значит, до тех пор, пока он не знает, какова вероятность этих событий, он будет по-прежнему считать, что каждый шар дает ему 1 бит. Но он упрям, этот наш наблюдатель: недаром же так трудно избавиться от его присутствия. Он продолжает тащить шары из ящика и записывает, какой попадается шар. И когда после 100 опытов черный шар попался ему 83 раза, он начинает догадываться, что мы его обманули и количество шаров в ящике стало теперь иным. А сделав 1000 таких опытов, он может, не заглядывая в ящик, сказать, что в нем находится около 90 процентов черных шаров. Вот с этого момента он будет знать, что в чередовании шаров есть определенный порядок, и. продолжая опыт, будет получать информацию 0,47 бита.

Значит, информация зависит здесь не только от того, как чередуются события, которые он наблюдает, но и от того, что он знает о характере этих событий.

Вы улавливаете, где возникает «двойственность» информации?

- Пытаюсь. Будем говорить так: существует объективная неопределенность движения, например в опыте с шарами есть неопределенность чередования черных и белых шаров. А в тексте есть неопределенность появления буквы: буквы сто... могут оказаться и столом и стоном, потому что после сочетания сто... может появиться много различных букв. Все это не зависит от наблюдателя, эти явления объективны. Но, кроме того, существует и другая неопределенность - неопределенность его представлений.

Я правильно уловил вашу мысль?

- Да, да, совершенно верно. Продолжайте.

- Но в тексте есть и порядок. Мы можем оценить его вероятностью. Если мы обозначим Pавероятность появления буквы а, то можем сказать, что Pа много больше, чем Pю или Pщ. И еще есть корреляция: после букв ею буква щ появится чаще, чем а. Если подсчитать информацию с учетом всего существующего в тексте порядка, то окажется, что каждая буква несет информацию немного большую, чем 1 бит. А если считать, что каждая из 32 букв алфавита имеет равную вероятность, получим, что в каждой букве содержится ровно 5 бит. Так сколько же информации несет в себе каждая буква - 1 или 5 бит? Все зависит от того, кто прочтет эту букву. Если наш наблюдатель изучил вербятность и корре- 235 ляцию букв русского текста, он получает от буквы всего 1 бит. А теперь представьте себе, что он иностранец, впервые встретивший русский текст. Он не знает алфавита, он даже не может отличить гласную от согласной. Он знает лишь, что в алфавите есть 32 различные буквы. Телеграф сообщает ему эти буквы, и он старательно записывает непонятный текст. Несмотря на то, что в движении букв существует порядок, для него каждая буква содержит ровно 5 бит. Кажется, так обстоит дело?

- Да, да, - кивает профессор. - Все, о чем вы сейчас говорили, можно свести к одной простой формуле. Вот она: I = ς0 + ςn.

I - это количество информации;

ς0 - это объективная неопределенность движения;

ςn - неопределенность представлений того, кто это движение наблюдает.

Теперь смотрите, как просто обстоит дело. Пока наблюдатель считает, что все буквы имеют равную вероятность, неопределенность ςn велика. В этом случае I составляет 5 бит. Но вот наблюдатель стал изучать, как чередуются букву, и неопределенность его представлений начала уменьшаться. Он учел вероятность от Pа до Pя, подставил их в формулу Шеннона и получил, что I = 4 бита.

Это все то же свойство формулы I = ∑ Pilog Pi: появились разные вероятности, уменьшилось I.

Потом он уловил, что буквы связаны между собою, и стал учитывать вероятность появления каждой буквы с учетом трех предыдущих букв. Неопределенность его представлений (ςn) стала еще меньше, и потому величина I уменьшилась до 3 бит.

Теперь предположим, что он изучил все возможные сочетания, учел корреляцию всех слов и букв.

Он знает теперь все законы, которым подчиняются буквы текста, - неопределенность его представлений стала равна нулю. А буквы все следуют друг за другом, на телеграфной ленте появляется все новый и новый текст. Несет ли он новую информацию? Безусловно. Прочитав этот текст, наблюдатель узнает много всяческих новостей. Почему? Потому что в тексте есть объективная неопределенность движения. Если бы ее не было, текст не нес бы нашему наблюдателю никаких новых сведений: ведь он заранее мог бы предвидеть появление всех букв и слов.

Но есть объективная неопределенность, и та информация, которую получает наш наблюдатель, зависит теперь от нее: I = ς0, потому что ςn стало равно нулю.

Наблюдая любое явление, человек всегда стремится устранить неопределенность своих представлений об этом явлении. Чтобы изучить порядок движения, существующего в любом физическом теле, он должен получить такое количество информации, которое существует в этом движении.

Как будто все не так уж и сложно, и тем не менее как много неясностей вносит в науку об информации этот назойливый наблюдатель! Только он появляется, всплывает- куча вопросов. Что ему известно заранее? Будет ли он принимать во вни- 237 мание новые сообщения, имеют ли они для него ценность?

Да, представьте себе, до тех пор, пока он присутствует, мы обязаны учитывать не только его знания, но даже склонности и привычки. Вот вам простой и наглядный пример.

С помощью камеры Вильсона13 получена фотография со следами пролетавших частиц. Эти следы содержат в себе информацию: они связаны с движением, которым живет этот мир. Наблюдая это движение, физик может открыть новую закономерность.

А теперь представьте себе, что во время этого опыта в гости к физику зашел приятель - профессиональный музыкант. Он равнодушно взглянул на снимок и отошел в сторону, поджидая, когда физик закончит свои дела. Он не заметил, что физик сильно взволнован: только что получена информация, на базе которой можно проделать новый интересный расчет. Но та информация, которая волнует физика, недоступна для музыканта, и потому, взглянув случайно на фотографию, он увидел лишь путаницу линий, не гово рящих ему ни о чем.

Внезапно в окна лаборатории проникли посторонние звуки: в соседнем доме включили приемник.

Увлеченный расчетами физик не узнал в этих звуках симфонии Моцарта. Зато его приятель в бушующем море звуков уловил, как в момент четвертого такта сфальшивил нежный гобой. Вот вам, пожалуйста, в обоих случаях есть сигналы, но одному наблюдателю они несут информацию, а для другого это всего лишь «пустой звук».

И вот, чтобы сбросить с себя иго капризного наблюдателя, мы с Быстровым, не сговариваясь, пошли на одну и ту же хитрость: мы просто перестали его замечать. Мы стали рассматривать все явления, не обращая внимания на его отношение к этим явлениям, не интересуясь даже вопросом, знает ли он о них. И тогда оказалось, что во всех существующих в мире системах происходит одно и то же: если система хранит информацию, значит ее элементы, двигаясь, сохраняют порядок. Так ведут себя автоматы, так бегут электроны по цепям вычислительной машины, так движутся молекулы в кристаллической решетке твердого вещества. Да и сам наблюдатель - это тоже система, только очень сложная и капризная. Но если отбросить капризы, то в общем-то и он подчиняется тем же законам: мозг его хранит информацию, потому что в нем существует движение импульсов, сохраняющих строгий порядок. И чем больше накопит он сведений, тем больше порядка будет в движении, рождающем мысль.

Так обстоит дело, если, отбросив субъективное мнение наблюдателя, научиться видеть в явлениях их объективную закономерность. Тот, кто умеет материалистически оценивать явления, никогда не повторит ошибки, которую допустил Бриллюэн. Он говорил: «Энтропия есть мера недостатка информации о действительной структуре системы».

Вы чувствуете, что в этой формулировке незримо присутствует наблюдатель? Если бы его не было, кто бы мог судить о структуре? Это он испытывает «недостаток», это он не знает, какова действительная структура системы.

Английский ученый Джон Пирс говорит еще более определенно: «Как только наблюдатель выявил что-нибудь в физической системе, так энтропия системы снизилась, ибо для наблюдателя система стала менее неупорядоченной».

Можно ли признать эти мнения правильными? Представим себе, что наблюдатель исследует какоето тело, изучая движение различных частиц. Что будет, когда он полностью изучит его структуру? Если верить Пирсу и Бриллюэну, энтропия тела станет равной нулю. Как же так? Разве оттого, что мы наблюдаем молекулы в кубике газа, они должны прекратить свой «футбол»? Конечно, нет! Не потому велика энтропия газа, что мы не имеем сведений о движении каждой частицы, а потому, что в движении нет никакого порядка: газ не хранит информации, он стремится к равновесию, к наибольшему хаосу, к самой большой энтропии. Зато в кристалле порядок есть. Если газ охлажден настолько, что на стенке сосуда выпали кристаллы, значит энтропия уменьшилась. И не имеет никакого значения, знает ли наблюдатель о том, что появился новый кристалл.

А теперь давайте еще раз позовем наблюдателя, чтобы раз и навсегда уяснить себе его роль. Пусть наблюдает за этим кристаллом. Чем меньше он знает о том, как движутся в нем молекулы, тем больше получит он информации, наблюдая любую из них. Все в соответствии с формулой: I = ς0 + ςn.

Объективная неопределенность от него не зависит - ς0 равно постоянной величине. Но велика неопределенность его представлений ςn и потому велико значение I. Потому и считают жители Нового Города, что информация есть «мера неопределенности» - ведь они разрабатывают каналы связи, по которым будут идти только те сведения, которые являются новостью для наблюдателя.

Но наблюдатель хитер. Получая сведения, он накапливает знания, и неопределенность его представлений становится все меньше и меньше. Сначала каждая буква несла ему 5 бит информации. Затем он понял, что буквы имеют разную вероятность, изучил всевозможные их сочетания, то есть уменьшил неопределенность своих представлений, и стал получать от каждой буквы чуть больше 3 бит. Наблюдгя движение, происходящее в тех или иных явлениях природы, человек всегда старается уловить в нем порядок. Если порядок изучен, значит нет неопределенности представлений и дальнейшие наблюдения становятся бесполезными. Представьте себе, что вы наблюдаете за движением молекул в кубике газа, отмечаете скорости, определяете их вероятность и строите кривую распределения скоростей. Дает ли вам что-нибудь новое такая кривая? Нет, она целиком повторит кривую Максвелла. И сколько бы ни получали вы новых сведений о том, где оказалась та или иная молекула в ходе нескончаемого «футбола», вы не узнаете ничего нового по сравнению с тем, что еще в прошлом веке узнал гениальный Максвелл. Потому что с тех пор, как он описал равновесное состояние газа формулами и кривыми, исчезла неопределенность представлений о законах, царящих в кубике газа, и вся дополнительная информация лишь подтверждает этот объективный закон.

В формуле I = ς0 + ςn исчез член ςn - он стал равен нулю.

Значит, теперь I = ς0.

Как это понимать? Очень просто: информация, которую будет получать теперь наш наблюдатель, равна объективной неопределенности движения. В кубике газа он обнаружит хаос. Этот хаос отразили с своей теории Людвиг Больцман и Джемс Максвелл. И нет больше смысла наблюдать за этим движением, потому что искать в нем новые сведения - значит попусту тратить время.

А если в газе нарушено равновесие?

Тогда в движении частиц будет соблюдаться определенный порядок: наиболее вероятным будет движение в сторону более низкой температуры. В такой системе есть информация. Хотите сделать все достоянием ваших знаний? Пожалуйста: измеряйте температуру в различных частях тела и наблюдайте за ее изменением.

Теперь вам понятно, как связана Информация, существующая в любой материальной системе, с информацией наблюдений?

Наблюдая движение, мы изучаем его законы; получая информацию, мы познаем мир. Теория и опыт помогают нам понять все, что вокруг нас происходит. Порядок движения, который существует в наблюдаемых нами системах, становится достоянием наших знаний. Когда человеку нужна информация, даже неподвижный камень послужит ее источником: изучая его, археолог увидит движение, существовавшее в ледниковый период, а физик - движение многих молекул и структуру кристаллов, из которых он состоит.

Надеюсь, вам теперь ясен этот вопрос?

- Как будто бы да. Чем больше сведений, тем больше знаний. Человек неустанно изучает природу, узнает о ней все больше и больше. Наступит время, когда человек изучит все законы движения, и тогда... Позвольте, а что же. будет тогда? Получается так: пока есть неопределенность представлений о какомто движении, можно получать о нем информацию путем наблюдений. Но вот получены все сведения о законах движения мира. Значит, незачем больше изучать этот мир?

- Нет, человек будет всегда пополнять свои знания.

- Но откуда он будет черпать новые сведения?

- Из внешнего мира.

- Ну, а если он уже изучил все законы движения?

- Такой минуты никогда не наступит. Законы движения мира неисчерпаемы, как сам мир. Максвелл описал хаос молекул в кубике газа. А знал ли он чтонибудь о том, что происходит внутри молекул? Нет, к этому люди пришли значительно позже. Но и здесь не последовало передышки. Человек заглянул внутрь атома и открыл там целый неведомый мир. Нет предела человеческим знаниям, нет барьера, после которого наступит полная ясность и нельзя будет изучать материю вглубь. Наши теории лишь частично отражают законы реального мира.

Когда-то считали, что весь мир подчиняется законам Ньютона. Потом оказалось, что есть объективная неопределенность в совместном движении массы частиц и законы Ньютона не могут точно описывать траекторию каждой частицы. С тех пор физика привлекла теорию вероятностей к изучению подобных процессов. Энтропия помогла еще глубже понять эти явления, а теория информации заставила нас по-новому взглянуть на природу энтропии. А пока мы изучаем существующие формы движения, уже рождаются новые формы. Этот процесс нескончаем: в космосе и на нашей планете, в человеческом обществе и в мире микробов - всюду рождаются новые формы. Мир находится в вечном движении, и никогда не наступит такого момента, чтобы в этом вечно движущемся мире не осталось для нас новостей.

Вот вам наглядное подтверждение, - профессор широким жестом указал на линию горизонта. - Развивающаяся наука привела нас к этим просторам, и разве может кто-нибудь сказать точно, где кончается этот маршрут?

Он взглянул на часы. Был уже полдень. Яркое солнце сияло над просторами необъятной Ничейной земли.

- Куда же вы теперь поведете отряд, профессор?

- Туда. Вы видите там, в облаках тумана, пик, вздымающийся ввысь? Это Вершина Человеческих Знаний. Если, взобравшись на эту вершину, взглянуть на далекие перспективы, можно увидеть необычайное: стремительный бег человеческой мысли, познающей природу самой себя.

ГЛАВА 3. ВОСХОЖДЕНИЕ НА ВЕРШИНУ

Как избежать плена?

- Если я правильно вас понял, профессор, вы собираетесь с помощью информации исследовать мысль? - спросил Быстров.

- Да, вы поняли меня правильно.

- И вы считаете, что для такого ответственного исследования в нашем распоряжении имеется достаточно средств?

- А как считаете вы?

- Я? - Быстров помолчал. Очевидно, он взвешивал все «за» и «против». - Видите ли, профессор, - сказал он, - мысль - это слишком сложное, многогранное явление, для того чтобы подходить к нему с какой-то одной стороны. Во все века человека интересовала природа мысли. Были открыты законы логики и психологии, философия вскрыла социальную сущность сознания. Все это касается содержания мысли.

Но как она существует? В каком виде сохраняет человеческий мозг то огромное количество сведений, которое накапливается в течение жизни? Каким образом из ранее приобретенных знаний рождается новая мысль? И когда появилась эта новая мысль, что же в конце концов происходит в человеческом мозге?

Исследования великого Павлова внесли здесь определенную ясность. По крайней мере стало известно, что основная роль в процессе мышления принадлежит коре больших полушарий. Павлов доказал, что клетки коры могут тормозиться и возбуждаться в зависимости от состояния психики и мыслительного процесса. Для того времени это было огромным шагом: по существу, впервые в науке появилась возможность связать мысль с тем материальным органом, который ее производит, с состоянием клеток, образующих кору больших полушарий. И все же оставалось неясным: как «работают» эти клетки, как «течет» по ним наша мысль?

Даже в настоящее время можно найти наивных людей, которые представляют себе, будто наши знания существуют в виде «извилин». Родилась новая мысль - и новая «щелочка» пролегла среди паутины извилин, избороздивших полушария мозга. А когда мысль работает напряженно, эти извилины должны как-то воздействовать друг на друга, поэтому они якобы «оживают», движутся... Вы, очевидно, слышали выражение «пошевели мозгами»? Оно родилось именно из такого вот представления о работе мозга, об извилинах, которыми время от времени приходится «шевелить».

- Для чего вы мне это рассказываете? - прервал Быстрова профессор. - Вы хотите убедить меня в том, что это не так?

- Ну что вы, профессор! - смутился Быстров. - Я просто пытаюсь изложить вам суть своих сомнений. Я хочу сказать, что в этой области до сих пор еще такое множество «белых пятен», что очень рискованно вести сюда целый отряд. Мы можем попросту заблудиться. Ведь до сих пор мысль изучали философы, психологи, физиологи. А мы - люди техники.

- Ну так что же? Разве люди техники не могут оказать физиологам и психологам большую услугу? Ведь именно техникой рождена в цепях электронной машины искусственная «машинная мысль»!

- Но, простите, профессор, я еще далеко не уверен в том, что это можно называть «мыслью».

- Ну что ж, как раз в этом мы с вами и должны разобраться. Как известно, кора больших полушарий мозга состоит из нервных клеток - нейронов. Нейрон - это «ячейка» нашего мозга, подобная ячейкам, из которых составляются логические схемы электронных машин. В последние годы во многих лабораториях мира изучаются свойства этой «ячейки». Конечно, нейрон «устроен» гораздо сложнее магнитных ячеек или полупроводников. И все же точно доказано, что есть у них и общие свойства: так же как ячейка электронной машины, нейрон может «отпираться» и «запираться», давая ответы «да» или «нет». Мы можем исследовать взаимодействие подобных ячеек в каналах электронных машин. Что из этого следует? А вот что: те процессы, которые физиологи могли изучать лишь в общих чертах, мы можем представить себе во многих деталях. И не случайно в последние годы на различных технических конференциях то и дело всплывает вопрос о природе мысли.

- Да, но, насколько мне известно, многие из тех, кто увлекается кибернетикой, склонны слишком уж высоко возносить «машинную мысль»! Оми считают, что между человеческой мыслью и «мыслью» в машине нет принципиальной разницы, что стоит лишь решить некоторые технические проблемы, сделать более емкой «память» машины, и она начнет мыслить, как человек. Не знаю, как вы, профессор, а я считаю, что этот путь является ложным. И если мы с вами поведем отряд по этим дорогам, мы просто заблудимся, мы неизбежно окажемся в плену механицизма!

Вот видишь, читатель, я честно выполнил все свои обещания. Я не зря говорил об опасностях, которые подстерегают нас на Ничейной земле. Правда, механицизм - это не название дикого племени и не имя его вождя.

Механицизм - это научное направление. Оно родилось во времена Ньютона. Когда законы Ньютона позволили объяснить механику солнечной системы, многим ученым показалось, что с помощью этих законов можно понять весь мир. Все явления они пытались свести к законам механики. А законы эти весьма просты. По плоскости катится шарик. Если бы не было трения, он катился бы бесконечно. Если на него действует сила, он начнет катиться быстрее. Два шарика притягивают друг друга с силой, пропорциональной их массе и обратно пропорциональной расстоянию. Впрочем, стоит ли говорить об этом подробно, если все это можно прочесть в учебнике средней школы?

Непонятно другое: какой тут может быть плен?

А вот какой. Если с помощью этих шариков пытаются объяснить более сложные вления, начинается механицизм. Механисты рассуждают так: любое тело состоит из молекул, а молекула - это тот же шарик. Значит, из таких же вот шариков состоит и живой организм, и все его органы, и все, что они производят. Поэтому нет существенной разницы между человеком и механизмом. Ну, а как же быть с мыслью? Очень просто: надо и ее свести к этим шарикам. Поэтому мысль стали представлять себе как некое вещество, которое мозгом производится так же, как, скажем, печенью вырабатывается желчь.

Очевидно, подобных взглядов и опасался Быстров. Но профессор с ним не согласен.

- При чем здесь механицизм! - горячится он. - Я призываю вас решать эту проблему в свете последних достижении науки, а вы подсовываете мне покойника, который был похоронен еще полвека на-, зад! Неужели вы впрямь считаете, будто специалисты из области кибернетики хотят доказать, что мысль подчиняется законам Ньютона?

- Нет, так не считаю. Но когда некоторые из современных ученых пытаются свести к простым сигналам любую сложную мысль, они в новой форме возрождают все тот же механицизм. Нельзя забывать о том, что мозгу присущи высшие формы движения, что их нельзя свести к простой сумме низших, потому что сложное движение имеет те качества, которых нет ни в одной из простейших форм.

- Упрощать, конечно, не следует, - согласился профессор. - Но не менее опасной является и другая крайность. Есть, к сожалению, и такие ученые, которым в любой попытке глубже проникнуть в мозговые процессы мерещится механицизм.

- Уж не имеете ли вы в виду меня, профессор? - вспыхнул Быстров.

- Вас? Нет, я еще недостаточно хорошо понял вашу позицию в этом вопросе. Да и вообще зачем нам ссориться? Впереди трудный путь, а трудности лучше всего помогают людям узнать друг друга. Однако должен честно признаться, что ваша чрезмерная осторожность кажется мне излишней. Вы не находите, что мы с вами поменялись ролями? Недавно вы убеждали меня во всепроникающей сущности информации, а теперь мне приходится убеждать в этом вас. Мы же видели, что информация может одинаково проявлять себя в самых различных материальных системах. Почему же мозг должен представлять собой исключение? Оттого лишь, что он сложнее всех остальных систем? А не кажется ли вам, что с этих позиций вы проповедуете непознаваемость мысли? А ведь это, пожалуй, хуже механицизма. Смотрите, наука идет все дальше и дальше. Она дала вам новые методы, новое понятие - информацию, единицы для ее измерения - берите, пользуйтесь, идите дальше! Действительно, мозг порождает самую сложную форму движения. Но кто же, если не мы с вами, должен эту сложность преодолеть и понять? Отбросьте вашу чрезмерную робость - она мешает идти вперед.

Новая теория хочет связать живое и неживое? Но разве можно сводить высшие формы движения к низшим? Нет, на этом пути легко поскользнуться. Куда проще, не вникая в суть новых методов и понятий, повесить на них ярлычок: «Опасно - механицизм!» К счастью, мы с вами не верим чрезмерно осмотрительным людям. Мы ведь знаем, что наука требует не бесконечных оглядок, а дерзаний, поисков, стремительного порыва к тому, что ново, что зовет только вперед.

Мы не философы и не биологи, мы люди техники. Но ведь имеем мы право задаваться вопросом о том, какие пути ведут к познанию мысли! И мы должны искать ответа на этот вопрос. Но прежде всего надо научиться не бояться теней. Свет всегда порождает тени: все новое, что появлялось в науке, вызывало яростные протесты и должно было отстаивать свое право на жизнь. Эта борьба продолжается и сегодня. Тех, кто пытается использовать новые методы в изучении мозга, предостерегают на каждом шагу. Например, доктор Фролов заявляет категорически, что сравнение мозга с электронной машиной «дезориентирует не только инженера и математика, но и исследователя-биолога и психолога, возвращая его к механистическим позициям XVIII века»14. Не правда ли, очень похоже на мрачные тени? Фролов запрещает кибернетике исследовать человеческий мозг. И он, к сожалению, не одинок. В том же сборнике ему вторит профессор В. Н. Колбановский: «Серьезно проводить параллели между машинами и организмами - значит возвращать науку к механистическому материализму на несколько столетий назад».

Так что же нам остается делать? «Серьезно» сравнивать информацию в машине и в мозге нам запрещают. А как же быть с ее общностью, с тем, что информация является единой мерой порядка движения для простых и для сложных форм? Может быть, прикажете считать это шуткой? Но с фактами шутить не рекомендуется, факты за это мстят.

Значит, получается так: если мы будем изучать свойства информации в цепях электронной машины, а затем искать те же свойства в человеческом мозгу, мы возвратим науку «на несколько столетий назад».

А если мы все же дерзнем идти дальше? Если мы не поверим тому, что говорит Колбановский, и будем искать единую суть информации для высших и низших форм?, «Нет, нельзя сводить высшие формы движения к низшим», - предостерегают нас осторожные люди. А мы и не собираемся этого делать! Мы хотим только глубже понять их единство. А в этом нам как раз и должна помочь философия, потому что именно эта наука ищет общие закономерности, присущие и природе, и обществу, и человеческой мысли. В поисках единства и общности была, есть и будет одна из важнейших задач науки, стимул ее развития, ее высшая цель. Без понимания этой общности мы никогда не смогли бы назвать все, что есть в нашем мире, одним всеобъемлющим словом «материя». Мы никогда не признали бы, что люди, растения и животные не были созданы богом, что самые сложные формы материи возникли из низших, простейших форм. И в этом единстве мы будем пытаться найти ответ на вопрос о том, где и как рождается мысль. И мы будем делать это совершенно «серьезно».

Оттого, что информацию в мозгу хранят и посылают друг другу живые ячейки, что она существует там в виде самых простых сигналов, подобных тем, что используются в машине, мысль не перестает быть самой сложной формой движения. В звуках музыки не исчезнет сложная гамма чувств композитора, если его симфонию мы оценим количеством бит. Вдохновенные строки Пушкина не сведутся к «низшим формам движения» Даже в том случае, если они будут храниться в простейших ячейках искусственной памяти, а средством их передачи послужит простейший двоичный код. Значит, все-таки могут простые ячейки хранить в себе большую и сложную мысль?

Надо понять, как из простого рождается сложное, прежде чем делать выводы или прогнозы. Диалектика «как бы является скрипкой Страдивариуса, самой совершенной из скрипок, но, чтобы на ней играть, нужно быть музыкантом и знать музыку. Без этого она будет так же фальшивить, как и обычная скрипка». Эти слова принадлежат академику Капице, и мне нечего к ним добавить. Разве что некоторые факты. Может быть, в утверждениях по поводу сущности информации тоже можно уловить эти фальшивые звуки? Ведь многих пугала ее удивительная «вездесущность». Разве можно искать в клетке какието коды или считать, что энтропия ячеек памяти зависит от сведений, которые они будут в себе хранить? Осторожные люди решили на всякий случай оградить территорию новой теории, закрыть ей пути на Ничейную землю. Они выдвинули тезис о том, что нельзя «серьезно» сравнивать энтропию в теории информации и энтропию в термодинамике., Они «запретили» искать их единую сущность. Они настаивали на том, что между ними надо признать лишь внешнюю, формальную связь.

Но существует на свете самая совершенная скрипка. В руках тех, кто знает и любит музыку, она звучит удивительно мелодично. В ее звуках вся гармония мира, торжество человеческой мысли, непрерывный научный прогресс. Надо лишь заставить звучать ее струны так, чтобы в эту гармонию не вплетались фальшивые ноты.

Разве нужно заглушать фальшивыми звуками голоса тех, кто в неразрывной связи явлений ищет единую сущность информации и энтропии? Быть может, в их утверждениях есть еще много спорных вопросов, но ведь единую сущность энергии тоже искали сотнями лет! А теперь совместно с энергией можно учитывать и информацию, значит можно глубже понять материальный мир. Прислушайтесь: разве не к этому призывает нас голос чудесной скрипки? В мире все существует в движении: движутся атомы и галактики, природа, люди и мысль. Можно оценить движение в единицах энергии, потому что она является мерой его интенсивности: система получает энергию - интенсивность растет. Информация характеризует движение, потому что она является мерой его направленности: система накапливает информацию - растет порядок движения ее элементов. Эти меры применимы ко всем формам движения, они позволяют оценить два основных его качества: направленность и интенсивность.

В мозгу тоже существует движение. Мы можем оценить его направленность и интенсивность: мозг потребляет около 25 ватт мощности (то есть расходует 25 джоулей энергии в течение каждой секунды) и хранит информацию в количестве 1012 - 1015 бит. Конечно, у нас пока нет достаточного количества фактов, чтобы дать полный анализ работы мозга. Но любой шаг, позволяющий глубже проникнуть в мозговые процессы, представляет собой огромную ценность. Наступит время, когда эти первые всходы превратятся в удивительные плоды: люди научатся освобождать сознание от усталости и перегрузок, от влияния старости и болезней, очищая мозговые каналы связи от влияния посторонних помех. И все эти «вмешательства» в таинственный мир мозговых процессов ни в какой степени не затронут той идеальной стороны мышления, которую имеют в виду классики марксистской теории, когда они говорят о том, что содержание и сущность мысли не могут быть сведены к низшим формам движения.

- Но о какой идеальной стороне мышления вы говорите? - спросил я профессора. - Вы же только что доказывали, что мысль рождается мозгом в виде циркулирующих по клеткам сигналов. Сигналы материальны, клетки - тоже. Где же тут «идеальная сторона»?

Профессор взглянул на меня с досадой и удивлением. Так смотрит старый учитель на самого бестолкового ученика.

- Вы читаете книги? - спросил он, в свою очередь.

- Ну, разумеется, - я никак не мог уловить, куда клонит профессор.

- Страницы материальны, - продолжал профессор, повторяя мои интонации, - буквы тоже. Значит, по-вашему, в книге нет никаких идей? Так, что ли?

- Нет, конечно, не так.

- Вот в том-то и дело. Есть книги вредные и полезные, прогрессивные или реакционные. Идеи могут быть разные, хотя все книги состоят из похожих страниц и одинаковых букв.

Так и в вашем мозгу. В одинаковых клетках существуют разные мысли. Комбинацией клеток может создаться любой зрительный образ. Ну, например, образ стула. Но стул, который родился в вашем воображении, - это стул идеальный - на нем нельзя 255 посидеть.

В свое время Энгельс писал: «Мы несомненно «сведем» когда-нибудь экспериментальным путем мышление к молекулярным и химическим движениям в мозгу, но разве этим исчерпывается сущность мышления?»

Разумеется, нет. Надо учитывать еще содержание мыслей - способность анализа и обобщений, идеи, взгляды, творческий характер и классовую сущность сознания. А что касается способов накопления, хранения и передачи информации, то здесь надо неустанно искать единые методы, проводить аналогии, ставить эксперименты. И пусть себе поют фальшивые скрипки1 о том, что это механицизм. Мы будем искать единую сущность информации и в машине и в мозгу. Информация в цепях автомата несет «модели движения» его элементов. А если бы наш мозг не хранил в себе тех же «моделей движения», разве могло бы наше сознание отразить наш движущийся мир?

- Минуточку, профессор! - вдруг взмолился Быстров. - Ваши слова звучат так убедительно, что я перестаю улавливать различие между мыслью и информацией. И то и другое - это «модели движения». Но должна же быть между ними какая-то грань!

- Несомненно. Вот ее-то мы и поищем, прежде чем отправиться в путь.

Кто-нибудь из членов отряда встречал в литературе последних лет имя английского ученого Эшби? Это виднейший деятель в области кибернетики, создавший немало новых методов и остроумных схем. Так вот, когда Эшби рассуждает о связи информации с мыслью, эти понятия становятся у него почти равноценными. Он утверждает, что степень развития ума человека можно определить как способность выбора наилучшей возможности из множества вариантов.

Если сопоставить это определение с формулой Шеннона, то сходство их становится вполне очевидным: и тут и там речь идет об одной из возможностей, выбранной из большого числа. Когда мы оцениваем количество информации, получаемой при извлечении черного шара из ящика с множеством разноцветных шаров, мы тоже учитываем одну из возможностей среди большого числа других. Ведь, помимо возможности извлечения черного шара, существует возможность вытащить белый, синий или зеленый. Мы имеем в виду все эти возможности, когда подставляем в формулу Шеннона различные величины Pi.

Но Эшби говорит о «наилучшей» возможности, а формула Шеннона полностью исключает понятие «ценности». Однако уже сейчас теория информации делает первые успешные шаги в отношении введения понятия «ценности», и можно предполагать, что ближайшее будущее позволит частично или полностью преодолеть эту грань. Таким образом, приняв точку зрения Эшби, можно сделать вывод, что методы новой теории могут быть прямо и непосредственно использованы при рассмотрении такого сложного йродукта материи, каким является мысль. Нет нужды много говорить, насколько заманчивой была бы такая возможность. Ведь, поставив знак равенства между мыслью и информацией, мы могли бы, подсчитав объем информации, полученной человеком по какомулибо вопросу, измерить его «осведомленность». А сложив между собой «объемы» многих вопросов, мы оценили бы в единицах объема его эрудицию, его знание, его опыт!

Затаив дыхание слушаем мы профессора. Вот было бы хорошо, если бы наука позволила производить такие оценки; какой беспристрастной точности можно достигнуть при приеме экзаменов, при присвоении степеней и ученых званий, при решении вопросов о повышении в должности и расстановке кадров! Но профессор словно прочел нашу мысль.

- Беда в том, - говорит он, - что желаемое не всегда достижимо. И хотя решение той или иной научной задачи или жизненной ситуации и сводится зачастую к выбору наилучшего варианта из многих возможных, все же предложенная Эшби формулировка далеко не исчерпывает всех сложных и многообразных явлений, заложенных во всеобъемлющее понятие «мысль».

Где же возникает и где кончается та граница, которая разделяет информацию и мысль? Самым универсальным способом сохранения информации является текст. С помощью информации, заключенной в словесном тексте, можно отразить любое явление или суждение, выразить любую мысль. Снова возникает желание поставить знак равенства между понятиями «мысли» и «информации», и снова приходится призывать на помощь осмотрительность и осторожность. Мысль, как известно, является продуктом мозга. Текстовая информация может характеризовать этот продукт с той или иной степенью полноты и точности, однако это еще вовсе не дает права слить в единое целое информацию об этом продукте и сам продукт. С таким же успехом мы можем охарактеризовать с помощью информации все интересующие нас качества промышленного продукта (например, какогото механизма). И все же мы никогда не согласимся ограничиться получением информации в том случае, когда нам нужен сам механизм.

Только четкий материалистический подход к явлениям может внести полную ясность в этот вопрос. Мысль рождена движением, происходящим в материальном мире, и находится с этим движением в неразрывной связи. Информация является звеном, связывающим сознание с окружающим миром. Казалось бы, куда яснее и очевиднее? Но нет, даже неоспоримые научные факты до сих пор не могут избавить многих зарубежных ученых от тех заблуждений, которые упорно насаждаются теоретиками идеализма уже не первую сотню лет.

За порогом сознания

Я слушаю речь профессора, и в моей памяти проходят все этапы развития человеческой мысли, издавна жаждущей получить ответ на самый главный вопрос.

«Я в мире или мир во мне?» Всплывая в той или иной форме, этот философский вопрос переходил от эпохи к эпохе, вызывая неизменные горячие споры между представителями различных направлений и школ. Прошло немало веков, прежде чем четкие формулировки диалектического материализма вскрыли связь между объективной сущностью мира и его отражением в нашем сознании. А рожденное нашей эпохой понятие «информации» послужило еще одним ярким подтверждением материалистических взглядов на окружающий мир.

Ко времени античных философов относятся первые попытки объяснения взаимосвязи сознания с окружающим миром.

Почему человек видит окружающие предметы?

Философы древности объясняли это по-разному. Одни утверждали, что в глаза попадают частицы, излучаемые самими предметами. Другие, напротив, считали, что сами глаза являются источниками этих частиц.

Греческий врач Гален построил теорию «светоносного воздуха», который якобы рождается мозгом, а затем по полому нерву направляется в глаз. Глаза излучают «светоносный воздух» в пространство, окружающие предметы его отражают, и он вновь достигает глаз.

Сейчас нам легко оценить наивность этих суждений. И все же мы должны признать, что взгляды древних материалистов были значительно ближе к истине, чем пришедшие им на смену идеалистические воззрения, выражавшие полное недоверие чувствам или отрицавшие реальность отраженного в сознании мира и 'сводившие все представления о мире к «врожденным идеям» или «воспоминаниям бессмертной души».

Попытки воздвигнуть мифическую стену, отгораживающую сознание от окружающего мира, повторялись на протяжении всей истории развития философской мысли и нашли свое завершение в двух обобщающих философских концепциях, обосновавшихся по разные стороны этой стены. По одну сторону подняли знамя сторонники Беркли и Юма, провозгласившие полное отсутствие реально существующих вещей. По их мнению, все видимые и освязаемые нами предметы - это не более чем «комплексы ощущений», существующие лишь постольку, поскольку существуем мы. А с другой стороны стены, за которой начинался необъятный простор материального мира, родилась не менее противоречивая теория Канта, утверждавшего, что стена эта непреодолима, ибо человеческий разум никогда не постигнет сущности мира, каждый элемент которого представляет собой непознаваемую «вещь в себе».

Не располагая научными фактами, философы прошлого могли искренне заблуждаться. Но какой убогой политической спекуляцией представляются современные идеалистические теории, пытающиеся уцепиться за ту же призрачную «стену»! До самого основания разрушают ее новые научные взгляды на информацию, несущую «модели движения» окружающего нас мира нашим органам чувств. Просто смешными кажутся сейчас попытки так называемой «семантической философии» доказать нам, что на реальные события можно воздействовать путем «изменения понятий», или утверждение прагматизма о том, что истинность всего существующего зависит от нашего «разумения», оценивающего его «полезность».

Ни одно из научных открытий не дает таких фактов, которые хотя бы на секунду поколебали нашу уверенность в объективной сущности мира. Уверены мы и в том, что все научные, проверенные практикой представления и образы, живущие в нашем сознании, отражают реально существующий мир. В мире есть разные формы движения. Путем наблюдения разных явлений мы приобретаем ту информацию, которая дает нам возможность глубже познать мир. И нет предела движению мысли: чем больше узнаем мы о мире, тем больше вопросов встает на нашем пути. А ведь когда-то ученым казалось, что одни лишь законы механики царят в этом мире.

«Ум, которому были бы известны для какого-либо момента все силы, одушевляющие природу, и относительное положение всех ее составных частей, если бы вдобавок он оказался достаточно обширным, чтобы подчинить эти данные анализу, обнял бы в единой формуле движение величайших тел вселенной наравне с движением легчайших атомов: не осталось бы ничего, что было бы для него недостоверно, и будущее, так же как и прошедшее, предстало бы перед его взором».

Так рассуждал один из выдающихся ученых прошлого века, математик Лаплас. По его мнению, этот «обширный ум» был бы способен предсказать все, что будет происходить во вселенной, с помощью огромного количества уравнений. Не слишком ли просто? Если это действительно так, значит все, что происходит с нами сегодня, было «предрешено» движением частиц, происходившим во времена Лапласа, то есть больше ста лет назад! Да нет, значительно раньше, в той непроглядной тьме веков, когда все частицы нашей планеты еще метались в хаосе бесконечной вселенной, не подозревая о том, что спустя миллиарды лет неизбежно сгорит на костре Джордано Бруно и обязательно родится Лаплас.

Так ли?

К счастью, не так. К счастью - потому что скучно было бы жить в мире, в котором ничего нельзя изменить.

Нет, мир оказался куда более замысловатым, чем он представлялся ученым, жившим 100 лет назад. Своим непрерывным движением он рождает все новые и новые формы, но никогда не родится в нем предрешающий все будущие состояния всеобъемлющий ум. Потому что даже в облаке газа царит случайность, и в лучшем случае мы можем говорить лишь о вероятности нахождения какой-то частицы в указанном месте в данный момент. «Система вселенной, как единое целое, такова, - говорит современный английский ученый Тьюринг, - что смещение одного электрона на одну миллиардную долю сантиметра в некоторый момент времени может явиться причиной того, что через год человек будет убит обвалом в горах».

В этих словах еще звучат нотки лапласовского фатализма: имей лишь все исходные данные, и можно с помощью множества уравнений предсказать, кого именно должен убить роковой электрон.

Представляет ли Тьюринг достаточно четко, что, помимо неопределенности наших знаний, существует объективная неопределенность явлений, что многообразные формы движения, происходящего в нашем мире, нельзя исчерпать не только уравнениями движения, известными во времена Лапласа, но и такими сложными понятиями современной науки, как «вероятность» и «корреляция», «информация» и «энтропия»? Но эти понятия помогают нам все глубже и глубже проникать в тайны законов движения, изучать и исследовать, как взаимодействием массы случайностей рождается закономерность. Отражаясь в нашем сознании, эти законы превращаются в мысль.

Чудо природы

- Готовы ли вы идти дальше? - спросил нас профессор. - Сейчас мы это проверим. Я предложу вам одну задачку. Ее решение даст наглядное представление о тех трудностях, которые ожидают нас впереди. Будьте готовы к трудностям: ведь мы идем на штурм самой сложной в мире системы, рождающей самое сложное в мире движение - движение мысли. Я надеюсь, никто из участников экспедиции не сомневается в том, что мысль рождается именно мозгом? Вы улыбаетесь? Напрасно. Было время, когда люди были уверены, что мысль живет в диафрагме. Так считали древние греки. Как видите, мысль людей далеко не сразу нашла свои собственные истоки. Мысль должна была достигнуть определенного уровня научной зрелости, прежде чем она приступила к познанию самой себя.

Человеческий мозг - это не только самая сложная, но и самая совершенная из созданных природой систем. А заслуга теории информации заключается в том, что она впервые в истории человеческой мысли позволила оценить «высшее искусство» природы точным языком цифр. Установлено, что количество информации, сохраняемой человеческим мозгом, составляет 1012 - 1015 бит. Задача, которую я хочу вам предложить, заключается в следующем: какое количество книг может уместить всю информацию, сохраняемую человеческим мозгом? Если вы внимательно изучили все, с чем столкнулись в Новом Городе, эта задача не представит для вас большого труда.

Действительно, расчет оказался несложным: через 5 минут я подал профессору готовый ответ.

- Ну что ж, это похоже на правду, - удовлетворенно произнес профессор, бегло взглянув на мои расчеты. - Получилось 100 миллионов томов. Расскажите, как вы это определили?

- Я сосчитал количество букв, умещающихся на каждой странице. Их получилось около 2 тысяч. Каждая буква, с учетом избыточности, несет около 2 бит информации. Значит, на каждой странице умещается около 4 тысяч бит. Книга средней толщины имеет 200 - 300 страниц. Возьмем среднее - 250. Тогда получится, что в такой книге содержится

4000 × 250 = 1 000 000, или 106 бит.

Теперь осталось поделить количество информации, сохраняемой мозгом, на 106, и мы получим 100 миллионов подобных книг.

- Прекрасно! - отозвался профессор. Теперь давайте спроектируем книгохранилище, которое могло бы уместить эти тома. Как оно будет выглядеть?

Я вновь погрузился в расчеты и вскоре пришел к выводу, что такое количество книг можно разместить в здании длиной 150 метров при условии, что оно будет иметь не меньше 30 этажей.

Результат показался мне очень сомнительным. Неужели это гигантское здание может уместиться в одной человеческой голове?

- Вы удивляетесь? - улыбнулся профессор. - Напрасно. В вашей голове умещается не одно это здание. Там находится множество городов.

- Городов?! - воскликнули мы в один голос.

- Да, представьте себе. Вы рассчитали сейчас размер гигантской библиотеки, сохраняющей информацию в количестве 1015 бит. Но ведь это неподвижная информация - недаром ведь говорится в пословице: что написано пером, того не вырубишь топором. А в мозгу, так же как в электронной машине, информация находится в непрерывном движении: каждый сигнал, приходящий из внешнего мира, оживляет много «моделей движения», в вашей памяти всплывают образы, сведения, знания, приобретенные вами в течение многих лет. Для того чтобы сохранить 1015 бит в искусственной памяти электронной машины, надо использовать цепочки магнитных ячеек или полупроводников. Существуют и другие способы хранения информации: электронные трубки, на экране которых каждый сигнал сохраняется какое-то время, магнитофонные ленты, специальные ртутные линии, в которых каждый полученный импульс, отражаясь от концов линии, может циркулировать туда и обратно до тех пор, пока не появится новый сигнал. Но какой бы способ хранения информации ни избрал конструктор электронной машины, в любом случае каждый бит информации будет занимать здесь гораздо больше места, чем на страницах книг. Одна ячейка может хранить 1 бит информации, потому что она может быть или открыта, или закрыта, то есть давать ответ «да» или «нет». Как ни мала такая ячейка, все же она займет больше места, чем напечатанная на тонком листе бумаги буква словесного текста. Известно, что на современном уровне техники каждая 1000 бит информации, сохраняемой искусственной памятью, требует около 1 кубического метра объема. Значит, информация 1015 бит займет 1012 кубических метров. А наше книгохранилище имеет объем 106. Получается довольно внушительная картина: город с миллионом высотных домов! Да плюс к тому надо учесть, что каждый из домов будет потреблять огромное количество энергии, а чтобы охлаждать здания, на город нужно направить какойто фантастический водопад... И все это невероятное сооружение могло бы выполнять только одну из многочисленных функций нашего мозга. - хранение информации. Вот какой удивительной «силой» обладает маленькая система, уместившаяся в черепной коробке объемом около одного литра и весом, немного превышающим один килограмм!

Путь по извилистым тропам

Спустя несколько дней наш отряд подошел к подножию гигантского пика, того самого, который профессор назвал когда-то Вершиной Человеческих Знаний.

Прямо от подножия поднимались отвесные склоны, а вершина оставалась невидимой, скрываясь в плотной завесе густых облаков.

- Это гора тоже ничейная? - спросил я у профессора.

- Нет, почему же. Люди уже много раз пытались взобраться на эти скалы, и некоторые из исследователей достигали немалых высот. Но никто не смог пока овладеть вершиной.

- Может быть, потому, что никто не шел сюда через Ничейную землю?

- А что вы думаете! - оживился профессор. - В самом деле: до сих пор люди шли сюда иными путями. Не исключено, что путь через Ничейную землю окажется самым коротким и самым надежным.

Подъем начался ранним утром и длился несколько дней. Мы исследовали все места, где до нас побывали люди в поисках тех тайников и истоков, в которых рождается мысль. Мы находили следы их стоянок, их коротенькие заметки, в которых описаны труднос'ти, встретившие их на этом пути. Мы пытались привести в систему отдельные факты.

Оказывается, в поисках сущности мысли людьми исхожено немало дорог.

Медленно и скрупулезно наука добывает, исследует и систематизирует факты. Существуют различные методы, позволяющие тем или иным способом «проникнуть» в полную неизведанных тайн сложную мозговую ткань. Тщательно были обследованы под микроскопом ее тончайшие срезы.

Метод этот родился давно, очевидно, вместе с рождением самого микроскопа. Он дал много ценных результатов и помог установить основные области коры больших полушарий, связанные с различными частями тела. И все же нет никакой практической возможности установить этим методом все сложные взаимосвязи нервных волокон мозта прежде всего потому, что они простираются далеко за пределы поля зрения микроскопа и на каждом микроскопическом участке ткани образуют невероятно сложные «узелки». Их пытались «распутать» по-всякому. Вскрыв черепную коробку подопытного животного, ученые производили тончайшие операции пересечения нервных волокон, чтобы, проследив за дальнейшим поведением животного, получить представление о том, какие функции выполняет та или иная нервная связь. В нервные ткани головного мозга животного вводили химические реактивы и электрический ток, чтобы установить функции отдельных центров, не нарушая нервную ткань. А в тех случаях, когда вопрос касался высшей нервной деятельности человека, положение науки становилось особенно трудным. Не имея возможности оказывать воздействие на нервные ткани, физиологи могли использовать лишь те факты, которые предоставил им капризный случай. Мы читаем выводы этих ученых, добытые ценой многих лет напряженной работы. Удивительные, непонятные факты! Нарушилась какая-то связь в человеческом мозгу, и человек вдруг сразу разучился читать. В остальном его мозг работает, как и прежде, но самый обычный текст превратился вдруг в китайскую азбуку, и человек, читавший раньше Гёте, Шиллера и Толстого, теперь не может прочесть строчку из букваря. В других случаях он забывает счет. Иногда больной перестает узнавать мелодии или может читать, но не может писать.

- Очевидно, каждый из этих навыков сосредоточен в каком-то определенном центре, - обращаемся мы к профессору. - Может быть, человек забывает счет потому, что нарушен один какой-нибудь центр?

- Нет, - отвечает профессор. - Каждый из навыков хранится в миллионах различных клеток, он как бы «размазан» по коре больших полушарий, но все эти клетки имеют общую связь. От этих связей зависят наши понятия, ими определяется мысль.

- Как же мы будем искать эти связи? Ведь нет никаких возможностей проникать «внутрь» мозга!

- А мы и не будем пытаться этого делать. Мы будем строить предположения.

Представим себе на минуточку, что в нашем распоряжении есть некое фантастическое устройство, позволяющее полностью обследовать состояние мозга. Такое устройство помогло бы нам совершить немало «чудес». С его помощью мы получили 'бы полный объем информации о состоянии этой сложной системы. Мы могли бы извлечь из памяти все сведения и знания, которые дал ей окружающий мир.

- Это, конечно, было бы неплохо, - уныло отозвался Быстров. - Но такого устройства у нас, к сожалению, нет. Сегодня ночью мне снился кошмарный сон: будто меня подвели к электронной машине, и я должен объснить все, что в ней происходит. Сказали, что от этого зависит все будущее науки. И вот стою я возле этой машины, а в руках нет ничего: ни приборов, ни схем. Я всю ночь ломал голову над мучительной неразрешимой загадкой: как понять устройство этой машины? А когда проснулся, подумал, что весь наш отряд находится в- положении еще более трудном. Перед нами такая «машина», какую еще не создал никто. И тоже нет ни приборов, ни схем.

Трудно... Мы идем по дорогам, не приспособленным для прогулок. А впереди маячат отвесные скалы: дальше идти некуда, путь закрыт.

- Как же быть, профессор?

- Идти вперед, - упрямо твердит профессор. И опять повторяет: - Мы будем строить предположения.

Наконец-то объявлен привал! Мы с наслаждением сбрасываем с плеч тяжелые рюкзаки и навзничь падаем на землю. Настроение скверное: мы не видим путей к достижению цели. А профессор, стараясь вселить в нас уверенность, не устает шутить.

- Ну как, Быстров, вам еще не надоело бродить по извилинам? Я вижу, вы уже совсем повесили нос.

- Но ведь мы уже не первый день ходим вокруг и около и, может быть, никогда не найдем верных путей!

- Отбросьте вы эти мрачные настроения! Лучше помечтаем о том времени, когда цель будет нами достигнута. Давайте на минуточку поверим в то, что нам все-таки удалось создать фантастическое устройство, на экране которого видны все сигналы, циркулирующие в мозгу.

- Стоит ли думать о нереальном, профессор?

- Стоит! Пусть устройства этого пока нет. Но его все-таки можно себе представить. И главное, воображение поможет нам «увидеть», как «работает» мысль. Внимание, внимание! Я включаю прибор! Вы видите на экране, как, непрерывно сменяя друг друга, вспыхивают сложные «узоры» взаимодействующих клеток. Каждая мысль рождает новый «узор». Потому что мысль складывается из самых простых сигналов. Весь вопрос в том, в какой последовательности они чередуются и по каким клеткам они циркулируют. Вы помните установленные на стадионах световые табло? Ведь они доносят нам самую различную информацию о ходе спортивных соревнований благодаря тому, что совершенно одинаковые лампочки моут образовать любой сложный «узор».

Сложнейшие «узоры», охватывающие миллиарды «вспыхивающих» клеток, возникают благодаря совместному действию самых простых сигналов, похожих на те, что помогли нам научить электронную машину декламировать «Медного всадника» и делать грамотный перевод. Несколько десятков таких сигналов, посылаемых в течение каждой секунды, обеспечивают целенаправленность и точность движений, плавное «течение» мысли, полноту зрительных образов и непрерывную речь.

Современная физиология уже умеет различать частоту следования этих сигналов: специальные приборы дают возможность регистрировать биотоки мозга и определять их частоту. Но биотоки дают лишь грубую картину этих процессов. Их можно сравнить с тем сигналом, который возникает на экране прибора, подключенного к телеграфному кабелю. По кабелю может передаваться одновременно огромное множество сообщений, а прибор покажет лишь какой-то суммарный сигнал. Что содержится в каждом из сообщений, в этом сигнале прочесть нельзя. Чтобы понять мозговые коды, нужен какой-то иной, гораздо более тонкий прибор. Очевидно, настанет время, когда люди научатся создавать такие приборы, и те «узоры», которые мы «видели» на нашем воображаемом экране, вспыхнут на реальных экранах и раскроют нам еще много неразгаданных тайн.

Конечно, об этом можно пока лишь мечтать. Но первый решительный шаг уже сделан. Есть методы, позволяющие представить себе эти процессы. Вспомните хотя бы алгебру логики: разве ее правила не дают нам возможности представить сложные «узоры» взаимодействующих клеток в виде математических формул и контактных схем?

И все же не следует думать, что эти методы отражают всю сложную картину процессов. Мозг заключает в себе множество неизведанных тайн. Как взаимодействуют между собой, клетки, образующие эти «узоры»? Ячейка логической схемы связана с остальными ячейками только двумя путями: инженеры говорят, что у нее есть только «выход» и «вход». Она сравнивает сигналы, поступающие к входу, и даег на выходе новый сигнал: ответ «да» или «нет». В мозгу дело обстоит гораздо сложнее. Каждая клетка имеет множество связей. Есть основания предполагать, что характер сигнала, вырабатываемого каждой из клеток, зависит не только от количества приходящих к ней импульсов, но и от того, через какие именно связи они поступают. В зависимости от времени, прошедшего после действия предыдущих импульсов, каждая из связей может также по-разному реагировать на вновь приходящий сигнал. Все эти особенности отличают живую нервную клетку от полупроводниковых ячеек, применяемых в счетных машинах, и создают то многообразие форм обработки информации и ту гибкость, которой не обладает ни одна из современных машин. Предполагают, что процесс сопоставления сигнала в мозгу имеет сложные законы, что в отличие от черно-белой логики электронной схемы нервная ткань имеет более гибкую, «серую», логику, то есть, помимо ответа «да» или «нет», при оценке приходящих извне сигналов в ней существуют и промежуточные ответы типа «да, частично» или даже «и да и нет».

Несомненно, что самое сложное в мире движение должно отличаться целым рядом ни с чем не сравнимых свойств. И в то же время оно наряду со всеми другими формами обладает одним неизменным свойством: чем больше хранит мозг информации, тем больше в нем существует порядка. Без него наш мозг уподобился бы огромному книгохранилищу, в котором без всякой системы сложены сотни миллионов самых разнообразных томов. Привлечение необходимых нам сведений было бы таким же безнадежным делом, как отыскание нужной справки, находящейся на неизвестной странице одной из сотен миллионов в беспорядке уложенных книг.

Эти сведения хранятся в огромном множестве связанных клеток, а вовсе не в извилинах, как думали раньше. Ну, а почему же все-таки в мозгу существуют извилины? Может быть, теперь, когда картина «движения мысли» стала для нас более или менее ясной, мы сможем оценить их роль? Как вы думаете, можно ли судить по количеству извилин о степени умственного развития?

- Странный вопрос! - возразил я профессору. - Вы же сами только что утверждали, что мысль рождается взаимодействием клеток.

- Ну, а все-таки почему существуют в мозгу извилины? Неужели случайно? Едва ли в таком совершенном устройстве, как мозг, природа могла допустить неоправданную вольность. Может быть, все-таки есть в них какая-то необходимость? Может быть, именно информация поможет нам ответить на этот вопрос? Ну, кто из вас отважится строить гипотезы? Думайте, думайте! В конце концов «шевелите извилинами», если это поможет вам найти ответ на вопрос.

- По-моему, все объясняется просто, - начал я после минутного размышления. - Вы говорили, что в процессах мышления участвуют клетки коры больших полушарий. Мне это представляется так: чем сложнее мысль, тем сложнее «узоры», тем больше клеток должно быть охвачено связью. Кроме того, связь должна быть достаточно «гибкой»: когда в мозг поступают новые сведения, в нем должны возникать новые связи, а старые должны изменяться или совсем исчезать. Без этого человек не мог бы усваивать новые истины: увидев однажды, что Солнце прячется за горизонтом, он уже никогда не мог бы отказаться от мысли, что именно Солнце вращается вокруг Земли. В детстве мы все представляем себе мир как-то иначе, а потом эти представления исчезают, и новые связи, заняв их место, позволяют нам глубже понять законы природы. У одних эти связи изменяются быстро, у других - медленно, а третьи, усвоив набор азбучных истин, всю жизнь опираются только на них. Очевидно, именно гибкостью и сложностью связей определяются способности человека, глубина его мыслей, развитие ума. Один может связать биологию с математикой, другой не способен решить задачу, в которой надо сделать больше двух действий.

- Кстати, я хотел бы подтвердить ваши соображения одним любопытным фактом, - сказал профессор. - Вы, очевидно, читали о том, что физиологи пытались измерить энергию, которую расходует мозг? Результаты, которые они получили, казались им весьма странными: мозг расходует одинаковое количество энергии и во время решения сложной задачи и во время безмятежного сна. Получается, что расходуемая мозгом энергия не зависит от степени «напряжения мысли». Дать этому четкое объяснение не удавалось. Единственный вывод, который можно было сделать, заключался в том, что мысль связана не с энергией, а с чем-то другим. С чем же?

- С информацией! - в один голос откликнулись все члены отряда.

- Чудесно! - улыбнулся профессор. - Я вижу, что в этом вопросе у нас полное единодушие. И всетаки хотелось бы разобраться подробнее: почему же все-таки энергия остается всегда постоянной? Кто сможет дать этому объяснение?

Несколько минут царило молчание.

- Ну хорошо, - снова заговорил профессор. - Я попытаюсь подсказать вам путь. Прежде всего давайте подумаем, на что расходуется энергия, которую потребляет наш мозг. Очевидно, в нем существует движение. Как оно происходит?

- Кажется, уже понял, - произнес Быстров. - Все наши знания - это модели того движения, которое происходит вокруг. Мозг превращает его в движение импульсов, бегущих по тем самым «узорам» клеток, которые нам помог увидеть наш фантастический экран. Значит, в коре больших полушарий непрерывно циркулируют импульсы. Каждый из них обладает незначительной мощностью, но ведь существует огромная масса «моделей»: все вместе они расходуют 25 ватт. До тех пор пока существует это движение, в нашей памяти сохраняются образы и понятия - весь огромный багаж, приобретенный за много лет.

Теперь представим себе, что происходит в «моделях», когда человек решает задачу. Большинство из них не участвует в этом процессе: в них по-прежнему циркулируют импульсы, сохраняя ту же «модель». Но в один из «узоров» поступает новая информация: условия задачи, которую надо решить. Новая информация проходит сложную обработку: она сопоставляется с «моделями», в которых есть правила и приемы, применяемые при решении подобных задач. Конечно, этот процесс требует определенной энергии. Но по сравнению с энергией всей огромной массы «моделей» величина ее так ничтожна, что заметить ее практически невозможно. Поэтому, измеряя мощность во время решения или после того, как задача уже решена, мы получим одно и то же значение - 25 ватт.

- Прекрасно! - сказал, потирая руки, профессор. - Жаль, что ваши слова не слышали те, кто боится проводить аналогии между процессами в мозгу и в электронной машине. Кстати, могу добавить, что «модели движения», о которых вы говорили, психологи называют «функциональной структурой». Но дело, конечно, не в термине. Для психологов функциональная структура - это нечто весьма отвлеченное: понятия, связанные воедино, цель логических построений, концепция мыслей. А для нас с вами - это «узор» связанных клеток. Пожалуй, самым наглядным примером может служить стихотворение, заученное наизусть. Прозвучало случайно знакомое сочетание - «поздняя осень» - и сразу потянулась цепочка нанизанных в памяти слов: «...грачи улетели, лес обнажился, поля опустели» - и так до самого последнего слова. Почему эти слова так прочно «сцеплены» в нашей памяти? Потому что клетки, в которых хранится это стихотворение, связаны между собой. Стоило лишь одному случайному слову «оживить модель» воспетой Некрасовым осени, и вся «структура» всплывает в памяти: слова «тянутся» одно за другим. А попробуйте произнести эти слова в обратном порядке. Ну как? Не выходит? Почему? Ведь все эти слова хранятся у вас в памяти. Но между ними есть определенные связи. А такой структу_ ры, где слова следуют в обратном порядке, в вашей памяти нет. Надо создать новые связи, для того чтобы вы могли так же легко произносить «наизнанку» эти стихи. Однако я слишком увлекся и не дал Быстрову закончить мысль. Кажется, мы собирались объяснить природу извилин?

- Сейчас попытаюсь. Мы уже отметили, что кора больших полушарий образована определенным количеством клеток, что по ним циркулируют импульсы. Так возникают «узоры», от которых зависят наши понятия и представления, весь ход наших мыслей. Новые знания рождают новые представления - «узоров» становится все больше и больше. Но ведь может наступить и такой момент, когда будут «израсходованы» все имеющиеся клетки. А новые знания требуют новых «узоров». И тогда эта удивительная система начинает сама «достраивать» свою память. Подобно тому как регулярная спортивная тренировка способствует развитию клеток в мышечных тканях, «тренировка мозга» приводит к появлению новых «ячеек памяти» в тех центрах, в которых накопилось особенно много сведений. Но как разместить эти новые клетки? Ведь объем ограничен непроницаемой оболочкой. Значит, надо увеличить поверхность, сохранив прежний объем. В технике таких задач существует сколько угодно. Например, в самолетостроении. Объем диктуется летными качествами самолета, а для охлаждения мотора требуется большая поверхность. Тогда на поверхности делают гофр. Так же, как в трубке противогаза. И извилины в мозгу - это тоже своего рода «гофр».

- Ну что ж, - произнес профессор, - сравнение с гофром довольно-таки оригинально. Мне остается только привести в подтверждение этой гипотезы некоторые факты. Наука давно пыталась найти объективные показатели, позволяющие оценить развитие мозга. Существуют таблицы, в которых приводится вес мозга многих великих людей. Таблицы показывают, что судить о степени развития мозга по его весу нельзя. Да это и понятно: ведь вес определяется всей массой мозга, а «модели движения» образуются только в клетках верхнего слоя - коры больших полушарий. Вот если бы удалось оценить всю площадь этого слоя с учетом всех существующих в мозгу извилин, кто знает, может быть, между этой площадью и умственными способностями обнаружилась бы вполне очевидная связь.

Где хранятся ключи?

Пока профессор с Быстровым строят свои гипотезы, мы с вами, читатель, обсудим некоторые факты. Ведь многие из них столь необычны, что их не такто легко осознать.

Мы уже давно привыкли измерять энергию или мощность и хорошо себе представляем, что можно сделать с помощью 5·109 ватт, которые будет вырабатывать Красноярская ГЭС. Однако гораздо труднее представить себе, что могут сделать 1015 бит информации. Мы знаем: надо построить гигантский город, чтобы сохранить эти биты в искусственной памяти.

Автоматика телефонной сети, рассчитанной на 100 миллионов абонентов, использует только 109бит. А ведь такая сеть может обслуживать несколько больших государств! 105 бит будет достаточно для четкой работы всех звеньев и механизмов сложного промышленного комбината. Здесь каждый сигнал имеет свое назначение, свой «адрес», по которому он будет направлен в соответствующий канал. Строгий порядок движения и четкое взаимодействие звеньев существуют в любой системе, хранящей большое количество информации. Но ни одна из них не может соперничать с мозгом, хранящим информацию в количестве 1015 бит.

Мозг использует огромное количество сведений, приходящих из внешнего мира, но далеко не вся информация превращается в мысль. Мимо сознания проходят сигналы, управляющие дыханием и зрачком глаза, движением рук при ожоге или уколе, глотанием пищи и положением тела во время ходьбы. Природа проявила здесь поразительную дальновидность: если бы наше сознание принимало участие в каждом из этих процессов, все наши заботы и интересы свелись бы к мыслям о том, как надо двигаться или дышать.

Мы можем сознательно задержать дыхание или ускорить ходьбу. Зато пищеварение и циркуляция крови не подчиняются нашей воле. Эти процессы управляются по специальным каналам связи, где наряду с командами нервной системы принимают участие и химические сигналы, приходящие от различных желез.

Каким же сигналом «пробуждается» мысль? Сильная боль всегда привлекает наше внимание. Может быть, мысль способен пробудить только сильный сигнал? Но почему же в едва уловимых ударах пульса опытный врач может обнаружить болезнь? Очевидно, даже этот слабый сигнал способен привести в действие те «модели движения», которые помогают врачу, сопоставив различные признаки заболевания, установить точный диагноз и найти средства против болезни. Значит, не от силы сигнала зависит «пробуждение» мысли. А от чего же? Может быть, аналогия с электронной машиной поможет нам найти ответ на этот вопрос?

В машине обработка сигналов осуществляется по этапам. Первый - этап «сортировки». Здесь все сообщения подвергаются специальной проверке, в результате машина определяет, в какой из каналов направить каждый сигнал. Канал доставит его по нужному «адресу», к тем ячейкам памяти, где хранятся «модели движения», необходимые для дальнейшей обработки сигнала. По пути к этим «моделям» сигнал пройдет через «центры включения памяти», и они «оживят» те «модели», которые будут участвовать в этом процессе. Если в системе «памяти» используется магнитофонная запись, значит «центры включения» подадут команду мотору, а он своим равномерным движением приведет в действие все, что хранит в себе лента, будь то ария или симфония, процесс, зашифрованный двоичными числами, или научный доклад. А когда «модель» «ожила», она посылает сигнал за сигналом. Сопоставляя эти сигналы с новыми сведениями, можно сделать «модель» более полной и более точной. Так сопоставлением хранимых памятью данных с вновь пришедшими сведениями рождается новая информация, ради которой мы создаем и заставляем работать сотни различных машии.

А мысль? Разве она не проходит те же этапы? Разве новые понятия и представления не результат сопоставлений того, что было известно раньше, с тем, что удалось узнать? Если кто-нибудь вновь попытается вас убеждать, что нельзя искать единых законов движения для машины и мозга, приведите им лишь некоторые факты. Расскажите о том, что в мозгу, так же как и в машине, существуют центры «включения памяти», что канадский профессор Пенфилд недавно сумел «оживить» массу давно забытых пациентом событий, возбуждая центры, расположенные в области височных долей. Расскажите о том, что в машине существует несколько ступеней памяти: промежуточные результаты хранятся недолго, а окончательные выводы поступают в систему длительной памяти. А Пенфилд нашел те же ступени в мозгу: давними воспоминаниями управляют височные центры, а «молодыми моделями» ведает отдельный центр - так называемый аммониев рог. Да и личный ваш опыт подтверждает существование этих ступеней. Едва лишь вы покинули площадь вокзала, как в вашей памяти уже стерся номер вагона, в котором вы ехали несколько суток. Зато множество цифр, составляющих таблицу умножения, вы, очевидно, будете помнить всю жизнь. Может быть, сведения поступают в систему длительной памяти после того, как они повторились несколько раз? Может быть, именно потому вам приходится несколько раз возвращаться к одним и тем же разделам учебника, следуя мудрой поговорке: «Повторение - мать учения»?

Вопреки утверждениям тех, кто пугает нас тенью механицизма, аналогии эти становятся все глубже и глубже. Очевидно, любой системе, способной воспринять и обработать огромное количество сведений, все эти звенья так же необходимы, как необходимы нагреватель и холодильник любому типу машины, превращающей тепло в работу.

Даже центр предварительной «сортировки» сигналов уже обнаружен современной наукой, изучающей мозг. Ученик великого Павлова академик Анохин нашел, что эта способность присуща особой области мозга, образующей «сетчатую структуру». Все сведения из внешнего мира поступают прежде всего в эту область, а она посылает «команды» в кору больших полушарий; причем в зависимости от характера приходящих сюда сигналов меняется и характер команд.

Разумеется, от первых, весьма грубых и поверхностных аналогий до полной картины протекающих в мозгу процессов предстоит еще долгий и трудный путь. Неясного остается так много, что едва ли на каждую сотню вопросов найдется хотя бы один толковый ответ. Но уже в самой постановке этих вопросов виден совершенно новый подход. Мысль, которая в течение тысячелетий оставалась неуловимой, обретает четкие очертания, поддается анализу, распадается на простейшие элементы.

Шаг за шагом, от предположений к фактам, от фактов к новым предположениям, наука проникает в невидимые каналы, где происходит самое сложное в мире движение.

«Основы воображения»

- Элементы современных машин идиотски логичны! - сказал на одной из конференций видный зарубежный специалист в области кибернетики доктор Шмидт.

Заявление это может показаться несколько странным. Мы с вами восхищаемся достижениями электронной вычислительной техники, создавшей множество остроумных логических схем, а доктор Шмидт отзывается о них с чувством неудовлетворенности и досады.

Может быть, слова доктора Шмидта следует расценивать как не слишком удавшийся афоризм? В самом деле, если машина действует строго по правилам логики, то при чем здесь «идиотизм»? Да и вообще, не будь алгебры логики, не было бы и электронных машин!

Все это так. Но, помимо электронных машин, существует на свете еще и другая «машина» - человеческий мозг. Свойства мозга усиленно изучаются в последние годы. Изучение идет по пути аналогий: взаимодействие ячеек в логических схемах машин сравнивается с тем, что происходит в коре больших полушарий.

Вот здесь-то и возникает грустный вывод об «идиотской логичности» современных машин. Оказывается, природа создала логику гораздо хитрее. Мы даже не можем понять всех ее тонкостей: мы только предполагаем, что работа клеток мозга основана не на черно-белой логике, а на какой-то более сложной. И, может быть, разгадав мозговые коды, мы откроем в них столько нового и интересного, что современные схемы покажутся нам детской игрушкой. Самолет братьев Райт тоже казался когда-то чудом технического совершенства. А теперь? Ведь каждому ясно, что это была всего лишь неуклюжая летающая этажерка! Как ни сложны те задачи, которые решаются с помощью электроники, все же машина остается машиной. Если есть все необходимые исходные данные, она решит энное количество уравнений и найдет нужный ответ. Но при этом она строго придерживается одного правила, известного каждому школьнику: чиело неизвестных не должно превышать числа уравнений. Стоит лишь исключить хотя бы одно из необходимых данных, и самая сложная машина «остановится в нерешительности» и вынуждена будет «признаться» в своем бессилии, послав сигнал о прекращении действий.

По-иному работает мысль человека. Там, где отсутствует полный комплекс начальных сведений, человек может строить предположения. Там, где отсутствуют все- признаки сходства, человек идет путем аналогий, узнавая и сравнивая отдельные черты. Приняв предположительное решение, человек может действовать и добиваться успеха. Действуя, он получает новую информацию, позволяющую в одних случаях предположения превращать в доказательства, в других - отбросив прежние предположения, искать новых решений.

Вот почему, сравнивая широчайшие возможности мозга с ограниченными возможностями электронной машины, доктор Шмидт и приходит к выводу, который на первый взгляд кажется парадоксальным: элементы современных машин «идиотски логичны». Он предлагает создать в логических схемах машины «элемент беззаботности», который должен позволить машине «строить предположения» и «принимать решения наугад». Но в «беззаботности» ли тут дело? Скорее наоборот: не беззаботности, а строгости недостает современной машине.

Строгость эта должна проявляться в том, что ереди огромного количества сведений машина должна уметь отобрать только ту информацию, без которой нельзя обойтись. Но как можно достичь этой строгости?

Надо прежде всего понять, как работает мозг. Если до сих пор в процессах, происходящих в машине и в мозгу, мы старались найги черты сходства, то теперь нужно так же детально изучить все различия. Конечно, можно сказать, что процессы, происходящие в мозгу, «являются высшей формой движения», и потому, дескать, они гораздо сложнее того, что происходит в цепях электронных машин. Но это ни на йоту не приблизит нас к решению указанных проблем. В чем эта сложность? Где она зарождается? Ведь, кроме клеток, передающих друг другу сигналы, никаких «секретов» в человеческом мозгу нет. И вся сложность «высшей формы движения» порождается именно этими клетками. Все зависит от характера взаимодействия, от многообразия и гибкости связей. Связь между клетками может меняться во времени, она зависит от предыдущих сигналов. У клетки есть множество связей, и они взаимодействуют между собой. А доктор Шмидт предполагает еще более сложную картину процессов: он считает, что связи эти подвержены флуктуациям - случайным изменениям, влияющим на каждый сигнал.

Конечно, это только гипотеза. Но в свое время гипотезой были и те флуктуации, которым подвержены молекулы газа. А опыты Свидберга и Смолуховского превратили эту гипотезу в строгий научный факт. Может быть, и предположение Шмидта окажется вполне справедливым. Но объяснит ли оно всю сложность происходящих в мозгу процессов? Можно ли, следуя утверждениям доктора Шмидта, считать, что именно флуктуации связей являются «основой воображения и инициативы», что именно они позволяют нам «строить предположения» и «принимать решения наугад»?

Чтобы ответить на этот вопрос, лучше всего вновь обратиться к опыту инженеров. Ведь они уже попытались создать такую электронную схему, в которую введен тот самый «элемент беззаботности», который, по мнению доктора Шмидта, должен излечить от «идиотизма» все будущие поколения «думающих» машин.

Представьте себе вычислительную машину, которая получает множество сведений о составе веществ, участвующих в каких-то процессах, о давлении и температуре, существующих в различных звеньях системы, а в ответ выдает команды о включении в реакцию новых веществ. Как она это делает? Тем, кто 28э хорошо знаком с методами обработки информации, уяснить общую идею этой машины довольно легко. Превращение веществ в ходе реакции, изменение давления, температуры - все эти данные проще всего представить в виде каких-то непрерывно меняющихся сложных кривых. Специальные датчики превращают эти процессы в изменения тока, а ток воздействует на схемы электронных машин. Получая такие сигналы, машина «дробит» их на множество разных ступенек - ведь теорема Котельникова позволяет разбить на ступеньки любой сложный сигнал.

Каждой ступеньке присвоен номер в соответствии с ее высотой. Номер выражен двоичным кодом, двоичные числа, переведенные в импульсы, поступают в соответствующие каналы, где их складывают, умножают и делят в той последовательности, которая задана специальной программой. В результате всех операций машина дает четкие и обоснованные команды: для того чтобы реакция протекала нормально, нужно в такой-то момент времени добавить столько-то граммов такого-то вещества. Но вот реакция усложнилась, появились какие-то новые компоненты, неизвестных стало больше, чем уравнений, - расчеты зашли в тупик. Что делать? И тут машина начинает «строить предположения». «Неизвестно, какое количество вещества А нужно ввести в следующую секунду? Ну что ж, попробуем ввести один грамм». И машина посылает это новое сообщение в дополнение к тем, которые она получила от датчиков.

Мгновенный процесс обработки. Все кривые, превращенные в импульсы, сопоставляются между собой, грамм вещества А уже учтен во всех звеньях сложного «бухгалтерского аппарата», и спустя несколько мгновений получен ответ: если ввести только один грамм, через 5 секунд реакция прекратится. «Ну что ж, - «рассуждает» машина, - если мало грамма, можно ввести килограмм. Что будет тогда?»

Снова загремели «счеты» во множестве «бухгалтерий», и снова ответ получился неутешительным: если ввести килограмм вещества А, то спустя две секунды не хватит вещества В и С. «Ладно, - «рассуждает» машина. - Раз грамма мало, а килограмма много, значит надо искать что-то среднее». И посылает новый сигнал.

Конечно, процесс этот на практике выглядит вовсе не так. Просто с какого-то момента вычислений в непрерывный поток информации вводятся случайные величины от специального генератора, вырабатывающего этот случайный сигнал.

Создатели электронных машин присвоили этому методу звучное имя: они назвали его «методом Монте-Карло». Не подумайте, что Монте-Карло - это имя и фамилия изобретателя. Нет, это всего лишь маленький городишко в княжестве Монако, стяжавший себе мировую славу множеством игорных домов. А вспомнили о нем потому, что «беззаботность» машины, полагающейся на случайность, весьма родственна беззаботности тех, кто с помощью рулетки испытывал в Монте-Карло свою судьбу. Правда, есть тут и одно существенное различие. Неудачный бросок рулетки мог иногда стоить целого состояния. А машина ничем не рискует: она попросту оставляет без внимания все неудавшиеся «броски».

Итак, те самые флуктуации, которые так импонируют доктору Шмидту, осуществлены в этой машине: специальный генератор вводит в общий поток информации случайный, флуктуирующий сигнал. Иногда это помогает машине решить те задачи, которые раньше считались неразрешимыми. Но можно ли говорить, что машина проявляет «творческую инициативу» при решении этих задач?

Эшби подсчитал, что для отыскания методом Монте-Карло двух наилучших ходов для 10 черных и 10 белых шахматных фигур машина, производящая миллион операций в секунду, затратит миллиард миллиардов лет!

Многовато... И на первый взгляд не совсем понятно: почему машине, обладающей такой громадной скоростью операций, требуется так много времени? А причина-то опять-таки в «идиотской логичности».

Шахматы отличаются громадным многообразием вариантов. После первых 10 ходов матча количество всевозможных позиций выражается внушительным числом: 165 518 829 100 544 000 000 000. Машина будет с упорством фанатика просчитывать множество всевозможных позиций, прежде чем выберет из огромного числа возможностей один наилучший ход. В том-то и беда, что она обладает лишь «идиотской» логикой автомата, все ходы для нее равноценны до тех пор, пока каждый из них не оценен суммой очков. Ее можно сравнить с резвым младенцем, которому необходимо потрогать все имеющиеся в комнате предметы для того, чтобы убедиться, что шило колется, бритва режется, а горячий чайник оставляет ожоги и причиняет боль.

А опытный шахматист поступает иначе. Он лишь мимолетным взглядом окинул всю ситуацию и, отбросив сразу тысячи и миллиарды вариантов, уже сосредоточил свое внимание на двух или трех.

Как ему это удается? Почему его цепкая мысль сразу находит наиболее перспективные цели? Психологи говорят: «Интуиция». А математики разводят руками: «Логику можно выразить формулой, а интуицию пока еще нет». Ах, если бы мы могли это делать! Очевидно, мы бы уже давно отказались от любых «идиотски логичных» машин. Мы избавили бы «память» и каналы связи машины от огромного количества избыточных сведений, потому что машине не нужно было бы помнить, сколько очков дает каждая из 165 518 829 100 544 000 000 000 позиций, для того чтобы выбрать из них только одну.

«Эврика!» - кричал бегущий по улице Архимед, радуясь осенившей его гениальной догадке. Этот легендарный эпизод часто вспоминают теперь создатели электронных машин. На повестку дня стал вопрос о создании «эвристической» электронной машины, которая тоже могла бы воскликнуть: «Эврика!», открыв какой-нибудь новый, не предусмотренный программой закон.

Как строить логику этой машины? Да и в логике ли тут дело? Может быть, не логика, а интуиция привела Архимеда к выводу, что погруженное в воду тело должно терять в весе как раз столько, сколько весит вытесненная этим телом вода?

Многообразная творческая мысль человека имеет свои еще не познанные законы, а искусственные «модели мышления» могут лишь подсказать физиологам и психологам, где скрывается истина и какими следует идти путями, чтобы скорее приблизиться к ней. И до тех пор пока логика машин будет строиться на прежних основах, они будут похожи на тех вундеркиндов, которым знание интегрального исчисления не мешает сохранять детскую непосредственность и наивность. Вот когда в человеческом мозгу будут исследованы закономерности, которые пока остаются загадкой, инженеры смогут применить их в своих новых моделях. И чем дальше, тем совершеннее станут эти модели, тем все больше и больше они будут похожи на самую совершенную в мире систему - человеческий мозг. Значит, в конце концов все-таки можно создать неживой искусственный мозг?

Нам с вами предстоит проделать еще один этап восхождения к вершинам знаний, чтобы найти ответ на этот вопрос.

В помощь разуму

- Вот и все, - решительно произнес профессор, когда мы, миновав крутые подъемы, очутились на ровной площадке в окружении отвесных скал. - Можете торжествовать победу: мы достигли рекордных высот.

- Но ведь мы еще не достигли вершины, - возразил я профессору.

- Что делать? - ответил он. - Туда пока еще нет путей. До сих пор мы с вами шли по тем тропам, где хотя бы однажды прошел человек. Будем надеяться, что наука вскоре проложит путь к новым вершинам. А мы с вами достигли сейчас последнего перевала и будем готовиться к спуску. Я предлагаю устроить привал, чтобы торжественно отметить конец пути. Каждый из вас приобрел много нового за время этого путешествия. А поскольку с этих высот можно видеть далекие перспективы, я хочу предложить заглянуть в будущее. Контуры его уже ясно очерчены: вооружившись новыми знаниями, человек будет создавать все больше и больше «умных» машин.

Вместе с развитием техники будет развиваться и теория информации. Ее методы станут более общими и совершенными и смогут применяться с равным успехом и при конструировании специальных каналов связи и при исследовании сигналов, формирующих мысль. Проникая в тайны мозговых кодов, изучив все особенности ячеек мозга - нейронов, человек оценит их преимущества и начнет их использовать в создаваемых им машинах.

И тут возникает естественный и неизбежный вопрос: не наступит ли такого момента, когда машина научится мыслить, как человек? Я хотел бы слышать мнение участников экспедиции.

- Извините, профессор, - сказал Быстров, - но с такой постановкой вопроса я не согласен. Наука уже дала вполне четкий ответ: машина мыслить не может.

- Но хотелось бы знать все-таки: почему? Ведь мы обнаружили много общего между процессами обработки информации в машине и в мозгу. Что же мешает технике, совершенствуя эти машины, приближать их к мозгу? Где тут граница? Я хотел бы, чтобы все присутствующие имели в этом вопросе полную ясность.

Первое сомнение, которое пришло мне в голову, касалось ограниченности функций современных машин. Я подумал о том, что едва ли удастся научить одну и ту же машину сочинять музыку, играть в шахматы, опознавать образы и управлять сложным станком.

Я высказал эти мысли профессору.

- Отчасти я с вами согласен, - произнес он. - Круг действий современной машины не может идти ни в какое сравнение с тем многообразием функций, которые выполняет человеческий мозг. Но мы с вами хотим заглянуть в будущее. Если сегодня разные машины предназначены для различных целей, то завтра, может быть, удастся совместить их в одной?

- Но как будет выглядеть такая машина, если одна только ее память должна занять все здания множества городов!

- Вы мыслите сегодняшними категориями, - возразил мне профессор. - Со временем эта память станет в миллиарды раз меньше. Уже сейчас создаются схемы, в которых ячейками служат не лампы и не полупроводниковые приборы, а отдельные молекулы. Может быть, эти схемы позволят создать искусственный мозг?

- Нет, разумеется, - ответил за меня Быстров.

- А почему? - обернулся к нему профессор.

- Хотя бы потому, что живая клетка - это совсем не то, что ячейка электронной машины.

- А в чем же разница?

- Странный вопрос! - начал вдруг горячиться Быстров. - Клетка живая, она может не только сравнивать и посылать сигналы, она может еще делиться. В ней происходит непрерывный обмен веществ. Это различие между машиной и мозгом является очень существенным, и оно неоднократно отмечалось в литературе. Не понимаю, зачем вы заставляете меня повторять общеизвестные вещи!

- Чтобы вы больше никогда их не повторяли! - сердито ответил профессор. - Какое отношение имеет обмен веществ к вопросу о думающей машине? Ведь мысль-то рождается не веществами, а информацией! А с точки зрения информации что клетка, что ячейка - все едино, потому что и здесь и там существуют одни и те же сигналы «да», «нет». Конечно, живые клетки лучше мертвых ячеек хотя бы потому, что они могут при повреждениях восстанавливать свои свойства. Они могут размножаться, образуя извилины в тех областях мозга, где сведений скопилось особенно много. Все это помогает работе мозга. Вы слышите, помогает, но не является основным. Основное - это сигналы, а те, кто отрицает мыслящую машину на том основании, что в ней нет процессов обмена, попросту не понимают, о чем идет речь!

- Но объясните, профессор, - в тоне Быстрова можно было уловить некоторое смущение. - Вы что же, хотите доказать нам, что машина способна мыслить?

- Я ничего не хочу доказывать, - отрезал профессор. - Я хочу выслушать мнение всех членов отряда. Пока я не слышал веских, обоснованных возражений. Преграды, которые вы пытаетесь ставить развитию искусственной мысли, зиждутся на песке. Вам не нравится отсутствие живых клеток в машине? А кто мешает нам в будущем их ввести? Как только мы разгадаем коды белковых веществ и научимся создавать их в наших лабораториях, мы тут же введем их в наши машины, чтобы использовать все преимущества, которыми они обладают. Тогда вообще будет трудно решить, что же мы называем «машиной», потому что наряду с пластмассами и металлом в такой машине будут работать «детали», сделанные из живого белка.

- По-моему, мы не учли еще одного весьма важного обстоятельства, - вновь вмешался я в разговор. - Вы сказали, профессор, что с точки зрения информации клетка в мозгу и ячейка в машине едины. А как же быть тогда с «серой» логикой? А то, что клетка имеет множество «входов» и «выходов», разве не влияет на процесс обработки сигналов? А то, что связи клеток флуктуируют и в различное время поразному задерживают по времени и ослабляют сигнал? Ведь от этого может зависеть вся суть мозгового кода!

- С этим я готов согласиться, - ответил профессор. - То, что вы отметили, имеет куда более прямое отношение к процессу мышления, чем этот ваш обмен. - Профессор искоса взглянул на Быстрова. - Но ведь это различие ничего не доказывает. Если мы сегодня еще не можем создать таких же связей между ячейками, то завтра мы обязательно их создадим. Так что можно надеяться, что и это различие между машиной и мозгом раньше или позже должно исчезнуть.

- И все-таки мыслить машина не будет! - вновь возразил Быстров. - Даже лучшая из машин-переводчиков не понимает смысла того, что она переводит. Она составляет фразы чисто формально, не вникая в их содержание, отвлекаясь от предметного содержания слов.

- Позвольте! - перебил Быстрова профессор. - А математик, по-вашему, не отвлекается от предметного содержания символов, с которыми он оперирует? А ведь к умению мыслить абстрактно человечество шло многие тысячи лет! И одним из самых больших достижений за всю историю человеческой мысли был тот момент, когда люди поняли, что одними и теми же абстрактными числами можно считать людей, лошадей или количество дней. О том, как трудно было мысленно оторвать числа от конкретных предметов, можно судить по такому факту: в некоторых древних языках в выражениях «5 человек» или «5 пальцев» употреблялось различное слово «пять». А теперь, научившись оперировать с абстрактными числами, человек наделил этой способностью вычислительную машину. Вы считаете, что это лишает машину возможности мыслить? А я с таким же успехом могу утверждать, что она обладает математическим складом ума!

- Но машина решает задачи, данные ей человеком. А мыслить - это значит самому ставить задачи.

- Верно, современные машины этого делать еще не могут. Между прочим, на это обстоятельство особенно часто ссылаются те, кто не желает признать огромных возможностей электронной машины. Но опровергает ли оно «мыслительные способности» этой машины? Нет. Чтобы самостоятельно ставить задачи, надо наблюдать окружающий мир. А машина этого делать не может, потому что все сведения, которые она получает, поступают к ней через специальные перфокарты - простой кусочек картона, на котором обозначен соответствующий код. Значит, перфокарта заменяет машине глаза и уши, осязание и обоняние.

Но ведь можно представить себе и такую машину, в которой есть искусственные органы чувств. Разве нельзя использовать микрофоны для создания искусственных органов слуха? Разве нельзя на специальной трубке получить картину внешних событий, точно так же как на сетчатке нашего глаза? Да, собственно, все это уже создано, и нет ничего фантастического в том, что машина может видеть, слышать и осязать. Созданы машины, которые не только «видят» предметы, но и умеют их «сравнивать» и «узнавать».

- Ну хорошо, мы действительно можем представить себе машину, снабженную искусственными органами чувств. Но ведь органы чувств - это еще не сами чувства. Разве может существовать «мыслящая» машина, совершенно лишенная чувств?

- Может. Природой уже создана совершенно бесчувственная думающая «машина». Это наш мозг. Он состоит из тканей, неспособных чувствовать даже боль. Он лишь фиксирует различные чувства, и потому ничто не мешает нам создать машину, которая в ответ на внешние события будет вырабатывать «сигналы радости» или «сигналы гнева» и направлять их в соответствующий канал.

Итак, мы снабдили машину всем, что необходим мо для самостоятельности и связи с миром, и снова задаем тот же вопрос: будет ли «мыслить» такая машина?

Несколько минут царило молчание: кажется, мы исчерпали все аргументы.

- Ну так как же? - подзадоривает профессор. - Возразить больше нечего? Выходит, мы признаем «машинную мысль»? А вместе с ней и те ужасы «машинного века» и господства машин над людьми, о которых так любят писать на Западе? Так или не так? Ну, что же вы молчите, Быстров? Ведь вы утверждали, что вопрос не требует обсуждения, потому что он и так достаточно ясен. А выходит, что ясности-то пока нет. В процессах обработки информации в машине и в мозгу, безусловно, есть много общего, а по мере развития техники это сходство будет неизменно расти. Значит, в конце концов машина научится мыслить?

- Нет, профессор! - решительно ответил Быстров. - Я, кажется, понял, к чему вы клоните. Вы хотите доказать нам, что мы ищем разницу между машинной и человеческой мыслью совсем не там, где ее нужно искать. Мы все время сопоставляли процесс обработки информации. Но мысль - это не только процесс. Мысль - это продукт. Этот продукт формируется в неразрывной связи с теми условиями, которые его порождают. Мысль человека не даруется ему свыше и не возникает в неизведанных глубинах его собственного «я». Человеческое сознание, словно зеркало, отражает все конкретные условия жизни, общественные отношения, историческую эпоху...

- Вот именно, дорогой коллега, - сказал профессор и многозначительно потряс указательным пальцем. - В этом вся суть. Если уж вы решили доказывать, что есть принципиальная разница между человеческой мыслью и «мыслью» машины, то искать ее нужно именно здесь.

Я могу привести наглядный пример: роман Марка Твена «Янки при дворе короля Артура». Вы помните, сколько забавных курьезов произошло с этим янки? А какова их причина? Вполне очевидно: образ мыслей современного янки не соответствовал тем понятиям, которые господствовали при дворе средневекового короля.

А не случалось ли вам когда-нибудь в жизни разговориться «по душам» со случайным попутчиком? Впрочем, это случается с каждым: долгий путь располагает людей к откровенности. Пассажиры поезда обычно с полуслова понимают друг друга. А почему? Потому что, хотя у каждого из них есть много своих, личных переживаний, радостей и печалей, в целом их образ мыслей во многом сходен. Ведь все они - дети одной эпохи, граждане одной страны. С иностранцем дело будет сложнее. Вам не сразу удастся уяснить себе его взгляды на многие вещи, даже в том случае, если вы в совершенстве владеете его языком.

А теперь поставьте себя на минуточку в положение героя произведения Марка Твена. Его янки попал к королю Артуру, а вы повстречались, к примеру, с людьми эпохи Петра. Быть может, вам удастся даже найти среди них своего далекого предка. Но сколько бы вы ни делились с ним своими заботами, связанными с работой или учебой, он не сможет понять почти ничего. А ведь язык с тех пор изменился не так уж сильно! Изменились условия, а значит, и образ мыслей. Да что говорить о Петровской эпохе? К сожалению, и в нашей жизни можно встретить такие примеры, когда из-за этих непрерывно меняющихся условий и взглядов даже с собственными родителями не удается найти общего языка.

Надо понять главное: мысль каждого человека находится в неразрывной связи с историческим опытом всего человечества, а мысль человечества включает в себя безграничное разнообразие мыслей самых различных людей.

Только диалектическое понимание социальной природы человеческого мышления позволяет правильно оценить истинные возможности искусственного мозга и вместе с тем найти те ограничения, на которые наталкивается всякая попытка свести к элементарным «машинным» представлениям человеческую мысль. Можно, например, взяв за основу утверждение Эшби, всячески развивать «умственные способности» машины, обучая ее находить из многих возможностей оптимальный выбор. Но в непрерывном многообразии человеческой жизни само понятие «оптимальный» зависит от очень многих условий и прежде всего от тех социальных условий, в которых рождалась и крепла человеческая мысль. С точки зрения капиталиста оптимальным будет любое решение, приносящее прибыль, с точки зрения коммуниста оптимальными будут лишь те решения и поступки, которые принесут пользу обществу и приблизят к нам коммунизм. Вог почему формулировка Эшби не отражает полностью степень развития ума и сущность мысли - ведь понятием «оптимальный выбор» он пытается подменить все глубочайшие истоки, обусловленные социальной природой и классовой сущностью сознания.

Мысль рождается в непрерывном взаимодействии человека с окружающим миром, с миром предметов, идей и явлений, с миром событий и орудий труда, а главное, с миром, людей. Именно этой неразрывной диалектической связи с внешним миром никогда не достигнет самая совершенная будущая машина хотя бы потому, что с самого момента пробуждения ее «сознания» будет отсутствовать такой простой, но действенный фактор, как полученная при первом же необдуманном шаге огромная шишка на лбу. С самых же первых шагов ее самостоятельного «мышления» и в течение всей ее «жизни» ей будут чужды все человеческие критерии, рожденные общением с родными и близкими, с друзьями и сотрудниками, с окружающей человека социальной средой.

Оторванная от этой среды, машина сможет воспринимать и обрабатывать поступающую извне информацию, сможет даже «мыслить» как-то по-своему, так как форма процесса будет все больше приближаться к совершенной форме человеческого мышления по мере развития этих машин. Но содержание «мыслей» машины по-прежнему не будет иметь ничего общего с содержанием человеческой мысли, и едва ли стоит затрачивать слишком много творческих сил и фантазии для того, чтобы в результате этих усилий родился однобокий и ограниченный «думающий урод». Надо обладать всем комплексом присущих человеку качеств, для того чтобы научиться мыслить, как человек.

Нет, не такое будущее ожидает вычислительную машину. С каждым годом она будет становиться все компактней и совершенней, все шире и многообразнее будет круг решаемых ею задач. Но предлагать машине эти задачи будет по-прежнему создавший ее человек. В деле дальнейшего развития техники и неуклонного экономического прогресса машине отведено вполне определенное и чрезвычайно важное место: место одного из первых помощников человека - орудия его умственного труда.

Этим машинам предстоит избавить мысль и внимание человека от однообразных и утомительных действий, наблюдений и вычислений для вольного полета фантазии и вдохновенного творческого труда.

В ДОБРЫЙ ЧАС! (Заключение)

Вот и окончен путь. Позади Новый Город, где информация служит жителям верную службу, мир молекул, ближний космос и далекие звездные миры. Мы шли за волшебным колечком, а оно вело нас неожиданными путями, и потому таким длинным и утомительным оказался наш не совсем обычный маршрут.

Наконец-то мы снова на родине! Смотрите, нас встречают друзья и знакомые, им не терпится услышать наши рассказы, узнать, как же все-таки она выглядит, загадочная Ничейная земля.

Ничейная земля? А что это такое? Ах да, ведь мы же действительно собирались попасть на Ничейную землю. Но вот какая вышла история: нам пришлось побывать чуть ли не во всех уголках вселенной, но нигде нам не встретилось никакой Ничейной земли. Всюду только наш мир, полный движения и событий. И теория, с которой нам довелось познакомиться, изучает вовсе не Ничейную землю, и информация - тоже частица этого мира, мира, в котором мы с вами живем.

Что ж, придется до конца раскрыть карты. Ничейной земли действительно нет. Это всего лишь вымысел, образ, который в минуту раздумья родился у Бриллюэна, а затем помог автору этой книги построить несложный сюжет.

Так что же тут вымысел, а что правда? Может быть, все, что открыла эта теория, это всего лишь фантазия автора или ученых? Может быть, информации вовсе и нет в природе, как нет, например, Синей птицы, как нет и не будет на карте никакой Ничейной земли?

У того, кто внимательно читал эту книгу, едва ли возник подобный вопрос. Много вымышленных событий произошло на ее страницах. Нет на свете Нового Города, нет его жителей, так же как нет ученых, которые ночевали в палатке, что стояла под небом Ничейной земли. Но все, что рассказано об информации, соответствует точным научным данным, и, хотя в новой теории есть немало спорных вопросов, я старался, чтобы читатель уяснил себе ее смысл. Правда, и здесь приходилось порой призывать на помощь фантазию. Без нее я не смог бы сделать наглядными новые методы и приемы, увязать все известные науке факты в единую цепь. Мне хотелось дать читателю ясное представление не только о проблемах, которые решены наукой сегодня, но и о тех, которые ей предстоит решить. Главное уже свершилось: наука нашла новую меру, такую же общую, как энергия, пригодную для оценки любых форм движения, - меру его упорядоченности.

Быть может, не все согласятся с этими взглядами: многие еще и сейчас считают напрасной затеей поиски единой сущности энтропии, помогающей вег-всех явлениях мира найти общую связь. Против них восстают научные факты. Если сегодня фактов еще недостаточно - завтра они умножатся во сто крат. Это, как говорится, вопрос времени, а время вершит свой суд беспристрастно. Никто не может навязать ему свою волю. То, что сегодня кажется значительным, неоспоримым, завтра может исчезнуть, словно сдутая ветром пылинка, потому что время всему укажет должное место, поможет понять, какую истину можно считать великой, а что на поверку оказалось просто смешным. В хаотичное броуново движение время вносит свой неизменный порядок, и многому из того, что, растворяясь в сутолоке повседневных событий, остается пока незаметным, суждено превратиться в будущем в сияющий переливами радуги монолитный кристалл.

Ньютон однажды сказал:

«Я не знаю, за кого меня принимает мир. Себе самому я кажусь мальчиком, который играет на берегу моря и радуется, если найдет гладкий камешек или красивую ракушку, в то время как великий океан истины лежит совершенно неисследованный прямо передо мной».

С тех пор не раз научные экспедиции шли на штурм этого океана, но нет предела движению к истине, нельзя исчерпать океан до дна. Теперь под знаменем информации вышли в плаванье новые корабли. И если этой книге суждено стать одной из первых для тех, чьи дерзания откроют им новые горизонты, автор будет полностью вознагражден за взятый на себя труд. Я приветствую всех, кто решил идти к этой цели. Трудной, но увлекательной будет их дорога. Через теорию вероятностей, теорию случайных процессов, через статистическую физику и теорию связи проложат они свой новый маршрут. Ясный ум и горячее сердце помогут им найти истину. Пожелаем же им успехов. Пусть идут все дальше и дальше...

В добрый час!

В добрый путь!

1 Филд Сайрус - промышленник и акционер, по инициативе которого была организована экспедиция, проложившая телеграфный кабель между Голландией и Ньюфаундлендом.

2 Легко убедиться в этом, включив долгоиграющую пластинку, рассчитанную на 33,3 оборота в минуту, на скорость 78 оборотов в минуту. Благодаря этому свойству роль Буратино и папы Карло в детских радиопередачах может исполнить один и тот же актер.

3 Открытие планеты Нептун было предсказано французским ученым Леверье, который вычислил ее орбиту по законам Ньютона.

4 Это простое правило обусловлено тем, что расчет количества информации производится с помощью логарифмов.

5 И не только в фантастическом Новом Городе. В реальных городах разные ученые, рассуждая о природе информаций и энтропии, приходят к выводу о том, что энтропия в термодинамике и энтропия в теории информации имеют только чисто внешнюю, формальную связь. Подобные утверждения можно встретить и в специальной литературе и на страницах популярных книг: А. Харкевич, Очерки общей теории связи; B. Смирнов, Основы радиосвязи на ультракоротких волнах; 3. Ровенский, А. Уемов и Е. Уемова, Машина и мысль; C. Анисимов, Человек и машина; Д ж. Пирс, Электроны, волны и сообщения (примечания Н. Д. Карасева) и многие другие.

6 Чтобы получить подобную «фразу», не обязательно прибегать к помощи электронных машин. Вы можете проделать такой любопытный опыт: откройте наугад любую страницу и выпишите четыре буквы, стоящие в начале какой-нибудь строки. Если вам попалось слово комиссия, запишите сочетание коми. Затем, пробегая глазами текст, отыщите слово, в котором есть сочетание оми, и запишите следующую букву. Если вам встретилось слово утомительный, ваша запись превратится в комит. Теперь ищите в тексте сочетание мит и снова запишите следующую букву. Продолжая отыскивать сочетания, соответствующие трем последним буквам ваших записей, и прибавляя к записи следующую букву, вы получите набор букв, который внешне напоминает осмысленный текст.

7 Принцип двоичного счета изложен подробнее в главе 4 (раздел «Универсальный язык»).

8 Согласно имеющимся в литературе данным о вероятностных характеристиках русского языка,Pа = 7,5%, Pт = 6,5%.

9 Вопросы, о которых здесь идет речь, были изложены В. А. Котельниковым в его работе «О пропускной способности «эфира» и проволоки в электросвязи», доложенной им на Первом Всесоюзном съезде по вопросам реконструкции связи в 1933 году.

10 Основоположником алгебры логики был Джон Буль, отец писательницы Э. Войнич, автора известного романа «Овод».

11 Самые изящные и убедительные опыты, подтверждающие связь магнетизма и электричества, проделал впоследствии сам Фарадей, открывший законы электромагнитной индукции.

12 В переводе с греческого слово «атом» означает «неделимый».

13 Камера Вильсона предназначена для наблюдения траекторий элементарных частиц, ионизирующих пары спирта.

14 Сборник «Философские вопросы кибернетики». Изд-во социально-экономической литературы, 1961, стр. 310.

Оглавление

Как открыли Ничейную землю (Вместо предисловия)

ЧАСТЬ ПЕРВАЯ. В МИРЕ НОВЫХ ИДЕЙ

Глава 1. Сообщения в упаковке

Начало пути

Текст на экране

Невесомые грузы

Чудесное свойство

Глава 2. Как измерили информацию

То, что нам неизвестно

Смысл информации и информация без смысла

Границы Нового Города

Психология и вероятность

Информация внутри нас

Глава 3. Информация без излишеств

Законы случайностей

Сортировка словесного груза

Сообщения и предсказания

Упаковка должна быть надежной

Голос, собранный по частям

Глава 4. На грани фантастики

Сигналы из космоса

Шаг за шагом

Наука предсказаний

Логика автоматов

Универсальный язык

Будут новые города!

Глава 5. Истинное и ложное

В эфире «тесно»

Польза сравнений

В чужом городе

Информация по наследству

ЧАСТЬ ВТОРАЯ. ИНФОРМАЦИЯ ВСЮДУ

Глава 1. Путешествие в микромир

Мир в кубике газа

Тайны невидимого движения

История энтропии

Глава 2. Законы Ничейной земли

Читатель требует ясности

Идите с нами, профессор!

Модели движения

Информация и энтропия

Ключ к азбуке мира

Религия на «научной базе»

Нам все время мешал наблюдатель

Глава 3. Восхождение на вершину

Как избежать плена?

За порогом сознания

Чудо природы

Путь по извилистым тропам

Где хранятся ключи?

«Основы воображения»

В помощь разуму

В добрый час! (Заключение)

Fueled by Johannes Gensfleisch zur Laden zum Gutenberg

Комментарии к книге «Репортаж с ничейной земли. Рассказы об информации», Е. А. Седов

Всего 0 комментариев

Комментариев к этой книге пока нет, будьте первым!

РЕКОМЕНДУЕМ К ПРОЧТЕНИЮ

Популярные и начинающие авторы, крупнейшие и нишевые издательства