Путешествие от частицы до Вселенной. Математика газовой динамики — страница 16 из 25

Для проверки прогноза по модели распределения Больцмана обратим внимание на число микросостояний, которые имеют оба макросостояния: то, которое соответствует расположению газа в верхнем углу коробки, и то, которое соответствует равномерному распределению газа по всему объему. Представим, что молекулы могут занимать только определенные области, располагаясь решеткой. Так мы можем сравнить число микросостояний одной и второй конфигураций. Сделаем огромную по сравнению с молекулой решетку, чтобы расчеты были более понятными, и представим себе, что у коробки только два измерения, то есть квадрат, представленный на фигуре ниже, — это вся коробка.



Предположим, что наш газ имеет три частицы. В первом случае они будут ограничены верхней левой площадью коробки, отмеченной серым. Как видно, для этой области есть 25 возможных положений для каждой из частиц. Поскольку у нас есть три частицы, которые мы можем расположить где угодно без наложений, общее число микросостояний будет 25·24·23 = 13800.

Теперь обратим внимание на целую коробку. Ее сторона равна 10 единицам, так что общее число возможных позиций равно 100. Общее число микросостояний равно 100·99·98 = 970200. Итак, очевидно, что гораздо больше микросостояний совместимо со второй возможностью, чем с первой. Действительно, мы можем вычислить вероятность того, что газ окажется в верхнем углу. Это будет число совместимых микросостояний, разделенное на общее их число:


Итак, существует 98,6 % вероятности того, что газ займет всю коробку. Если бы мы взяли больше частиц и более мелкую сетку, то получили бы более значительную разницу. Таким образом, модель распределения Больцмана говорит то же самое, что и термодинамика.

Можно задаться вопросом, существует ли какой-нибудь микроскопический способ понять энтропию термодинамики. Энтропия — это величина, которая возрастает в каждом изолированном процессе и дает нам меру разрежения энергии. Можем ли мы найти какую-то величину, которая бы тоже выросла в процессе, который мы только что изучили? Ответ — да: возросло число микросостояний. Если в начале мы насчитывали их 13 800, то в конце — почти миллион. Число микросостояний показывает нам, какова вероятность получения этого макросостояния; кроме того, разумно предположить, что система всегда эволюционирует в сторону наиболее вероятного состояния. Итак, мы можем прийти к выводу, что энтропия и число микросостояний могут быть каким-то образом связаны.

* * *

ЛЮДВИГ БОЛЬЦМАН И АТОМЫ

Людвиг Больцман (1844–1906), портрет которого вы видите рядом с этими строками, был австрийским физиком, который ввел идею, что такие термодинамические явления, как температура, на самом деле — крупномасштабное проявление микроскопического поведения атомов. В то время само существование атомов еще вызывало дискуссии, и многие коллеги ученого отвергали его теорию, считая, что не существует никакого доказательства того, что материя состоит из элементарных частиц.

Больцман покончил жизнь самоубийством в 1906 году — как гласит легенда, из-за того, что научное сообщество отвергло его идеи. На самом деле это было связано с проблемами медицинского характера, а не с научным разочарованием. Через два года после смерти Больцмана Жан Батист Перрен (1870–1942) подтвердил существование атомов с помощью эксперимента над броуновским движением, в котором маленькие частицы пыли хаотично двигались, сталкиваясь с молекулами жидкости.



* * *

К этому же выводу пришел и Больцман, которому удалось доказать, что энтропия пропорциональна логарифму числа микросостояний, умноженному на его известную постоянную. Логарифм обозначается как log и является обратным экспоненте. Например, выражение log3 говорит нам, в какую степень мы должны возвести число 10, чтобы получить 3. Математически энтропия Больцмана выражается следующим образом:

S = k·logW,

где S — энтропия, — постоянная Больцмана и — число микросостояний.


Энтропия как хаос

В популярной литературе часто встречается объяснение энтропии как хаоса. Теперь, когда мы знаем связь между энтропией и числом микросостояний, мы можем понять, почему это происходит. Самый простой способ увидеть это — обратить внимание на доску, покрытую шашками.

Предположим, что мы ставим шашки в порядке, как показано на рисунке.



Каково сейчас число микросостояний, совместимых с этой конфигурацией? Чтобы найти его, воспользуемся рассуждениями из области комбинаторики, подобными приведенным в предыдущей главе. У нас 32 черные клетки и столько же белых. Мы ставим первую черную шашку на любое белое поле; для следующей есть только 31 вариант, и так далее. Следовательно, существует всего 32! способа распределить черные шашки, если считать, что они отличаются друг от друга. Точно так же есть 32! способа распределения белых шашек, так что всего у нас 32!·32! способов установить шашки, чтобы получить вышеуказанную конфигурацию.

Остальные конфигурации будут более беспорядочными, чем эта, поскольку нет никаких ограничений, связанных с тем, как следует располагать шашки. Например, конфигурации, показанные ниже, более беспорядочны, чем предыдущая.



Вычислим общую сумму возможных конфигураций всех шашек. Поскольку нам все равно, белая шашка или черная и где она находится, рассмотрим их все одновременно. Для первой у нас будет 64 возможности, для второй — 63, и так далее.

Итак, общее число конфигураций равно 64! Вероятность получения упорядоченной конфигурации равна числу упорядоченных конфигураций, разделенному на общее число конфигураций:


Как видите, упорядоченное положение имеет очень малую вероятность, а хаотичные состояния, напротив, очень вероятны. Поскольку состояния, характеризующиеся высокой энтропией, а также хаотичные состояния имеют очень высокую вероятность, мы можем связать их друг с другом и заключить, что состояния высокой энтропии более хаотичны.


Энтропия как непредсказуемость

Как мы только что увидели, энтропия пропорциональна числу микросостояний, характерных для макросостояния, в котором находится система. Однако даже зная макросостояние, мы не можем знать микросостояние, и чем выше энтропия системы, тем ниже ее предсказуемость. Предположим, что у нас есть система с 1000 различных микросостояний. Если мы знаем, что в этот момент она находится в первом, мы можем быть уверены только в том, что в следующий момент она будет находиться в одном из других 999. Но если у нас есть система только из десяти состояний, мы знаем, что есть только девять возможностей, начиная с текущего момента, то есть такая система более предсказуема.

Можем пойти еще дальше и задать вопрос, какова минимально возможная энтропия для любой системы и какому количеству микросостояний она соответствует.

Вспомним, что энтропия равна:

S = k·logW,

где функция log — это логарифм, функция, обратная экспоненте. Предположим, что у нас только одно микросостояние: в этом случае логарифм единицы равен нулю, поскольку любое число, возведенное в нулевую степень, равно единице. Итак, энтропия одного микросостояния равна нулю. С точки зрения непредсказуемости это справедливо: нет более предсказуемой системы, чем та, у которой только одно состояние. Ее непредсказуемость точно равна нулю.


Энтропия как степень неосведомленности

Есть и другой способ понимания энтропии, который может быть адаптирован для применения за пределами физики — в рамках теории информации. Речь идет о понимании энтропии как недостающей информации о системе, то есть о степени нашей неосведомленности.

Как было видно в предыдущей главе, обычно мы знаем давление, температуру и объем газа, но при этом не знаем всего остального, то есть мы обладаем смехотворным количеством информации, необходимой для описания состояния системы.

Пусть даже эта информация — единственно значимая для прогнозирования, но она остается крайне малой по сравнению со всей информацией о рассматриваемом газе. Главную роль в способе описания энтропии снова играет число доступных микросостояний. Если в системе миллион состояний и мы не знаем, в каком из них она находится, степень нашей неосведомленности намного больше, чем если бы в ней было только десять состояний. Итак, мы знаем о системе с высокой энтропией намного меньше, чем о системе с низкой энтропией.

Какой же смысл в том, чтобы принимать энтропию за информацию? Информации нужен наблюдающий субъект — это не что-то, что можно потрогать. Когда мы говорим «энтропия системы — это степень нашей неосведомленности о ней», кажется, будто мы утверждаем, что энтропия не имеет реального существования во Вселенной, это просто человеческое понятие, которое измеряет то, что мы знаем, и не более.

Действительно, есть системы, для которых понятие энтропии не имеет смысла. В системе, состоящей из предмета, прикрепленного к пружине, и самой пружины, нет никакой энтропии: само это понятие неприменимо к ситуации. Энтропия — макроскопическая величина и сама по себе применима только для скоплений частиц. Однако в фундаментальных законах Вселенной о ней нет никакого упоминания: речь идет о статистическом понятии, которое помогает нам осмыслить некоторые характеристики сложных систем.

Именно понимание энтропии как меры информации привело американского математикаКлода Шеннона (1916–2001) к использованию ее в качестве ключевого элемента в своей теории информации.


Энтропия как информация

Предположим, что мы опаздываем на ужин с нашей второй половинкой и хотим послать ей сообщение: «Сегодня я опоздаю на ужин». Для этого наш мобильный телефон должен обработать информацию, содержащуюся в нашем сообщении, перевести ее в электрические импульсы и послать ее с помощью электромагнитных волн. Телефонной компании хотелось бы использовать минимальное количество энергии для переда