Векторный характер передающейся по наследству информации

Автор Павел Замалиев, июня 01, 2008, 17:16:35

« назад - далее »

DNAoidea

Дж. Тайсаев - в основном согласен, однако где гарантия, что порог задаваемый солнечным излучением достигнут?
вот только теперь я понял вашу мысль, zK:
Цитата: "zK"на сколь угодно малом потоке энергии может "паразитировать" сколь угодно сложный демон (миксер), ускоряющий создание хаоса.
немного не то, но всё же:
как-то, думая о том, какие преимущества имеет энергия ветра, я пришёл к выводу, что как было бы хорошо не будь Второго Начала! Дай малую толику энергии какой угодно системе, хорошо замкнутой и она будет жонглировать ей сколь угодно долго! Но ведь ни-ни - в конце концов всё превратится там в полный хаос и никакой ветровой двигатель не поможет... (причём тут ветер надеюсь понятно)

Дж. Тайсаев

DNAoidea. Кстати в продолжении Вашей футуристической мечты, вспомнил одну очень давно прочитаную работу Стивена Хокинга, даже уже не помню название, но там в общем он выдвинул такую весёлую на мой взгляд идею, что если бы второе начало термодинамики пошло вспять, тогда и время бы обернулось, ну это ещё ладно, по Пригожину (тоже кстати иногда перегибал в чёмто) согласуется, но он считал, что например, тогда брошеная чашка не расбивалась бы на осколки, а напротив, собиралась бы в чашку (это я дословно почти цитирую). Впрочем, если бы да кабы, если бы закон не работал, тогда да и я согласен, но он то дальше пошел, он сказал, что для этого достаточно только сжатия Вселенной или накопления свободной энергии.

Кстати я всё равно считаю Хокинга величайшим ученым современости и преклоняюсь перед его стойкостью.
Шматина глины не знатней орангутанга (Алексей Толстой).

Павел Замалиев

Цитата: "zK"
Цитата: "Дж. Тайсаев"Естественный отбор... это скорее "Демон Максвелла"...
По этому поводу имеется вполне корректное решение.
См. вот тут
Единственное, что мне не понравилось в статье, на которую я сослался - это противопоставление приспособленности и термодинамической вероятности; из контекста статьи вытекает, что это просто одно и то же.
ЦитироватьИз См. вот тут: Эрик Смит (физик из Института Санта-Фе, Нью-Мексико, США) задает риторический вопрос: не лучше ли обсуждать эволюцию не с точки зрения выживания наиболее приспособленных, а с точки зрения выживания наиболее вероятных?
Не очень понятно — то ли Эрик Смит противопоставляет приспособленность и вероятность, то ли считает, что это одно и то же.

Впрочем, давайте рассмотрим подробнее термодинамическую вероятность.
Любую величину мы можем измерять разными способами, пользуясь при этом единицами измерения разного калибра. Например, скорость автомобиля принято измерять в км/час. Но ведь ее можно измерять и в дм/сутки. Более того, любой автомобиль фактически движется по окружности (Земля — шар), значит скорость автомобиля можно измерять в рад/год. Или такой способ: примем скорость света равной единице (просто единице, без размерности), тогда скорость любого тела — и нашего автомобиля — будет дробью в диапазоне от нуля до единицы. Вот таким способом — нормируя на единицу — зачастую измеряют вероятность. Вероятность достоверного события принимают равной единице, и тогда все остальные вероятности — дроби от нуля до единицы. Но такой способ измерения вероятности не единственный, такой способ всего лишь один из возможных. Совсем не обязательно количественная оценка какой-либо вероятности  должна проводиться путем сравнения этой вероятности с вероятностью достоверного события. И термодинамическая вероятность как раз тот случай, когда вероятность измеряют не нормируя на единицу, а другим способом, а именно — числом микросостояний. Вероятность какого-либо макросостояния системы, измеренную числом микросостояний, которыми может быт реализовано это макросостояние, называют термодинамической вероятностью. Т.е. слово «термодинамическая» в словосочетании «термодинамическая вероятность» указывает лишь на то, что эта самая термодинамическая вероятность не нормирована на единицу. Ясно, что если известно число всех микросостояний, которыми могут быть реализованы все макросостояния системы, то термодинамическую вероятность можно отнормировать на единицу — превратить в привычную глазу дробь.
Можно ли измерить вероятность состояния популяции так же, как измеряется термодинамическая вероятность, т.е. числом микросостояний? Не знаю. И что-то не вижу в этом смысла — зачем измерять вероятность состояния популяции так, как измеряют термодинамическую вероятность?— точно так же, как зачем измерять скорость автомобиля радианами/год? Мне кажется, самый простой способ количественной оценки вероятности состояния популяции — абсолютная приспособленность (W — см. приложенный файл к посту за 22.09.08 г.). Если есть большое желание, то можно даже обозвать абсолютную приспособленность W «биологической вероятностью» — по аналогии с «термодинамической вероятностью».
Впрочем, все это не существенно. И вот почему: время отбора аллели обратнопропорционально приращению информации, которое, как и приращение энтропии, пропорционально натуральному логарифму отношения вероятностей, —  т.е. нас интересует отношение вероятностей (а не сами вероятности), нас интересует, во сколько раз одна вероятность больше другой. Ясно, что отношение вероятностей не зависит от способа измерения вероятностей. (Например, если известно, что скорость автомобиля А больше скорости автомобиля В в два раза, то, спрашивается, какая разница, единицы измерения какого калибра использованы при определении скоростей? Ведь как не измеряй — хоть в рад/год, хоть в дм/сутки, — а все равно А будет больше В в два раза.) Следовательно, и приращение энтропии, и приращение информации, и время отбора не зависят от калибровочных преобразований — т.е. не зависят от того, каким именно образом измерены вероятности.
Цитата: "zK"...мне не понравилось.., что это просто одно и то же. (приспособленность и вероятность — П.З.)
Мне кажется, «приспособленность» и «вероятность» — просто разные слова, за которыми кроется один и тот же смысл.

DNAoidea

Да, поскольку приспособленность это просто вероятность выжить (поскольку порой может погибнуть самый приспособленный, а самый дохлый оставить потомство - вопрос только в вероятности этих событий) - то да. Это одно и то же.

Павел Замалиев

Цитата: "Питер"Павел,  вы  опять    придумываете  нечто...  конструируете  два  варианта  дрейфа  -   один  из  которых  является   отбором.
Ну что же, давайте рассмотрим подробнее.
 Существуют три типа аллелей:
1.аллели, фенотипически полезные
2.аллели, фенотипически нейтральные
3.аллели, фенотипически вредные.

 Можно сказать, что частота любой фенотипически полезной аллели на всем возможном диапазоне (от нуля до единицы) закономерно увеличивается. Что значит закономерно? Это значит, что время, за которое частота фенотипически полезной аллели изменится от a до b (a меньше b), является не случайной величиной, а функцией каких-то переменных. Т.е., если в какой-то популяции частота какой-то фенотипически полезной аллели равна a; и если известны значения всех переменных, функцией которых является время; и если известно, какие математические операции надо произвести с этими значениями — то можно с хорошей точностью рассчитать время, через которое частота рассматриваемой аллели примет значение b.

 Частота любой фенотипически нейтральной аллели на всем возможном диапазоне изменяется случайным образом. Это значит, что время, за которое частота фенотипически нейтральной аллели изменится от a до b (a может быть и больше b, и меньше b, и равно b), является случайной величиной. Т.е., если в какой-то популяции частота какой-то фенотипически нейтральной аллели равна a, то невозможно не только рассчитать время, через которое  частота рассматриваемой аллели примет значение b, но и невозможно сказать, каким будет b — больше или меньше a.

 Для частоты любой фенотипически вредной аллели существует пороговое значение (обозначим его k) такое, что если частота фенотипически вредной аллели больше k, то она (частота) закономерно убывает: а если  частота фенотипически вредной аллели меньше k, то она (частота) изменяется случайным образом. (Ясно, что если аллель всегда летальна и всегда доминантна, то k равно нулю.)  Т.е., если в какой-то популяции частота какой-то фенотипически вредной аллели равна a, то:
при a больше k (т.е. a находится в диапазоне от k до единицы) время, за которое частота фенотипически вредной аллели изменится от a до b (a больше b), является функцией каких-то переменных;
при a меньше k (т.е. a находится в диапазоне от нуля до k) время, за которое частота фенотипически вредной аллели изменится от a до b (a может быть и больше b, и меньше b, и равно b), является случайной величиной.

 Дрейфом генов принято называть:
 (1) изменение частоты фенотипически нейтральной аллели на всем возможном диапазоне
 (2) изменение частоты фенотипически вредной аллели в диапазоне от нуля до какого-то порогового значения k — вот, собственно, что я имел ввиду, когда сказал, что дрейф бывает разный (30.09.08г).
 Питер, если вы думаете, что дрейф — это только случайное увеличение частоты, то заблуждаетесь. Дрейф — это случайное изменение частоты, а вот как именно будет изменяться частота — убывать или расти — это неизвестно.

Ну а закономерное изменение частоты фенотипически полезной аллели на всем возможном диапазоне и закономерное изменение частоты фенотипически вредной аллели в диапазоне от k до единицы — это как раз то, что открыл Дарвин. Конечно, сформулировал он другими словами, но смысл его открытия именно такой: существуют аллели, время изменения частоты которых - функция каких-то переменных. Правда, для диплоидных популяций записать эту функцию в общем виде (т.е. в виде какой-то формулы типа «время T равно X умножить на Y, разделить на Z, возвести в степень N и т.д.») невозможно. Для гаплоидных популяций (для простейших случаев) эту формулу я уже приводил (приложенный файл к посту за 18.07.08г): время пропорционально удвоенному натуральному логарифму численности популяции и обратнопропорционально натуральному логарифму отношения вероятностей (или отношения абсолютных приспособленностей — что одно и то же).

Питер

Павел  Замалиев  писал
Питер, если вы думаете, что дрейф — это только случайное увеличение частоты, то заблуждаетесь. Дрейф — это случайное изменение частоты, а вот как именно будет изменяться частота — убывать или расти — это неизвестно.

Павел,  я  нигде  не  писал,  что    дрейф  -  случайное   увеличение  частоты.  Я  писал,  что  дрейф  -  случайное  изменение  частоты. В  том  и  суть  понятия   дрейфа,  что в  популяции  частота  аллелей  может  меняться  и  без   действия  отбора.  
Да,   хотите  пример всегда  летальной  и  всегда  доминантной  мутации,  частота   которой   не  равна   нулю ?  Это  по  поводу  ваших  рассуждений  о k.
А  оно  вам  надо  ?

Павел Замалиев

Цитата: "Питер"...хотите  пример всегда  летальной  и  всегда  доминантной  мутации,  частота   которой   не  равна   нулю ?
А разве такое возможно?

Питер

Хорея  Гентингтона,   мутация deltaGAG  в  гене DYT1,  встречается    с  достаточно  высокой  частотой  только у   ашкеназов  только  за  счет  сочетания   дрейфа  и  эффекта  основателя.
А  оно  вам  надо  ?

Дж. Тайсаев

Цитата: "Питер"Хорея  Гентингтона,   мутация deltaGAG  в  гене DYT1,  встречается    с  достаточно  высокой  частотой  только у   ашкеназов  только  за  счет  сочетания   дрейфа  и  эффекта  основателя.
Выражаясь по простому, если вы к примеру мармон мигрант, ищи себе жену со стороны, а то некоторые летальные мутации  в бутылочное горлышко не пролезут :D
Шматина глины не знатней орангутанга (Алексей Толстой).

Павел Замалиев

Цитата: "DNAoidea"
Цитата: "Павел Замалиев"Наконец, если мы прикладываем запрет на переход системы из более вероятного в менее вероятное состояние к популяции (к замкнутой системе из репликаторов), то этот же запрет превращается в запрет на уменьшение адаптивности популяции, т.е. в естественный отбор. Естественный отбор – один из частных случаев второго начала термодинамики.
это одна сторона вопроса, другая состоит в том, что запрет, который налагает отбор на популяцию, распространяется на системы, которые находятся... очень далеко от куда более вероятного состояния (т. е. растворов органики в лучшем случае)...
Вернемся к тому моменту, когда на земле был только раствор органики, а ни одной молекулы-репликатора еще не было. Рассмотрим какую-то лужу с водным раствором нуклеотидов. Выделим у этой лужи два крайних состояния — самое вероятное и самое маловероятное. Самое маловероятное —  что раствор будет химически однородным, т.е. что это будет химически чистый раствор только одного вещества — и это самое упорядоченное состояние системы. Самое вероятное — что это будет химически неоднородный раствор, т.е. в растворе будут и нуклеотиды-мономеры (естественно, разные), и нуклеотидные цепочки (с разным порядком расположения нуклеотидов), и двойные спиральные цепочки с водородными связями (опять же с разным порядком нуклеотидов) — и это самое неупорядоченное состояние системы.
 Теперь представим, что в этой луже появляется единственная молекула-репликатор (а то, что в какой-то луже когда-то какая-то молекула-репликатор появилась — это факт). Согласитесь, что с началом реакции репликации химически однородный раствор (лужа, в которой растворены только молекулы-репликаторы) гораздо более вероятен, чем химически неоднородный раствор (лужа, в которой частота молекул-репликаторов примерно такая же, как и частота любой другой нуклеотидной спирали). Т.е. с появлением первой молекулы-репликатора (с началом реакции репликации) состояния системы меняют свои вероятности на противоположные: самое вероятное состояние становится самым маловероятным, а самое маловероятное — самым вероятным. Но смена состояниями своих вероятностей — это единственное изменение, упорядоченность состояний остается прежней. В результате самое упорядоченное состояние с началом репликации становится и самым вероятным, а самое неупорядоченное состояние — самым маловероятным. Второму же началу термодинамики — если можно так сказать — безразлично, что происходит с порядком, энтропией и информацией, потому что второе начало термодинамики — это всего лишь запрет на переход системы из более вероятного состояния в менее вероятное. Второе начало термодинамики работает только с вероятностями системы, изменение же упорядоченности  и пр. из-за перехода системы в более вероятное состояние — вторично. Схематично картина будет такая: лужа, в которой есть только одна молекула-репликатор — это самое маловероятное и самое неупорядоченное состояние; лужа, в которой все молекулы раствора  являются одинаковыми молекулами-репликаторами — самое вероятное и самое упорядоченное состояние. Между этими крайними состояниями лежит множество промежуточных состояний. Грубо говоря, лужа, в которой две молекулы-репликатора, более вероятна, чем лужа с одной молекулой-репликатором; лужа с тремя более вероятна чем с двумя — и т.д. Если в луже есть n молекул-репликаторов, то это n может только увеличиться. Уменьшиться n не может — второе начало термодинамики запрещает это. (Правда, здесь — т.е. с началом репликации —  второе начало термодинамики принято называть естественным отбором.)
  В общем, в результате действия второго начала термодинамики упорядоченность системы может как убывать, так и возрастать, и биологическая эволюция — это как раз тот случай, когда упорядоченность в результате действия второго начала термодинамики возрастает. Вероятность же любой системы в результате действия второго  начала термодинамики никогда не убывает.
Цитата: "DNAoidea"...когда в системах появляется естественный отбор...
С появлением первой молекулы-репликатора, с началом реакции репликации появляются такие системы, у которых самое упорядоченное состояние является самым вероятным. А с законами природы ничего не происходит — не появляется никаких новых законов. Просто один из законов природы — запрет на самопроизвольный переход системы из более вероятного в менее вероятное состояние — принято называть по разному: там, где нет репликации, где самым вероятным состоянием системы является самое неупорядоченное, этот запрет принято называть вторым началом термодинамики; там, где есть репликация, где самым вероятным состоянием системы является самое упорядоченное, этот  запрет  принято называть естественным отбором.

DNAoidea

Цитата: "Павел Замалиев"Если в луже есть n молекул-репликаторов, то это n может только увеличиться. Уменьшиться n не может — второе начало термодинамики запрещает это. (Правда, здесь — т.е. с началом репликации —  второе начало термодинамики принято называть естественным отбором.)
так... естественный отбор это по сути дела оставление в мире наиболее стабильных объектов из общей массы, полученных репликацией и различающихся только случайными ошибками. Второй закон Термодинамики - Невозможности увеличить энтропию изолированной системы. И в чём эти вещи соприкасаются? Они и в самом деле говорят о вероятностных запретах, но в силу различных причин - во Втором Законе Термодинамики хаотическое движение частиц, а в Естественно Отборе - способность к созданию себе подобных.

Павел Замалиев

Цитата: "Дж. Тайсаев"...Кстати вспомнил, Винер энтропию фактически отождествлял с информацией...
Еще раз напомню определение энтропии, данное Блюменфельдом (зав. кафедрой биофизики МГУ)
ЦитироватьЭнтропия системы в данном макросостоянии есть количество информации, недостающее до ее полного описания.
Цитата: "Дж. Тайсаев"...Дело не в разнообразии и не в термодинамике,.. они... следствия этого закона: ...вещество переходит из менее вероятного состояния неизбежно в более вероятное, и всё. И вся проблема...
Только одно слово мне кажется здесь не совсем удачным — «неизбежно», мне кажется, лучше — «необратимо». «Неизбежно» можно понимать так, как будто этот закон заставляет вещество переходить из менее вероятного в более вероятное состояние. На самом же деле этот закон только запрещает переход из более вероятног в менее вероятное состояние.
Цитата: "Дж. Тайсаев"...количество информации не просто возрастает, а ... кстати я и сам задумался и понял сейчас, да не возрастает оно и не снижается уже сотни миллионов лет...
Вы сейчас сидите за компьютером, набитом информацией, причем наверняка какая-то часть этой информации сгенерирована (т.е. впервые появилась за всю историю земли — а может и вселенной) в вашей голове. И после этого вы утверждаете, что количество информации не растет?
Цитата: "Дж. Тайсаев"...Энтропия это не рост разнообразия, а рост однообразия...
Энтропия системы, находящейся в каком-то макросостоянии, есть натуральный логарифм термодинамической вероятности этого макросостояния, умноженный на постоянную Больцмана. Термодинамическая вероятность макросостояния есть число независимых микросостояний, которыми может быть реализовано это макросостояние. Чем больше число микросостояний, т.е. чем более разнообразными способами может быть реализовано макросостояние — тем больше энтропия этого макросостояния. Т.е. рост энтропии это конечно же рост разнообразия.

grumbler

Цитата: "Павел Замалиев"Термодинамическая вероятность макросостояния есть число независимых микросостояний, которыми может быть реализовано это макросостояние. Чем больше число микросостояний, т.е. чем более разнообразными способами может быть реализовано макросостояние — тем больше энтропия этого макросостояния. Т.е. рост энтропии это конечно же рост разнообразия.
Сомневаюсь. Число независимых микросостояний и разнообразие способов реализации - imho совсем не одно и то же.

Дж. Тайсаев

Цитата: "Павел Замалиев"Еще раз напомню определение энтропии, данное Блюменфельдом (зав. кафедрой биофизики МГУ)
ЦитироватьЭнтропия системы в данном макросостоянии есть количество информации, недостающее до ее полного описания.
Очень хорошее определение, но это только одна из множетва характеристик энтропии.
Цитата: "Павел Замалиев"Только одно слово мне кажется здесь не совсем удачным — «неизбежно», мне кажется, лучше — «необратимо». «Неизбежно» можно понимать так, как будто этот закон заставляет вещество переходить из менее вероятного в более вероятное состояние. На самом же деле этот закон только запрещает переход из более вероятног в менее вероятное состояние.
полностью согласен с уточнением.
Цитата: "Павел Замалиев"Вы сейчас сидите за компьютером, набитом информацией, причем наверняка какая-то часть этой информации сгенерирована (т.е. впервые появилась за всю историю земли — а может и вселенной) в вашей голове. И после этого вы утверждаете, что количество информации не растет?
Ну если понимать информацию в широком смысле, связывая её с энтропией, тогда однозначно можно сказать, что творится столько же информации, сколько и обесценивается.
Цитата: "Павел Замалиев"Энтропия системы, находящейся в каком-то макросостоянии, есть натуральный логарифм термодинамической вероятности этого макросостояния, умноженный на постоянную Больцмана. Термодинамическая вероятность макросостояния есть число независимых микросостояний, которыми может быть реализовано это макросостояние. Чем больше число микросостояний, т.е. чем более разнообразными способами может быть реализовано макросостояние — тем больше энтропия этого макросостояния. Т.е. рост энтропии это конечно же рост разнообразия.
Вот цитата из одной моей работы.
Цитата: "Дж. Тайсаев"Проиллюстрируем это на примере мысленного эксперимента Людвига Больцмана. Он представил коробку условно разделенную воображаемой перегородкой, по которой свободно перемещаются 8 молекулярных частиц. Оценим число различных возможностей нахождения их различных количеств в правой и левой частях коробки по формуле:
P=N!/N1!*N2!
где N – общее количество частиц, N1 – частицы на одной стороне короб-ки и N2 – на другой.
Как нетрудно убедиться, несмотря на то, что все частицы имеют одинаковую вероятность нахождения в любой из частей коробки, наиболее вероятным будет состояние с равным их количеством в обеих половинах. В этом и заключается суть статистического характера второго начала термодинамики
Шматина глины не знатней орангутанга (Алексей Толстой).

Павел Замалиев

Цитата: "DNAoidea"...естественный отбор это ...оставление ...наиболее стабильных объектов.., полученных репликацией...
А какие из полученных репликацией объектов наиболее стабильные? Если ошибаюсь — поправьте, но единственный ваш ответ «Из полученных репликацией наиболее стабильными   являются объекты, оставленные естественным отбором». Да ведь это же бег по кругу: отбор оставляет стабильные объекты, а стабильные объекты — те, которых оставляет отбор. Или: отбор оставляет приспособленных особей, а приспособленные особи — те, которых оставляет отбор. Или:  отбор оставляет репродуктивно успешных, а репродуктивно успешные — те, которых оставляет отбор. И так топтаться на одном месте можно до бесконечности.

 Еще раз повторю: естественный отбор — это отбор информации. А любой живой объект — всего лишь материальный носитель информации, отбираемой естественным отбором (информация без материального носителя не существует).
 Вот скажем, чем отличается заяц от булыжника? Да тем, что заяц «знает», что будет зима, температура упадет, выпадет снег, и этот снег будет белым. А булыжник ничего этого «не знает». Представьте себе, что к каким-то инопланетянам каким-то образом попали в руки булыжник с Земли и заяц (живой, естественно). Просто наблюдая за зайцем, инопланетяне сделают вывод, что на Земле есть смена сезонов, и что в холодный сезон вода замерзает. Из булыжника же информацию о смене сезонов инопланетянам не извлечь никогда — ее нет в булыжнике. А в зайце есть. Но откуда она взялась, кто информацию о смене сезонов сложил в зайца? Естественный отбор — больше некому.
 Любой живой объект есть не более, чем носитель информации об уже существующей действительности. Если же при сравнении живых объектов выясняется, что на одном из этих носителей записано информации о существующей действительности больше, чем на других, то этот живой объект мы называем «приспособленным», «имеющим полезные признаки», «адаптированным» —  а вам, DNAoidea, нравится слово «стабильный».

 «Меломан собирает виниловые диски» — прочитав эту фразу, вы же не думаете, что меломан  это человек, который собирает черные круглые плоские штучки с дырочкой в середине — вы прекрасно понимаете, что черные круглые плоские штучки с дырочкой в середине являются просто носителями того, что действительно собирает меломан.
 Мне кажется, что говорить: естественный отбор оставляет стабильных—приспособленных—адаптированных—с полезными признаками особей, при этом даже не подозревая, что за всеми этими словами скрывается приращение информации — это все равно, что утверждать: меломан — человек, собирающий черные круглые плоские штучки с дырочкой в середине.

 В общем, появление очередной приспособленной (стабильной, адаптированной и т.д.) особи есть приращение информации об уже существующей действительности. Приращение информации пропорционально логарифму отношения вероятностей (отношения абсолютных приспособленностей). Но приращение энтропии (а приращение энтропии это приращение информации, недостающей до полного описания существующей действительности, т.е. это приращение информации с обратным знаком) также пропорционально логарифму отношения вероятностей. Как же такое может быть: и приращение информации, и приращение энтропии являются функциями одного и того же аргумента, но имеют разный знак? Очень просто такое может быть, если информация — вектор, и если есть такое измерение, в котором приращение информации и приращение энтропии направлены в разные стороны.
 Поясню на примере. Пусть трасса Волгоград—Москва  —  прямая, примем ее за орту, направление на Москву — положительное. Пусть на трассе гололед, пусть по трассе движутся два автомобиля: А — на Москву, В — на Волгоград. Пусть с окончанием гололеда скорость А увеличилась на 10 км/час, скорость В увеличилась  на 10 км/час. Ясно, что и приращение скорости А, и приращение скорости В являются функциями одного и того же аргумента (гололеда). Но приращение А равно плюс 10 км/час, а приращение В равно  минус 10 км/час. Почему? А потому, что скорость — вектор, это раз, а два: есть такое измерение (Волгоград—Москва), в котором приращение А и приращение В направлены в разные стороны.
 То же самое с приращениями информации и энтропии: приращение информации и приращение энтропии, являясь функциями одного и того же аргумента, имеют разный знак. Это значит, что информация — вектор, и есть такое измерение, в котором приращение информации и приращение энтропии направлены в разные стороны.

 Вообще-то я думал, что человеку, знающему о существовании симпатрического видообразования и дизруптивного отбора, очень просто прийти к выводу о векторном характере информации, исходя из факта существования симпатрического видообразования и  дизруптивного отбора.