Глупые вопросы

Автор armadillo, декабря 30, 2013, 14:17:29

« назад - далее »

aevin

Цитата: василий андреевич от марта 17, 2015, 20:55:48
  Мне представляется, что биологии вполне по силам сказать свое веское слово - не нарушая первого и второго принципов, показать, каким образом созидаются потенциальные ниши, как области отрицательной (консолидирующей) энергии. Но взять, и назвать эти области информацией лично у меня язык не поворачивается.

И слава богу. Потому что такое мутное понятие информации никому не нужно. Она уже четко определена Шенноном.

Дж. Тайсаев

Цитата: aevin от марта 19, 2015, 09:28:10
Цитата: василий андреевич от марта 17, 2015, 20:55:48
  Мне представляется, что биологии вполне по силам сказать свое веское слово - не нарушая первого и второго принципов, показать, каким образом созидаются потенциальные ниши, как области отрицательной (консолидирующей) энергии. Но взять, и назвать эти области информацией лично у меня язык не поворачивается.

И слава богу. Потому что такое мутное понятие информации никому не нужно. Она уже четко определена Шенноном.
Шеннон это конечно классика, но мне больше нравится Винер. Он как то, хоть и менее формально, но более точно всё определил. Цитату приводить не буду, она уже всем давно известна, где он оценивает информацию, как величину обратную энтропии. Очень умные ученые не любят таких упрощений, но только по настоящему гениальные ученые, не боятся этого.
Шматина глины не знатней орангутанга (Алексей Толстой).

aevin

Цитата: Дж. Тайсаев от марта 19, 2015, 16:38:27
Шеннон это конечно классика, но мне больше нравится Винер. Он как то, хоть и менее формально, но более точно всё определил. Цитату приводить не буду, она уже всем давно известна, где он оценивает информацию, как величину обратную энтропии. Очень умные ученые не любят таких упрощений, но только по настоящему гениальные ученые, не боятся этого.


"В то время как энтропия является мерой дезорганизованности, информация, переносимая некоторым потоком посланий, определяет меру организованности. Фактически, мы можем определить информацию, содержащуюся в послании, как отрицательную энтропию или отрицательный логарифм вероятности. При этом, чем больше вероятность послания, тем меньше информации оно содержит".  (Винер)

Он просто пересказал формулу Шеннона словами. )

------------------------------------------------------------
В 1948 году, исследуя проблему рациональной передачи информации через зашумлённый коммуникационный канал, Клод Шеннон предложил революционный вероятностный подход к пониманию коммуникаций и создал первую, истинно математическую, теорию энтропии. Его сенсационные идеи быстро послужили основой разработки двух основных направлений: теории информации, которая использует понятие вероятности и эргодическую теорию для изучения статистических характеристик данных и коммуникационных систем, и теории кодирования, в которой используются главным образом алгебраические и геометрические инструменты для разработки эффективных кодов.
Понятие энтропии, как меры случайности, введено Шенноном в его статье «Математическая теория связи» (англ. A Mathematical Theory of Communication), опубликованной в двух частях в Bell System Technical Journal в 1948 году.


https://ru.wikipedia.org/wiki/%D0%98%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D0%B8%D0%BE%D0%BD%D0%BD%D0%B0%D1%8F_%D1%8D%D0%BD%D1%82%D1%80%D0%BE%D0%BF%D0%B8%D1%8F

aevin

Шеннон, в отличие от Винера, не писал популярных книжек. Поэтому имя Винера и прилипло к этому определению.

Дж. Тайсаев

Цитата: aevin от марта 20, 2015, 09:02:25
Понятие энтропии, как меры случайности, введено Шенноном в его статье «Математическая теория связи» (англ. A Mathematical Theory of Communication), опубликованной в двух частях в Bell System Technical Journal в 1948 году.
Всё таки Больцман раньше ввёл понятие энтропии, как статистической категории, а значит именно меры случайности. А на счёт остального, согласен. Винер в той работе как раз ссылается на Шеннона.
Шматина глины не знатней орангутанга (Алексей Толстой).

aevin

Цитата: Дж. Тайсаев от марта 20, 2015, 11:29:33
Цитата: aevin от марта 20, 2015, 09:02:25
Понятие энтропии, как меры случайности, введено Шенноном в его статье «Математическая теория связи» (англ. A Mathematical Theory of Communication), опубликованной в двух частях в Bell System Technical Journal в 1948 году.
Всё таки Больцман раньше ввёл понятие энтропии, как статистической категории, а значит именно меры случайности. А на счёт остального, согласен. Винер в той работе как раз ссылается на Шеннона.

Это да. Но тут речь о коммуникационных системах с кодированием, которые Больцман не рассматривал.

василий андреевич

Цитата: aevin от марта 20, 2015, 11:49:15
речь о коммуникационных системах с кодированием, которые Больцман не рассматривал.
Хорошо, берем термин коммуникация, что "по большому" означает взаимодействие. Есть тепло, приводящее к столкновениям, есть возможность соединений. Какие соединения естественны? Только те, которые приводят к возрастанию энтропии? Вовсе нет. Естественны только те соединения, которые оказываются энергетически ниже. В химизме это вода как соединение водорода с кислородом. Но такое соединение обязательно сопровождается возрастанием энтропии в среде.
  И тут вклинивается понятие информации. Да еще так, что обрастает понятием кода. То бишь есть естественность таких "столкновений", которые приводят к посылке кодированного сигнала в некую протяженность. И эта протяженность реагирует уже не "естественно", а подчиняясь принятому сигналу, который смогла "раскодировать", согласно данным уже как бы имеющимся у нее от статуса "привелегированного" рождения. Но это нонсенс.
  Нет никакой информации, как первоосновы. Есть сигнал, типа - я прореагировал, так, что свалился в энергетическую яму. И этот сигнал и есть скачок энтропии. Тот кто адекватно отреагирует на такое послание и будет раскодировщиком уже информации о том, что где-то произошла реакция "по свалу в яму".
  Теперь берите и подключайте сюда ЕО за обладание информацией о "занятых нишах". Уверяю, именно такой подход может быть обработан математически.

aevin

Цитата: василий андреевич от марта 21, 2015, 02:51:40
  Теперь берите и подключайте сюда ЕО за обладание информацией о "занятых нишах". Уверяю, именно такой подход может быть обработан математически.

Если уверены, так обрабатывайте.

-------------------------------------------------
- Доктор, по мне бегают зелёные человечки!
- А что Вы на меня-то их стряхиваете???

алексаннндр

Может ли существовать комфортная для жизни планетная система с кратными звёздами?
В принципе да, это понятно, но меня что озадачивает, не будет ли система вращающихся около центра масс звёзд передавать энергию своего вращения обращающимся вокруг них планетам и отдалять их от себя или наоборот забирать энергию орбитального движения и приближать их к себе?
В любом случае система получается достаточно нестабильной, планеты либо упадут на какую-либо звезду, либо улетят из комфортной области, например, на более высокую орбиту, эффект будет значим и там, но в меньшей степени.
Или нет?

Дж. Тайсаев

Цитата: алексаннндр от марта 21, 2015, 14:06:17
Может ли существовать комфортная для жизни планетная система с кратными звёздами?
В принципе да, это понятно, но меня что озадачивает, не будет ли система вращающихся около центра масс звёзд передавать энергию своего вращения обращающимся вокруг них планетам и отдалять их от себя или наоборот забирать энергию орбитального движения и приближать их к себе?
В любом случае система получается достаточно нестабильной, планеты либо упадут на какую-либо звезду, либо улетят из комфортной области, например, на более высокую орбиту, эффект будет значим и там, но в меньшей степени.
Или нет?
Не знаю, однозначно наверное никто не знает, но согласно уравнению Дрейка и постулатов Шкловского, вряд ли. Слишком уж большие перепады температур для жизни, а жизнь она всё таки привязана к воде, самый универсальный растворитель из массовых веществ, а вода имеет чёткий диапазон от нуля до плюс ста.
Шматина глины не знатней орангутанга (Алексей Толстой).

василий андреевич

Цитата: aevin от марта 21, 2015, 08:55:23
Если уверены, так обрабатывайте.
Честно говоря, я так и поступаю, просто не пишу длинючих формул. Но так понимаю Вас, что пора завязывать до другого случая...
  В связи с этим завязыванием у меня другой глупый вопрос: чем гравитация отличается от информации, что нужно притягиваться?

алексаннндр

К 339- не, это если звёзды в кратной системе будут достаточно далеко расположены друг от друга, есть ведь звёзды, обращающиеся вокруг своего общего центра масс почти сливаясь в гантелю, приливные горбы у них вытягиваются, вот не помню, сливаются буквально или нет, ну с Земли может оно и не очень видно.
Если орбита почти круговая, расстояние до группы звёзд, две-три, принципиально больше, чем расстояние между самими компонентами звёздного хоровода, особенных перепадов быть не должно, мне кажется, искусственная, может быть схема, ну тем не менее.
Но вот передача энергии от планет к звёздной системе или наоборот- имеет ли это значимый масштаб и в каких случаях?

Дж. Тайсаев

Я честно говоря не знаю, среди наших пользователей есть один астрофизик под ником Комбинатор, есть ещё очень хороший профессионал - AdmiralHood, он точно ответит, если зайдёт на сайт.
Шматина глины не знатней орангутанга (Алексей Толстой).

василий андреевич

Цитата: алексаннндр от марта 21, 2015, 17:24:39
Но вот передача энергии от планет к звёздной системе или наоборот- имеет ли это значимый масштаб и в каких случаях?
Допустим, вокруг центральной звезды имеются "какие угодно" планеты. Вопрос: во что выльется звездная система? Пропадут ли двойные звезды? Кто на кого упадет?
  У планеты "две" энергии - вращение вокруг оси и вокруг гравитирующего центра (центра масс). Энергия вращения вокруг оси должна рассеиваться за счет приливных волн. Чем меньше энергия планеты, тем меньше ее притяжение к центру масс. Оттого и Луна, растратив свою энергию вращения вокруг оси, по идее, должна покидать Землю.
  ПП. Думаю, Адмирал бы ответил точнее. Я только за свое мнение.

ArefievPV

Что с Луной будет-то...
http://www.ogoniok.com/archive/1999/4618/31-31-31/
Короче, всё упадёт в итоге на Солнце... :'(