Социальная и биологическая организация систем

Автор ArefievPV, марта 23, 2016, 05:32:43

« назад - далее »

василий андреевич

Цитата: Nur 1 от октября 27, 2018, 07:37:50периодического и скачкообразного изменения несущей частоты по алгоритму, согласованному приёмником и передатчиком.
Можно попробовать согласовать две случайности: о лихнесах и "квадратно-двуктратном" кодировании. Допустим, согласованность переходов на частоты информационных обменов диктуется средой между грибом и водорослью. В таком раскладе получим неизбежность траекторий схождения, т.к. подобная среда выступит в роли своеобразной ниши, с пониженной энтропией. Довести эту нишу до заполнения, значит, повысить энтропию виртуально-информационного пространства (межцарственной среды) повышением комбинаторной вариативности - это один из способов подчинения второму принципу.

Nur 1

#1606
Это Вы не интеграцию геномов, по случаю, имеете в виду, глубокоуважаемый василий андреевич?

Чтобы было понятнее, вот ссылка на популярный ресурс: http://elementy.ru/genbio/synopsis/43/Metabolicheskaya_integratsiya_organizmov_v_sistemakh_simbioza.

василий андреевич

Цитата: Nur 1 от октября 27, 2018, 10:23:44Это Вы не интеграцию геномов, по случаю, имеете в виду
Наверное, да. Но, честно говоря, я имею ввиду формализацию способов интеграции. Дело в том, что Дарвиновская дивергенция понятна, как понятна идея БВ - от концентрации к рассеянию. А вот Берговская конвергенция, на первый взгляд, противоречит естественности, в связи с чем Берг указывал - надо искать закон - Номос (Номогенез).
  Социализация - это становление таких блоковых комбинаций, когда творчески организуются, как барьеры на пути слияний (для расширения возможностей индивидуальной эволюции), так и "кротовые норы" для слияний разнородных блоков (для успешного захвата рынка выбросов "отходов производства").
  Вот именно эти "кротовые норы" и надо, в контексте симбиоза, формализовать, офизичить, дать сырье для математики. И раз аудитории стала так близка терминология информатики, то из Вашего примера с "двуканальным шифрованием" можно выжать формализуемую суть. Повторю ее.
  Две разнородные системы, вынужденные функционировать на одном рынке, должны либо размежеваться по отдельным нишам (дивергентный принцип), либо выработать "договор" о совместном использовании одной (конвергентный принцип). Рынок-среда пусть будет надсистемой со своей алгоритмией (хоть последовательностью вспышек на Солнце). Этой алгоритмии вынуждены подчиняться участники рынка, в данном примере гриб и водоросль. Подчинение внешней алгоритмии означает, попросту, "договоренность" о смене кодовых частот при энергетическом обмене гриб - водоросль. Взаимовыгодный обмен означает, что отходы работы гриба становятся пищей для работы водоросли и, соответственно, наоборот - это называется дуализацией отношений.
  Формализация будет подключаться через ту идею, что информационные потоки являются каналами с пониженной энтропией. И не важно, что это не столько информационный, сколько энергетический поток (информация - не энергия и не энтропия, но есть условия, когда информация на микроскопическом уровне приводит к появлению свободной энергии при условии повышения энтропии). Просто такую необычную нишу не с пониженным уровнем потенциальной энергии, а пониженным состоянием энтропии можно выразить через чисто формальный подход, без наворотов рассудительности о мифологической полезности удовлетворения потребностей.

ArefievPV

Цитата: василий андреевич от октября 27, 2018, 11:34:59
пониженным состоянием энтропии можно выразить через чисто формальный подход, без наворотов рассудительности о мифологической полезности удовлетворения потребностей.
Уже говорили о подобном...

Рациональность (полезность, осмысленность, экономность, толк), как и разумность непосредственно связана с самосохранением (с выживанием) системы. То есть, способностью системы не превышать некий допустимый уровень плотности энтропии в себе.

Всё, что способствует сохранению данного состояния (состояния низкой плотности энтропии), как и всё, что препятствует сохранению данного состояния, будет иметь для системы смысл. В первом случае, она будет расценивать это как полезное, хорошее...
Во втором случае – как вредное, плохое...

Вообще, любая воспринимаемая информация имеет смысл и значимость для системы только в этом контексте – способствует или не способствует самосохранению (выживанию) данная информация. Если с помощью данной информации можно сохранить состояние с допустимым уровнем плотности энтропии (разумеется, в определённых пределах), то она полезна. Соответственно, способы достижения такого состояния без «провалов» и «скачков» (недопустимых колебаний уровня энтропии) будут рациональными и разумными.

P.S. В узком понимании программа, это «запись» некоего алгоритма реакции/активности системы (на внешнее воздействие и/или на воздействие от внутреннего «часового механизма» и т.д.)...

василий андреевич

Цитата: ArefievPV от октября 27, 2018, 13:49:35Всё, что способствует сохранению данного состояния (состояния низкой плотности энтропии), как и всё, что препятствует сохранению данного состояния, будет иметь для системы смысл. В первом случае, она будет расценивать это как полезное, хорошее... Во втором случае – как вредное, плохое...
В таком раскладе Вам придется объяснить, что такое плотность энтропии. И уже потом, каким образом изменение плотности энтропии будет иметь смысл.

ArefievPV

Цитата: василий андреевич от октября 27, 2018, 18:22:12
Цитата: ArefievPV от октября 27, 2018, 13:49:35Всё, что способствует сохранению данного состояния (состояния низкой плотности энтропии), как и всё, что препятствует сохранению данного состояния, будет иметь для системы смысл. В первом случае, она будет расценивать это как полезное, хорошее... Во втором случае – как вредное, плохое...
В таком раскладе Вам придется объяснить, что такое плотность энтропии.
Энтропия мера неупорядоченности (мера хаотизации) системы. Соответственно, плотность энтропии, это отношение энтропии к объёму (или массе) системы.

Цитата: василий андреевич от октября 27, 2018, 18:22:12
И уже потом, каким образом изменение плотности энтропии будет иметь смысл.
Уже объяснялись по этому поводу. Ваше мнение тоже там звучало (вполне мною ожидаемое, кстати). Поэтому, думаю, объяснять бесполезно...

Вот ссылки:
https://paleoforum.ru/index.php/topic,9297.msg215291.html#msg215291 (разместил ссылку на статью)
https://paleoforum.ru/index.php/topic,9297.msg215312.html#msg215312
https://paleoforum.ru/index.php/topic,9297.msg215320.html#msg215320
https://paleoforum.ru/index.php/topic,9297.msg215345.html#msg215345
https://paleoforum.ru/index.php/topic,9297.msg215355.html#msg215355
https://paleoforum.ru/index.php/topic,9297.msg215356.html#msg215356 (про формулировку понятия «энтропии» упоминается)
https://paleoforum.ru/index.php/topic,9297.msg216310.html#msg216310

Есть желание, перечитайте дискуссию.
Почти уверен, что даже читать не будете... 8)

Шаройко Лилия

35
Ненаучные разговоры / Re: О понимании и взаимопонимании...
« Последний ответ от ArefievPV Сегодня в 08:37:14 »
Эх... Два неглупых человека никак не придут к взаимопониманию...

Вот иногда даже интересно -почему
:(

Nur 1

Читал дискуссию. Но понятнее - не стало.
Лично у меня, по ее ходу, понятие "плотность энтропии" вызвало ассоциации с "плотностью вероятности". То есть речь о подобии волновой функции, без редукции которой ни о какой семантике говорить не приходится. 
Какая семантика тут получается? У некоторой (генетической, например) комбинации нет, получается, особых шансов на сохранение, если чувствительность к начальным условиям остается высокой. То есть, в дискуссии, все равно, придется говорить об определениях, содержание которых не меняется по произвольному требованию участников. По ходу обсуждения я так и не понял, имеется таковое у нас или нет. Если нет, то к чему словарный запас попусту тратить-то?
Договариваться нужно. А полутся ли, коли участники, в силу  п р е д в з я т о с т и,  в упор стоят на своем? От какого словосочетания плясать зачнем, а-аа?

Шаройко Лилия

Мне кажется корень проблемы в двойственном желании (договариваться и в противоположном - настоять на своем). Возможно просто терминологическое недопонимание.

А может просто внутренняя система координат настолько разная, что это в принципе невозможно. Так бывает, хотя не обязательно, что это именно такой случай.
Если миры слишком сильно не совпадают, иногда помогает найти, что именно в мирах созданных внутри каждого так различается.
Или просто по разному называется.
Прошу прощения у джентльменов, что вмешалась.
:)

василий андреевич

#1614
  Для разрешения терминологического непонимания существуют словари.
  Понятие энтропии неразрывно связано со вторым принципом, у которого много формулировок и потому сказать, что энтропия - мера хаотизации, значит расписаться в невозможности ей оперировать. Да, энтропию, как одно из состояний системы, находящейся в тепловом равновесии своих частей, подсчитать на практике невозможно. Отчего и пользуются принципиально вычисляемой разницей между конечным и начальным состояниями равновесия. Что происходит с энтропией между состояниями, сказать нельзя, разве что сделать процесс перехода "бесконечно" квазистатическим.
  Во-первых, энтропия это количество неупорядоченной энергии (тепла), в изучаемом теле (системе тел), отнесенное к температуре этого тела. (во-вторых есть трактовка Больцмана). Поделив энтропию на объем, получим в знаменателе произведение температуры на объем. Начнем увеличивать объем, что является элементарным процессом рассеяния. Температура упадет, уменьшится давление, а количество тепла останется прежним. Вопрос: в какую сторону изменится плотность энтропии? А нельзя сказать, если не сделать давление константой. Но оно не может быть константой без того, что бы не изменять количество подводимого тепла.
  Потому говорить о плотности энтропии или плотности хаоса/порядка, по меньшей мере, не корректно, на что сразу и среагировал Нур.

  Есть и такая малоизвестная вполне оригинальная формулировка второго начала: если у системы есть несколько равнозначных состояний энтропии, то система самопроизвольно перейдет в то, которое достигается наибольшим количеством способов изменения прочих параметров состояния системы. Замете, энтропия не изменилась, а микроскопическая эволюция произошла. Именно из этой формулировки следует вывод, что в микроскопических (но не в макроскопических) системах канал информационного обмена обладает пониженной в сравнении со средой энтропией. Разъяснение просто: главное требование к информации - это однозначность декодировки приемником закодированного источником. Термин смысл подчеркивает именно эту однозначность. Но никак не изменение энтропийной плотности. Можно говорить о плотности хаотической энергии (плотности хаоса), но тогда параметр, характеризующий эту плотность будет называться температурой, но только при неизменности объема и давления в системе.

ArefievPV

#1615
Цитата: василий андреевич от октября 27, 2018, 21:24:50
Для разрешения терминологического непонимания существуют словари.
Словари Вам не помогут понять Арефьева. 8)

Как уже говорил, словари и термины, это заключительный этап в процессе взаимопонимания. Сначала должно сформироваться самое общее взаимопонимания.
Хотя бы на уровне согласования ритма (дыхания, движения, активности) и/или согласования самого общего каркаса («скелета» структуры) мировоззрения и менталитета...

Цитата: василий андреевич от октября 27, 2018, 21:24:50
  Понятие энтропии неразрывно связано со вторым принципом, у которого много формулировок и потому сказать, что энтропия - мера хаотизации, значит расписаться в невозможности ей оперировать. Да, энтропию, как одно из состояний системы, находящейся в тепловом равновесии своих частей, подсчитать на практике невозможно. Отчего и пользуются принципиально вычисляемой разницей между конечным и начальным состояниями равновесия. Что происходит с энтропией между состояниями, сказать нельзя, разве что сделать процесс перехода "бесконечно" квазистатическим.
  Во-первых, энтропия это количество неупорядоченной энергии (тепла), в изучаемом теле (системе тел), отнесенное к температуре этого тела. (во-вторых есть трактовка Больцмана). Поделив энтропию на объем, получим в знаменателе произведение температуры на объем. Начнем увеличивать объем, что является элементарным процессом рассеяния. Температура упадет, уменьшится давление, а количество тепла останется прежним. Вопрос: в какую сторону изменится плотность энтропии? А нельзя сказать, если не сделать давление константой. Но оно не может быть константой без того, что бы не изменять количество подводимого тепла.
  Потому говорить о плотности энтропии или плотности хаоса/порядка, по меньшей мере, не корректно, на что сразу и среагировал Нур.

  Есть и такая малоизвестная вполне оригинальная формулировка второго начала: если у системы есть несколько равнозначных состояний энтропии, то система самопроизвольно перейдет в то, которое достигается наибольшим количеством способов изменения прочих параметров состояния системы. Замете, энтропия не изменилась, а микроскопическая эволюция произошла. Именно из этой формулировки следует вывод, что в микроскопических (но не в макроскопических) системах канал информационного обмена обладает пониженной в сравнении со средой энтропией. Разъяснение просто: главное требование к информации - это однозначность декодировки приемником закодированного источником. Термин смысл подчеркивает именно эту однозначность. Но никак не изменение энтропийной плотности. Можно говорить о плотности хаотической энергии (плотности хаоса), но тогда параметр, характеризующий эту плотность будет называться температурой, но только при неизменности объема и давления в системе.
Позволю себе разместить цитаты.
http://emf.pskgu.ru/ebooks/astros/0401_O.pdf
Цитировать3.5. Энтропия и жизнь
Вопрос об отношении жизни ко второму началу
термодинамики – это вопрос о том, является ли жизньостровком сопротивления второму началу. Действительно, эволюция жизни на Земле идет от простого к сложному, а второе начало термодинамики предсказывает обратный путь эволюции – от сложного к просто-
му. Указанное противоречие объясняется в рамках термодинамики необратимых роцессов. Живой организм как открытая термодинамическая система потребляет энтропии меньше, чем выбрасывает ее в окружающую среду. Величина энтропии в пищевых продуктах меньше, чем в продуктах выделения. Иными словами, живой организм существует за счет того, что имеет возможность выбросить энтропию, вырабатываемую в нем вследствие необратимых процессов, в окружающую среду. Именно это обстоятельство дало право
Э. Шрёдингеру сказать, что "организм питается отрицательной энтропией".
Отметим, что для живого организма определение энтропии представляет известные трудности, поскольку в соответствии с термодинамикой, даже если организм считать равновесной структурой, для вычисления энтропии необходимо указать способ создания или уничтожения организма обратимым путем.
Цитировать3.6. Энтропия и информация
Связь между энтропией и информацией можно проследить на следующем примере [7, 8]. Рассмотрим тело при абсолютном нуле температуры, и пусть мы имеем полную информацию о координатах и импульсах каждой частицы. Для простоты положим, что импульсы всех частиц равны нулю. В этом случае термодинамическая вероятность равна единице, а энтропия – нулю. При конечных температурах энтропия в равновесии достигает максимума. Можно измерить все макропараметры, характеризующие данное макросостояние. Однако мы практически ничего не знаем о микросостоянии системы. Точнее говоря, мы знаем, что данное макросостояние можно реализовать с помо-
щью очень большого числа микросостояний.
Таким образом, нулевой энтропии соответствует полная информация (степень незнания равна нулю), а максимальной энтропии – полное незнание микросостояний (степень незнания максимальна).
В теории информации энтропия (информационная энтропия) определяется как количество информации.
Пусть Р – априорная вероятность некоторого события (вероятность до проведения опыта), a P1 – вероятность этого события после проведения опыта. Для простоты будем считать, что Р1 = 1.
По Шеннону, количество информации I, которое дает точный ответ (после проведения эксперимента),
I = KlogP.
Например, при игре в орлянку возможны два ответа (монета падает той или другой стороной на пол), то есть Р = 2. При бросании кости из шести возможных вариантов выпадает 1, то есть Р = 6.
Если в качестве основания логарифма выбрать 2 и положить К = 1, то при бросании монеты мы получаем информацию
I = log22 = 1.
Это количество информации, по определению, равно одному биту.
Физический смысл I – это мера нашего незнания. Другими словами, I – это та информация, которую мы можем получить, решив задачу. В рассматриваемом выше примере (тело при абсолютном нуле температуры) мера нашего незнания равна нулю, так как Р = 1. После
проведения опыта мы получаем нулевую информацию I = 0, так как все было известно до опыта. Если рассматривать тело при конечных температурах, то до проведения опыта число микросостояний, а следовательно, и Р очень велико. После проведения опыта мы получаем большую информацию, поскольку нам становятся известными координаты и импульсы всех частиц.
Аналогия между количеством информации и энтропией S, определяемой из принципа Больцмана, очевидна. Достаточно положить множитель К равным постоянной Больцмана kB и использовать натуральный логарифм. Именно по этой причине величину I назы-
вают информационной энтропией. Информационная энтропия (количество информации) была определена по аналогии с обычной энтропией, и она обладает свойствами, присущими обычной энтропии: аддитивностью, экстремальными свойствами и т.д. Однако отождествлять обычную энтропию с информационной нельзя, поскольку неясно, какое отношение имеет второе начало к информации.
Если речь ведём о живых системах, то их нельзя считать равновесными структурами. Соответственно термодинамическая трактовка энтропии в отношении живых систем будет некорректной. Такая трактовка может применяться только для описания (объяснения) какой-то одной грани (некоего набора характеристик, параметров, свойств) живой системы. То есть, трактовка годиться для описания (объяснения) каких-то отдельных свойств живой системы в каких-то определённых ситуациях. Но всеобъемлющего объяснения такая трактовка не даёт. Это достаточно узкий и односторонний взгляд на живые системы.

Есть ещё информационная энтропия. Трактовка с этой позиции освещает ещё одну грань живой системы. Но и она не даёт полной объяснительной картинки для живой системы.

На мой непросвещённый* взгляд, для формирования полной объяснительной картинки такого явления как жизнь (живые системы) необходимо свести к единому знаменателю те две вышеуказанные трактовки/позиции.

Информационную трактовку свожу к структурности системы (попросту говоря, к структуре). Структура, это совокупность связей. В различных состояниях системы структура (совокупность связей) системы различна. Состояния именно этим и отличаются друг от друга. 

Энергетическую трактовку свожу к действию/движению (активности) и/или потенциалу действия/движения (потенциалу активности).

Я, как носитель тёмного* взгляда (не забыли, что у меня непросвещённый* взгляд?) вижу, как можно совместить эти трактовки. 8)

Например, как будет распределяться действие/движение (активность), зависит от структуры. Именно структура определяет характер действия/движения (активности). Структура не порождает действие/движение (активность) она только их/её направляет, распределяет/консолидирует, трансформирует, канализирует и т.д. Иначе говоря, структурирует действие/движение/активность (соответственно, и потенциал действия/движения/активности).

Кстати, и связь, и действие я точно так же свожу к общему знаменателю – к отражению.
В реальности только отражения (смысловое наполнение данному понятию я неоднократно предоставлял). В действительностях (а их много – на любой вкус, так сказать) первичное отражение «распадается» на две основных составляющих: действие/движение и связь/структура. Можно сказать, что и то и другое, это просто две ипостаси (две стороны) первичного отражения...

Но, боюсь, что для вас (носителей просвещённых взглядов, всегда имеющих наготове кучу словарей и учебников) такой подход оказывается неприемлемым... 8)

василий андреевич

Я так понимаю, что и Арефьев не сможет понять Арефьева, ибо не сможет через нижеследующее объяснить элементарное. Разве что сказать: т.к. действительностей бесконечно много, а элементарное сидит в одной из них, то вначале укажите, любезный, о какой из действительностей Арефьева идет речь
Цитата: ArefievPV от октября 28, 2018, 07:14:08В действительностях (а их много – на любой вкус, так сказать) первичное отражение «распадается» на две основных составляющих: действие/движение и связь/структура. Можно сказать, что и то и другое, это просто две ипостаси (две стороны) первичного отражения...
Но сократим действительности до конечного числа:
Цитата: василий андреевич от октября 27, 2018, 21:24:50Если речь ведём о живых системах, то их нельзя считать равновесными структурами.
И зададим вопрос: а какими можно считать структуры живых систем? Но сперва - что такое система живых структур и чем она отличается от системы неживых структур?
  Можно с учетом "великого объединения" макроскопической и информационной энтропии.
  Например, живое есть диссипативная (рассеивающая) макроскопическая система, организующая свою микроструктуру (анти диссипацию) путем принятия информационных потоков из среды.

ArefievPV

#1617
Цитата: василий андреевич от октября 28, 2018, 09:45:59
Я так понимаю, что и Арефьев не сможет понять Арефьева,
Вы можете предполагать, что угодно... 8)

Цитата: василий андреевич от октября 28, 2018, 09:45:59
ибо не сможет через нижеследующее объяснить элементарное.
То есть, это причина, почему Арефьев не может понять Арефьева? :)
Фраза как-то не по-русски составлена...

Цитата: василий андреевич от октября 28, 2018, 09:45:59
Разве что сказать: т.к. действительностей бесконечно много, а элементарное сидит в одной из них,
Это прямая ложь. 8)
Вы это сами придумали, а приписали высказывание мне... 8)
То, что я обзываю элементарным, лежащим в основе любой действительности, не сидит ни в какой из действительностей. Отражения в своей двойственной ипостаси (элементарное, так сказать), они в реальности, а не в действительности.

Это ж надо придумать: "сидит в одной из них"... 8)
Никакая действительность не обладает приоритетом перед другими действительностями, в этом смысле...

Цитата: василий андреевич от октября 28, 2018, 09:45:59
то вначале укажите, любезный, о какой из действительностей Арефьева идет речь
Цитата: ArefievPV от октября 28, 2018, 07:14:08В действительностях (а их много – на любой вкус, так сказать) первичное отражение «распадается» на две основных составляющих: действие/движение и связь/структура. Можно сказать, что и то и другое, это просто две ипостаси (две стороны) первичного отражения...
Ни о какой...

Цитата: василий андреевич от октября 28, 2018, 09:45:59
Но сократим действительности до конечного числа:
Цитата: василий андреевич от октября 27, 2018, 21:24:50Если речь ведём о живых системах, то их нельзя считать равновесными структурами.
Эта фраза из моего сообщения, а не из Вашего...

Цитата: василий андреевич от октября 28, 2018, 09:45:59
И зададим вопрос: а какими можно считать структуры живых систем?
Неравновесными.

Цитата: василий андреевич от октября 28, 2018, 09:45:59
Но сперва - что такое система живых структур и чем она отличается от системы неживых структур?
Вы ведь на самом деле не читаете моих сообщений, правда? :)
Многократно уже говорил, чем отличается. Свойством самосохранения. Которое в активной фазе существования живой системы проявляется как стремление к самосохранению...

Максет

#1618
Цитата: Nur 1 от октября 26, 2018, 10:54:42
Уважаемый Максет, добрый день!
Добрый день, уважаемый Нур.

ЦитироватьВы пишите о том, что, цитирую дословно: "В грибе возникла потребность..." (ответ #1582 : сегодня в 08:28:41). Для меня, как биолога, такая фраза звучит немного странно, но, нужно полагать, речь о том, что включилась некоторая программа. Я правильно понял?
Ну да. Это как некоторое нарушение функциональности системы, угрожающее самосохранению системы.
Например, в настенных часах, работающих от батарейки, наблюдается явление, когда стрелка при подъеме «пробуксовывает». Это пример нарушения функциональности системы.  В данном случае в этой системе возникла «потребность» в восстановлении полноценного питания.
В автономных, самоуправляемых системах такая потребность, ради самосохранения, породит программу – намерение починить или заменить неисправный элемент системы.
И если не удастся починить или найти родную запчасть, то придется заменить на подходящий.

ЦитироватьНе могли бы Вы пояснить, как это могло произойти? Подробности можно опустить, просто покажите, пожалуйста, механизм в схеме. Мол, вот локус нуклеиновой кислоты, в котором произошло замещение одного азотистого основания на другое, в результате... - ну, и так далее. Или же, описать другой механизм.
Я не биолог, и не могу ничего сказать о механизме функционирования лишайника, но посмотрел и узнал, что лишайник, оказывается симбиоз не двух, а трех организмов.

Но, думаю, что основной принцип функционирования любой системы примерно такой же как и у часов.



Максет

Цитата: ArefievPV от октября 26, 2018, 12:22:01

Соответственно, опять задаю прежний вопрос - зачем, тогда все эти умопостроения? ???
Ведь по факту произошло изменение программы в одной из систем, в результате чего системы начали взаимодействовать. И не надо выдумывать "хранилище" для ещё нематериализованной программы - она уже по факту материализована в одной из систем...
В системе А возникла только программа АБ как намерение постричься. Где Вы видите что она уже материализована в системе А? Эта программа материализуется в систему АБ, только тогда, когда А найдет эту систему Б и начнется фактическое взаимодействие. То есть материальная система АБ будет функционировать только тогда, когда Вы сядете в парикмахерское кресло и парикмахер начнет вас стричь.