страсти по информации

Автор василий андреевич, октября 31, 2022, 10:06:04

« назад - далее »

eL-Tric

Цитата: василий андреевич от ноября 19, 2022, 19:30:42А вот является ли рефлекторный ответ информационной системой - это еще большой вопрос. Я бы отказал ему в таковом, потому что в нем нет качественной составляющей, только лимитное количество, по достижению которого срабатывает автомат триггерного типа, сама же информация, как подбор и смена алгоритмов в вариативности поведения отсутствует.
Является ли информационным процессом передача импульса по нерву?

Маikov

Цитата: eL-Tric от ноября 17, 2022, 22:13:51Пока вы не приняли сообщение, вы не знаете, что там будет сообщено. Его неопределенность или энтропия максимальна. Пока вы принимаете сообщение, его неопределенность с каждой принятой буквой уменьшается. Приняв сообщение его неопределенность оказывается минимальной.
Неопределённость не в том, полностью вы приняли сообщение или нет, а в том, насколько предсказуемо его содержание, тот или иной набор символов в нём. Если сообщение предсказуемое, то есть вероятность именно такого сочетания символов в нём велика — значит, в сообщении нет ничего нового, поэтому неопределённость в голове оно не уменьшит, объём знания не увеличится. Поэтому чем более вероятно содержание сообщения, тем меньше информации сообщение принесёт. А так как непредсказуемость появления некого символа алфавита в сообщении можно естественным образом связать с энтропией (чем более непредсказуемое сообщение, то есть чем больше оно связано с «хаосом догадок о том, что там написано», тем выше его информационная энтропия), то, получается, что чем выше информационная энтропия сообщения, тем больше будет прирост информации при его получении.

Цитировать«Информацио́нная энтропи́я — мера неопределённости некоторой системы (в статистической физике или теории информации), в частности, непредсказуемость появления какого-либо символа первичного алфавита. В последнем случае при отсутствии информационных потерь энтропия численно равна количеству информации на символ передаваемого сообщения.

(...)

Если следование символов алфавита не независимо (например, во французском языке после буквы «q» почти всегда следует «u», а после слова «передовик» в советских газетах обычно следовало слово «производства» или «труда»), количество информации, которую несёт последовательность таких символов (а, следовательно, и энтропия) меньше.»

Информационная энтропия — Википедия.

Но прирост информации, где происходит? Где уменьшается неопределённость? В сообщении? Нет. В сообщении ничего не происходит. В приёмнике? Тоже нет. В приёмнике просто программа, в ней ничего не уменьшается и не увеличивается, энтропия механизма/компьютера не изменяется и неопределённости в них тоже, естественно, никакой нет.

Появление информации — уменьшение энтропии/неопределённости — происходит только в голове, где происходит уменьшение изначально хаотической активности нейронов, их самоорганизация. Но так как мозг теория информации не изучает, то и информацию как таковую теория информации тоже не изучает, а только данные, которые для простоты понимания обобщаются с информацией, то есть с той неопределённостью, которую они уменьшат в наших головах. Вот так и возникают выражения «переносит информацию», «содержит информацию», «информация в книгах», «информация в компьютерах», «в ДНК» и т. д.. А чтобы вы не путались, для вас Международная организация по стандартизации специальное разъяснение написала:

Цитировать«Хотя информация должна обрести некоторую форму представления (то есть превратиться в данные), чтобы ею можно было обмениваться, информация есть в первую очередь интерпретация (смысл) такого представления (ISO/IEC/IEEE 24765:2010)[10]. Поэтому в строгом смысле информация отличается от данных, хотя в неформальном контексте эти два термина очень часто используют как синонимы.»

Информация — Википедия.

О ритмах мозга слышали? Внимание там с чем связано? Об энтропии в мозгах? Что отдельно каждый нейрон — это хаотический автоволновой осциллятор, а если их соединить, то их активность сама собой упорядочивается? Это уже давно научные теории, причём общеизвестные. Здесь, правда, о них никто ничего не знает. Слишком особенный контингент подобрался. Но не страшно, вы можете быть первым. Как Данко, понесёте Максету свет знаний...

Шутка. Вы ведь с ними из одной палаты. Шаройко Лилии привет передавайте.

Маikov

Цитата: Максет от ноября 19, 2022, 16:48:38У Шеннона как раз таки сказано, что снимает, а не снижает.
У Шеннона прирост информации равен утраченной неопределённости. Прирост, Максет. Прирост информации — это и есть сама утрата неопределённости. Информация не изменяет неопределённость, информация возникает как утрата неопределённости. Энтропия — это неопределённость, хаос, беспорядок, непонимание. Прирост информации — это утрата неопределённости, то есть уменьшение энтропии, хаоса, беспорядка. Из хаоса возникает порядок, из непонимания понимание.

Например. Вы не знали, как решить некую задачу, и поэтому действовали хаотично, наугад, потом узнали — и ваши действия приобрели упорядоченность, в них появился смысл, потому что теперь вы точно знаете, что конкретно надо делать, чтобы решить задачу. Так же как теперь смысл появился и в вашей голове — вы «поняли», что надо делать, «узнали» что-то новое. То есть в вашей голове появилось информация — конкретный «образ» решения, представление о «порядке» действий. Активность нейронов приобрела большую упорядоченность, согласованность, синхронизировались новые ансамбли нейронов, в голове стало меньше хаоса, произошло обучение нейронной сети вашего мозга.

Ясно?
***

Думаю, что не ясно. Нейроны у вас, по-моему, особенные. Поэтому возникают вопросы. Максет, зачем вы всё это пишите? Вы хотите опровергнуть науку? Похвально. Но тогда зачем ссылаетесь на Шеннона? Он науке не противоречит, он сам её развивал как раз в этой области. Может, вы хотите разобраться в научном знании? Но тогда вам надо думать о том, почему наука считает информацию смыслом данных, а не сами данные, почему в теории информации появляется такая сущность, как «энтропия», откуда там «вероятности» и так далее.

Правда, это сложно, а начинать надо с простого. Простое — это приведённые мной ранее аргументы о том, что информации в принципе не может быть в данных. Однако и здесь у вас проблемы. Тупик. Сложные вещи вы не понимаете, простые тоже, а проще аргументов уже нету. Но сообразить, что вы хотите — опровергнуть науку или в ней разобраться — вы хотя бы сможете? Отвечу за вас — и это не сможете.

Что же вам делать, если вы ничего не можете? Пока подумайте, с товарищами по бредогенерации посоветуйтесь, я потом как-нибудь ответ напишу.

Максет

Цитата: eL-Tric от ноября 19, 2022, 20:28:02Тогда он стукнет молотком по столу и зачитает вердикт.
Вы с Василием Андреевичем не поняли в чем смысл примера о судье и курице?

Речь там идёт вовсе не о судопроизводстве. Как работает судопроизводство я и так знаю. Приходилось судиться и не раз.

Речь там идёт о разборе определения Шеннона: Информация - это снятая неопределенность.

eL-Tric

Цитата: Максет от ноября 19, 2022, 22:33:20Речь там идёт вовсе не о судопроизводстве. Как работает судопроизводство я и так знаю. Приходилось судиться и не раз.
Про судопроизводство, это к слову. К тому, неопределенность чего снимают показания. Собственно, судебный процесс, это процесс снижение неопределенности вердикта.

Снятая - сниженная. Я чего-то не вижу разницы

Максет

Цитата: Маikov от ноября 19, 2022, 22:26:17У Шеннона прирост информации равен утраченной неопределённости.
Давайте разбирать на примере судьи и курицы.

ЦитироватьПрирост, Максет. Прирост информации — это и есть сама утрата неопределённости.
Информация не изменяет неопределённость, информация возникает как утрата неопределённости.

1.    Возник ли прирост информации у судьи после показания первого свидетеля?
2.    Если возник, то какая неопределенность при этом утратилась?

ЦитироватьЭнтропия — это неопределённость, хаос, беспорядок, непонимание. Прирост информации — это утрата неопределённости, то есть уменьшение энтропии, хаоса, беспорядка. Из хаоса возникает порядок, из непонимания понимание.
3.    Возник ли прирост информации у судьи после показания второго свидетеля?
4.    Если возник, то какая неопределенность при этом утратилась?

ЦитироватьНапример. Вы не знали, как решить некую задачу, и поэтому действовали хаотично, наугад, потом узнали — и ваши действия приобрели упорядоченность, в них появился смысл, потому что теперь вы точно знаете, что конкретно надо делать, чтобы решить задачу.
Так же как теперь смысл появился и в вашей голове — вы «поняли», что надо делать, «узнали» что-то новое. То есть в вашей голове появилось информация — конкретный «образ» решения, представление о «порядке» действий.
Активность нейронов приобрела большую упорядоченность, согласованность, синхронизировались новые ансамбли нейронов, в голове стало меньше хаоса, произошло обучение нейронной сети вашего мозга.

Если Вы не знали, то знайте:
Задача и ее решение – это одна целая и неделимая информация.
Дважды два – это не информация.
Равно четыре – это не информация.
Дважды два равно четыре – это информация.
Когда Вы задаете неизвестную задачу, то этим самым Вы искусственно создаете в голове ученика хаос и энтропию.
А когда даете ответ, Вы опять искусственно убираете этот хаос и энтропию.
Дайте задачу одновременно с решением, и не будет никакого хаоса и энтропии.
Информация в данном примере не утрачивает энтропию.
Нельзя утратить то, чего нет.

ЦитироватьЯсно?
А вам ясно, что Вы со своим объяснением пролетаете мимо кассы?

ЦитироватьДумаю, что не ясно. Нейроны у вас, по-моему, особенные. Поэтому возникают вопросы. Максет, зачем вы всё это пишите?

А Вы зачем пишете, да еще с ошибками?

ЦитироватьВы хотите опровергнуть науку? Похвально.
С чего Вы взяли? Разве не я предлагал обсуждать вопрос цивилизованно и в рамках науки?

ЦитироватьНо тогда зачем ссылаетесь на Шеннона? Он науке не противоречит, он сам её развивал как раз в этой области. Может, вы хотите разобраться в научном знании? Но тогда вам надо думать о том, почему наука считает информацию смыслом данных, а не сами данные, почему в теории информации появляется такая сущность, как «энтропия», откуда там «вероятности» и так далее.
А я чем занимаюсь? Чем то другим? Даю советы и нравоучения?

ЦитироватьПравда, это сложно, а начинать надо с простого. Простое — это приведённые мной ранее аргументы о том, что информации в принципе не может быть в данных.
Какие аргументы? Вы о чем?

ЦитироватьОднако и здесь у вас проблемы. Тупик. Сложные вещи вы не понимаете, простые тоже, а проще аргументов уже нету. Но сообразить, что вы хотите — опровергнуть науку или в ней разобраться — вы хотя бы сможете? Отвечу за вас — и это не сможете.
Ну, ставьте двойку. В чем проблема?

ЦитироватьЧто же вам делать, если вы ничего не можете? Пока подумайте, с товарищами по бредогенерации посоветуйтесь, я потом как-нибудь ответ напишу.
Моих товарищей, пожалуйста, не трогайте. Я сам могу за себя ответить.
А Вы обязательно напишите ответ. Очень интересно будет почитать.

Маikov

Цитата: Максет от ноября 20, 2022, 00:49:03А Вы обязательно напишите ответ.
Нечего отвечать, Максет. Я вам уже сказал, ваша писанина — это не ко мне. То, что вы ответили на предыдущие аргументы, говорит о том, что приводить новые бессмысленно. Это не отменяет того, что иногда я, может быть, что-то напишу, но только в тех случаях, когда есть настроение, и это какое-то отдельное утверждение, а не сплошной поток сознания, как обычно в этой теме. Конечно, и поток сознания можно опровергнуть, но начинать надо слишком издалека, ведь очевидно, что люди, которые такое пишут, ничего не знают. Но в вашем случае это всё равно бессмысленно, так как какой-то дичью вы отвечаете и на простейшие аргументы. Вот и сейчас вы точно так же пишете невесть что, хотя куда уж понятнее всё расписано. Впрочем, если вас это порадует, не только вы один в этой теме так изъясняетесь.

Хотите разобраться, читайте мои предыдущие посты. В них есть всё необходимое. В другие посты из этой темы я не вчитываюсь, поэтому что там у вас за история с судьями и курями, я всё равно не знаю. Но предполагаю, что на те вопросы, которые вы сейчас задали, вы можете и сами ответить, исходя из того, что я написал. На вменяемые сообщения, из которых будет понятно, что вы хоть что-то поняли, я, возможно, обращу внимание.

Цитата: Максет от ноября 20, 2022, 00:49:03А Вы зачем пишете, да еще с ошибками?
Спасибо, что заметили. 

Цитата: Максет от ноября 20, 2022, 00:49:03Моих товарищей, пожалуйста, не трогайте. Я сам могу за себя ответить.
Вы здесь ни при чём. "Ваши товарищи" и сами заслужили, чтобы я их "потрогал". Так что не беспокойтесь, лучше действительно за себя отвечайте.

Цитата: Маikov от ноября 19, 2022, 22:26:17Что же вам делать, если вы ничего не можете? Пока подумайте, с товарищами по бредогенерации посоветуйтесь, я потом как-нибудь ответ напишу.
Ответ очевиден. Делайте что угодно. Ведь всё равно ничего не получится.

Цитата: Маikov от ноября 12, 2022, 05:32:03Фактов вы не знаете, аргументов не понимаете, а фантазирует каждый по-своему. Поэтому вы будете обсуждать давно известное бесконечно.

василий андреевич

Цитата: Максет от ноября 20, 2022, 00:49:03Задача и ее решение – это одна целая и неделимая информация.
Дважды два – это не информация.
Равно четыре – это не информация.
Дважды два равно четыре – это информация.
Когда Вы задаете неизвестную задачу, то этим самым Вы искусственно создаете в голове ученика хаос и энтропию.
А когда даете ответ, Вы опять искусственно убираете этот хаос и энтропию.
Дайте задачу одновременно с решением, и не будет никакого хаоса и энтропии.
Информация в данном примере не утрачивает энтропию.
Нельзя утратить то, чего нет
В принципе достаточный посыл для разборок с
Цитата: eL-Tric от ноября 19, 2022, 20:31:43Является ли информационным процессом передача импульса по нерву?
Дать задачу одновременно с решением - это обнулить процесс рождения информации вместе с уничтожением информационной системы, как посредника между исходными и конечными данными. То есть, перепрыгнуть через становление рефлекса до его констатации, как данности настоящего. Или, дважды два - четыре, является рефлексом взрослого дяди, но не ребенка.
  Энтропия и информация не могут дробиться до бесконечности и, что бы не пугаться термина квантовые, скажем, что это обязательно порционные величины. Нельзя измерить информацию без того, что бы не исказить энтропию. И наоборот.
  Математически это записывается, как произведение информации и энтропии, есть величина дробимая до минимально допустимой константы. Получаем, чем больше информации (как данных) вложено в задачу до ее решения, тем меньше приращение энтропии после ее решения. И ребенок к решению дважды два приходит через операцию сложения палочек: две плюс две, равно два умножить на два, или две плюс две, плюс еще две, равно два по три раза. С бОльшими операциями уже сложнее, потому надо рефлекторно вызубрить таблицу умножения, как единую порцию "большой информации", доводящей энтропию до минимума.
  А вот задачка на почему 1+1 не равно 1на1 выходит за возможности операций с целыми числами. А информационный знак не дробим, он обязательно цельный.

  Моя цель в этой теме - "пощупать" информационную энтропию не через посыл от Больцмана, как экспоненту вероятности, а как посыл от консервации теплового хаоса в ту реалистично информационную структуру, температура которой не повышается при приеме тепловых порций.
  Если эту задачу решать влоб, то процесс поглощения тепла в структуру без увеличения температуры этой структуры невозможен в принципе, т.к. он негэнтропинет/запрещен. Но и без запрета мы знаем на опыте, что информационное усложнение воды в лед происходит только при возможности сброса тепловых отходов в принимающую среду. И вода вблизи нуля по Цельсию, копит тепло малыми порциями в хаотически формирующихся структурах, что бы дождаться момента масштабного сброса тепла из хаотических структур, превратившись в структуру кристалла с низкой неопределенностью расположения своих молекул в кристаллической форме.
  Простейший пример накопления тепла в структуру без подъема температуры - это вращение элементов, посложнее, но интереснее - вихревые движения.
  У меня получается так, что информационная система - это то, что "над" причинностной цепочкой код-сигнал-декод. А таковое положение "над" обязывает вводить представление о виртуальных посредниках. Что стоит в мозге "над" импульсивностью потенциалов действия - это уже следующий вопрос, не решаемый без предварительной разборки с информационно-энтропийной неопределенностью.

Максет

#203
Цитата: василий андреевичДать задачу одновременно с решением - это обнулить процесс рождения информации вместе с уничтожением информационной системы, как посредника между исходными и конечными данными. То есть, перепрыгнуть через становление рефлекса до его констатации, как данности настоящего. Или, дважды два - четыре, является рефлексом взрослого дяди, но не ребенка.
Как Вы любите усложнять простые вещи и загонять себя в болото.
Уверен, что 90% взрослых людей не знают как называется столица Эфиопии.
И вопрос - Столица Эфиопии?, вызовет у них напряжение мозга в поисках ответа.
Ответ - Аддис Абеба снимет это напряжение.
Так поступают обычно те, кто хочет показать свое превосходство.
А кто хочет передать знание, просто передает информацию - Столица Эфиопии - Аддис Абеба.
При этом ничего не обнуляется, а у человека появляется новое знание от полученной информации.


Максет

Цитата: Маikov от ноября 20, 2022, 03:16:39На вменяемые сообщения, из которых будет понятно, что вы хоть что-то поняли, я, возможно, обращу внимание.
Вот и сидите в своем танке, наглухо задраив люки. А если решитесь выглянуть, я вас подстрелю из рогатки.

василий андреевич

Цитата: Максет от ноября 20, 2022, 18:02:32у человека появляется новое знание от полученной информации.
Ну да, берет себе и появляется, а почему, то уже не моя забота. И живут, потому что появляется выживание, и думают, потому что появляется думание.
  Это еще от Аристотеля - тела притягиваются к земле, потому что они наделены свойством притягиваться. Заменяем "свойство" на более умное "функциональность", и средневековье склоняется в почтении.
Цитата: Максет от ноября 20, 2022, 18:24:02А если решитесь выглянуть, я вас подстрелю из рогатки.
Максет, скажите, какой функциональностью Вас наделило Оно, что написали такой ответ? Ведь так поступают предметы неодушевленные: отвечают противодействием, равным действию.

  Майков функционирует в рамках "теории управляемого хаоса" - оппоненты доводятся до агрессивного состояния, после чего им подсовываются ловушки для разрядки. Это отвратительный способ питания, но он исправно действует во все времена.


Максет

Цитата: василий андреевич от ноября 21, 2022, 06:42:27Майков функционирует в рамках "теории управляемого хаоса" - оппоненты доводятся до агрессивного состояния, после чего им подсовываются ловушки для разрядки. Это отвратительный способ питания, но он исправно действует во все времена.
А это моя тактика выманить оппонента

Максет

На его объяснения как информация снимает или снижает неопределенность я предложил проверить это на конкретном примере, но он испугался и укрылся в своем танке.
Несостоятельность его примера с решением задачи я объяснил на пальцах.
Но он и на это не нашел что ответить.

Вот я и говорю, чтобы он или пусть уберет за собой мусор, который он тут развел в виде хаоса или больше не высунется из своего танка.

василий андреевич

  А надо бы слушать Майкова в его здравых ответах, но не замечать, когда обзывается. По Майкову информация рождается в условных мозгах и рождается не так, как происходит циркуляция и преобразования данных в счетных машинах.
  В мозги никто не запихивает программы или варианты информаций. Организм не только предвосхищает наиболее вероятное событие, но и содействует росту вероятности этого события. А моделировать надо на косных системах, которые переплетены не в иерархию по "управленческому старшинству", а по способностям трансформировать хаос в порядок при обязательном росте энтропии, которая является символом не только беспорядка, но и комбинаторного разнообразия.

Максет

Цитата: василий андреевич от ноября 21, 2022, 20:11:49А надо бы слушать Майкова в его здравых ответах, но не замечать, когда обзывается.
А я слушаю и внимательно. Но я не привык слепо доверять ни религии, ни науке и тем более Майкову.

ЦитироватьПо Майкову информация рождается в условных мозгах
Что такое условные мозги?

Цитироватьи рождается не так, как происходит циркуляция и преобразования данных в счетных машинах.
Почему? Чем это подтверждается?

 
ЦитироватьВ мозги никто не запихивает программы или варианты информаций.

А заставлять ребенка учить алфавит или таблицу умножения – это не запихивание? Тогда что?

ЦитироватьОрганизм не только предвосхищает наиболее вероятное событие, но и содействует росту вероятности этого события.
Покажите это на примере, пожалуйста.

ЦитироватьА моделировать надо на косных системах, которые переплетены не в иерархию по "управленческому старшинству", а по способностям трансформировать хаос в порядок при обязательном росте энтропии, которая является символом не только беспорядка, но и комбинаторного разнообразия.
А здесь вообще не понятно, что вы написали.
Если по-Майкову энтропия – это и есть хаос, то как можно трансформировать хаос в порядок при обязательном росте хаоса (энтропии)?