Программная модель гомеостаза искусственного живого существа

Автор Palarm, января 09, 2023, 17:45:23

« назад - далее »

Palarm

Цитата: Шаройко Лилия от января 11, 2023, 23:10:38Погода мне кажется очень простым опровержением подобных утверждений. Можно задать случайную выборку с приоритетами по нескольким параметрам, их может быть много тогда, программист не будет знать, что именно выберет программа-субъект по своим предпочтениям при дожде: останется дома, возьмет зонт, поедет в гости к друзьям без зонта и босиком ибо нефиг  (это в случае если накануне произошел переворот внутренних приоритетов и протестное настроение в принципе, который никак не проявлялся в действиях до этого, просто накопилось со сочетанию большой серии предыдущих факторов).
Вопрос не в том, чтобы задать случайную выборку вариантов, а "разумном выборе", под которым подразумевается субъективная оценка правильности/не правильности. А для оценки нужно субъективное понимание, что такое хорошо, а что плохо. В системе гомеостаза такое понимание есть: все, что выводит из нормы жизненные параметры - плохо, что возвращает в норму - хорошо, что никак не влияет или слабо - безразлично. От этой оценки потом выстраивается более сложная. И это дает ответ на вопрос: как программа может "думать" без оператора? Сама по себе никак, система гомеостаза тоже не "думает", но у нее уже есть базовые состояния, основа для построения будущего дерева понимания. Это как в философии все строится от бытия/не бытия, в этике от плохо/хорошо.
Цитата: Шаройко Лилия от января 11, 2023, 23:10:38А что мешает сетевым технологиям разворачивать действие в процессе контакта с пользователем?
Если у вас есть поток информации, который можно разбить на пары причина-следствие, то в первом приближении можно вытащить пару стимул-ответ: на такой то стимул, такой то ответ. Можно усреднить, сгруппировать пары, вывести вероятности и от этого играть при выборе: какой ответ лучше всего будет для такого стимула. Но это все равно будет реагирование на одиночный стимул, без привязки к контексту. В случае с чат-ботом получится например так:

привет, как дела? - нормально
ты дурак - сам, дурак
привет, как дела? - нормально

То есть бот никак не учел, что его в предыдущем шаге диалога обозвали дураком и продолжает реагировать ситуативно. Чтобы учитывать контекст, надо запоминать предыдущие шаги. Ничто не мешает это использовать в нейросетевых технологиях, выводя корреляции типа: он мне так сказал - я ему так, потом он мне так - и тут то я ему врежу как надо! И подозреваю это используется, развивается динамический анализ, получая в итоге все более точное прогнозирование, как в игре угадай мелодию: я угадаю с 5 нот... а я с 4... а я с 3... и даже: а я с 1. И это возможно, если вычислить, чт например ведущий по каким то динамическим корреляциям на 5 игре обычно склонен задавать такие то мелодии.

Это пример возможности учитывания действий пользователя в нейросетевых технологиях, но: если у нейросети нет системы гомеостаза, все ее ответы для нее обезличены, она принципиально не способна построить стратегии реагирования потому, что нужна постановка цели, а для этого нужно самоощущение, которого у нее нет - она не знает что такое "плохо" и "хорошо". Все ее знания - отражение чужого, обработка массива данных тех, кто знает. Здесь же требуется строго субъективное понимание, которое есть только у систем с гомеостазом.
Цитата: Маikov от января 12, 2023, 05:02:10Потому что задачу не нужно решать самому человеку, сеть её научится решать сама, в процессе обучения.
Она решит ее строго так, как решил бы человек - грубо говоря просто "спишет" решение. Своего понимания у нее нет и никогда не будет. Анализ чужого опыта, сколь бы глубоким он не был, никогда не даст своего помания - только чужое. Это все равно, что надеяться, что если как то особо тщательно отполировать зеркало, то можно сделать отражение самостоятельным, отвязав его от объекта-источника. Отражение всегда будет только отражать.
Путаница происходит потому, что смешиваются понятия интеллекта и разума. Нейросетевые технологии строятся на базе машинного обучения, это можно назвать искусственным интеллектом, если подразумевать под ним оптимизацию поисковых алгоритмов. По сути такие технологии развили систему распознавания до уровня, которого нет в природной реализации потому, что там этого не нужно и слишком сложно и не практично.
Для адаптационных системы с гомеостазом распознавания лишь первый шаг, далее следует осознание - чего нет в нейросетях и не никогда не будет.
Цитата: Шаройко Лилия от января 11, 2023, 23:10:38Я думаю и озвучивала это неоднократно - дело только в количестве триллионов мелких программ между которыми постоянно балансирует живое существо от одноклеточного до человека. Их неопределенность и наложение триллионов этих неопределенностей и создает эффект тотальной пропасти.
При таком понимании возникает непонимание необходимого кол-во триллионов для перехода из одного состояния в другое. Можно с таким же успехом свалить все на "душу" и закрыть вопрос, вернее закрыться от него.
Цитата: Шаройко Лилия от января 11, 2023, 23:10:38Здесь на форуме есть определение жизни как стремление к самосохранению, но это свойство всех систем. Думаю, жизнь отличается не этим, а тем что она повторяет и повторяет попытки идти тем же путем с вариациями направленно сохраняя предыдущий опыт в генах как потенциале, который реализуется только в тех биофизических реакциях, которые создают физическую возможность по энергии и энтропии, совершая ту,  которая наиболее вероятна в данный момент.
Кирпич сопротивляется разрушению под прессом своими физ. свойствами, кошка сопротивляется, когда ее тянут за хвост. Стало быть просто сопротивление действительно не годится для однозначного определения. Но для него ничто не годится в принципе потому, что если не установить границ рассуждений, мы не увидим вообще ничего: граница объекта на уровне электронов, которые словно дым размывают ее, а нырнув в бесконечном поиске внутрь атома увидим там пустоту. Поэтому нужно остановиться все же на определении самосохранения, подразумевая под этим обязательное наличие системы гомеостаза, способной активно сопротивляться внешним воздействиям, выводящим ее критические жизненные параметры из нормы. И понятно, жизнь без репликации не возможна.

Palarm

Цитата: Маikov от января 12, 2023, 05:02:10Чем этот автомат принципиально отличается от вашего существа?
Тем, что Beast не просто сигналит, а корректирует неисправность рефлексами. Если поставить стабилизаторы в машину, их работа будет жестко задана программными алгоритмами или устройством стабилизаторов. Beast начиная с 3 стадии может модифицировать свою базу реагирования, улучшая стабилизацию. Если прикрутить к машине нейросеть чтобы она сканировала поломки машин и определяла наиболее вероятную причину поломки, может даже как то само-чинилась, или хотя бы выводила сообщение оператору, используя его как придаток - все равно ее нельзя назвать "живой" и "разумной" потому, что:
  • у нее нет внутреннего самоощущения - все ее действия обезличены
  • ее опыт - чужой опыт ремонтников
Поэтому она не сможет ставить цели и оценивать результаты, действия будут не целевыми и не разумными. Тут начинается тонкая грань, переступив которую можно потерять контуры понимания, как в попытке распознать границы флуктуации электронов на границе объекта.
Цитата: Маikov от января 12, 2023, 05:02:10Что же некорректного?
Я не биолог и многое не знаю в этой области, но на основании того, что мне известно, обосновывая модель живого существа - и спрашиваю биологов, что тут не корректно? Вы же просто обвиняя меня в невежестве пытаетесь свести разговор: ты дурак, ничего не знаешь - сам дурак, ничего не знаешь...
Цитата: Маikov от января 12, 2023, 05:02:10Вы явно не знаете, как работают нейронные сети
Давайте определимся: нейросеть == ИИ (искусственный интеллект), Beast == ИР (живое существо, искусственный разум). ИР != ИИ, нейросеть != Beast.
Цитата: Маikov от января 12, 2023, 05:02:10Прочитайте, что такое хаос.
Динами́ческий ха́ос (также детерминированный хаос) — явление в теории динамических систем, при котором поведение нелинейной системы выглядит случайным, несмотря на то, что оно определяется детерминистическими законами
-----------
Алгоритм генератора случайных чисел определяет динамику хаоса, который он генерирует. Что тут не так?
Цитата: Маikov от января 12, 2023, 05:02:10Потому что задачу не нужно решать самому человеку, сеть её научится решать сама, в процессе обучения.
Алгоритмы самообучения нейросети анализируют предъявляемые данные, выявляют корреляции, с учетом их динамики - и выдают вероятность правильной реакции на определенный стимул. "Правильность" вытекает из понимания правильности тех, кто создавал такой массив данных. Например оператор показывая фото нейросети и выдавая оценки ее решения формирует такой массив, а нейросеть анализирует его "логику", и когда найдет достаточно высокую корреляцию - выдает ответ. Но это не решение нейросети - это решение оператора, нейросеть просто скомпилировала его опыт, логику в виде функции. У нейросети нет никакого понимания, как оператор определяет, что правильно, что нет - она как калькулятор ищет закономерность в его ответах. Здесь судя по всему вы просто не видите разницы между самоощущением и подражанием.
Цитата: Маikov от января 12, 2023, 05:02:10Другими словами, нейронные сети умеют обобщать опыт на новые условия
Никто не спорит. Они весьма успешно способны выявлять корреляции чужого сознания. Но своего у них нет потому, что нет самоощущения и соответственно не с чем сравнивать, кроме как с чужой оценкой.
Цитата: Маikov от января 12, 2023, 05:02:10Вам же, в вашей модели, фактически придётся всех мыслимых кошек и собак прописывать в программе непосредственно, во всех нюансах.
Вы не разобрались в проекте. Я много раз говорил: рефлексы - отправная точка, далее они модифицируются. Не нужно Beast показывать миллионы кошек в разных ракурсах, он их распознает по выделенным значимым лично для него признакам - а вот что для него значимо будет в тот момент, и есть субъективность, которой нет у нейросети.
Цитата: Маikov от января 12, 2023, 05:02:10Всё это вам тоже придётся прописывать.
Если вы написали код нейросети, запустили обучение - она "сама" обучается. Если я написал код Beast, запустил обучение - тут уже не само, я чего то прописываю. Я в код не лезу, ничего не прописываю, у меня так же все "само" получается.
Цитата: Маikov от января 12, 2023, 05:02:10Что у вас генерирует ваш «рандом»?
Внешние стимулы Оператора.
Цитата: Маikov от января 12, 2023, 05:02:10Что делает в организме нервная система?
Отвечает за согласование работы систем жизнеобеспечения и адаптацию к внешним изменяющимся условиям.

Palarm

Цитата: АrefievPV от января 12, 2023, 05:59:54Мои принципиальные возражения были, что нет в модели обмена со средой, который бы жёстко не зависел от программиста – то есть, модель в этом плане жёстко регулируемая.
Не могу взять в толк, в чем разница: если жизненные параметры BEast будут дербаниться датчиками погоды или оператором? В обоих случаях никто в код не лезет.
Цитата: АrefievPV от января 12, 2023, 05:59:54пусть среда формирует, модифицирует модель и заставляет её адаптироваться к своим воздействиям
Так Beast и адаптируется - подстраиваясь под действия оператора. Сначала рефлекторно, реагируя стандартной рефлекторной базой, затем осознанно модифицируя рефлексы так, чтобы выбрать наилучшие из них, основываясь на самоощущении, затем разумно, строя стратегии реагирования, вплоть до провокаций оператора на нужные действия. При этом появляются промежуточные цели, которые могут не совпадать с гомеостатическими: сделать шаг назад - чтобы потом прыгнуть вперед. Это уже анализ прошлого опыта (своего и чужого), и это похоже на анализ данных в нейросетях, но есть принципиальная разница: Beast решает на основании самоощущения, изменения информационной модели восприятия реальности. Все выводы его субъективны, корректируются эмоциональным контекстом. Но это забегание вперед, пока что мы топчемся вокруг внутриутробной стадии.
Цитата: АrefievPV от января 12, 2023, 06:50:18Дисбаланс обмена (например, превышение притока над оттоком) может быть частично использован, как раз, на формирование «оболочек» (то есть, развитие и адаптация системы происходит за счёт ресурсов и активности среды).
"Оболочки" у Beast - последовательные активируемые уровни развертывания системы, усложняющие реагирование. Это не гомеостаз. Он лишь основа, там формируется базовое состояние, из которого вырастает самоощущение и эмоции. Это как бы семечка, из которого вырастает дерево понимания.

Игорь Антонов

Цитата: Шаройко Лилия от января 11, 2023, 23:10:38Если хотите услышать мнение программиста можно зайти в темы к Игорю Антонову, он программер, участвовавший в создании проектов с ИИ и программ для с научных работ по генетике.

Не знаю почему он свое мнение не высказал здесь.

Я не высказываюсь потому, что я уважаю труд и целеустремленность разработчиков, лучше ведь этим заниматься в свободное время, чем водку пить, но при этом я крайне скептически оцениваю возможные результаты проекта. 
Как сказал поэт, это "безумство храбрых".
Дополнительный драматизм заключается в том, что сам Palarm в последних сообщениях достаточно верно интерпретирует суть дела и суть проблем ИИ. Ключевые проблемы ИИ - это реализация понимания и осознания. Но почему-то авторы проекта решили, что они эти проблемы успешно преодолевают.

В материалах проекта, в частности, констатируется:

ЦитироватьДоминанта нерешенной проблемы еще не реализована (хотя не представляет теоретической сложности), поэтому уровень текущей реализации Beast не позволяет говорить о том, что в проявлениях ее адаптивных действий есть то качество, которое проявляется в психике человека как творчество.

Только вот уточнение - не только не реализована доминанта нерешенной проблемы, но и вообще не может быть реализована на избранном пути.
Поскольку путь этот  - механистичное моделирование отдельных элементов нейрофизиологии и всё, не более того.
А сама центральная доктрина, вокруг которой всё выстраивается, это вообще безнадёжный тупик (цитата из материалов проекта):

ЦитироватьМозг является сложным схемотехническим устройством, в котором воплощены все основные принципы именно электронной схемотехники. Это означает, что исследование устройства адаптивных механизмов мозга относится к предметной области "электронная схемотехника".

Palarm

Цитата: Игорь Антонов от января 12, 2023, 11:32:38Поскольку путь этот  - механистичное моделирование отдельных элементов нейрофизиологии и всё, не более того.
А вы какой путь представляете более перспективным? Можете вкратце выложить свою стратегию, согласно которой можно добиться появления ИР?

АrefievPV

#65
Цитата: Palarm от января 12, 2023, 11:11:16
Цитата: АrefievPV от января 12, 2023, 05:59:54Мои принципиальные возражения были, что нет в модели обмена со средой, который бы жёстко не зависел от программиста – то есть, модель в этом плане жёстко регулируемая.
Не могу взять в толк, в чем разница: если жизненные параметры BEast будут дербаниться датчиками погоды или оператором? В обоих случаях никто в код не лезет.
Я же говорил, что в этом случае никакого развития не будет. Поддержание гомеостаза будет (он прописан), а развития не будет (оно ведь не прописано). А если у вас ещё и развитие заранее прописано, то уже ни о какой самостоятельной эволюции и речи быть не может – всё предусмотрено программистом.

Цитата: Palarm от января 12, 2023, 11:11:16
Цитата: АrefievPV от января 12, 2023, 06:50:18Дисбаланс обмена (например, превышение притока над оттоком) может быть частично использован, как раз, на формирование «оболочек» (то есть, развитие и адаптация системы происходит за счёт ресурсов и активности среды).
"Оболочки" у Beast - последовательные активируемые уровни развертывания системы, усложняющие реагирование. Это не гомеостаз. Он лишь основа, там формируется базовое состояние, из которого вырастает самоощущение и эмоции. Это как бы семечка, из которого вырастает дерево понимания.
Последовательно активируемые? То есть, они уже заложены, но пока не активированы? И разворачиваться они будут в соответствии с заложенной программой, но с учётом совокупности воздействий в период разворачивания, верно? Ещё и количество уровней развёртывания, наверное, пропишите, да?

Если это так, то у вас развитие уже изначально заложено (то есть, явная направленность эволюции у вас уже прописана). А в природе этого нет –  ЕО не является неким разумным создателем.

Понимаете теперь, в чём разница? И насколько фундаментально различие в наших подходах?

Я ведь не просто так говорил, что надо с совсем простой/примитивной модели начинать: простенькое «гомеостатическое ядро», на которое самостоятельно должна «нарасти» одна «оболочка». Ещё раз – не активирована, а самостоятельно (без всякого заранее вложенного кода на активацию и/или развёртывание). В итоге получится некий аналог одноклеточной прокариоты. Представляете себе сложность задачи?

Но пока этот аналог получится, придётся перепробовать миллионы вариантов. А так как, модель не умеет пока размножаться (или я ошибаюсь?), то репликацией придётся заниматься программисту (ну, или запускать сразу по миллиону штук голых «гомеостатических ядер»).

Поймите, вы в модели (которую хотите реализовать) эти моменты не учитываете, а они потом сыграют свою негативную роль. Когда у вас модель не станет развиваться без вашей поддержки, то, возможно, вы поймёте, что где-то совершили  «поворот не туда». Вот я и хочу вас предупредить о возможности такого неудачного сценария.

Шаройко Лилия

#66
Цитата: Palarm от января 12, 2023, 09:18:04Вопрос не в том, чтобы задать случайную выборку вариантов, а "разумном выборе", под которым подразумевается субъективная оценка правильности/не правильности. А для оценки нужно субъективное понимание, что такое хорошо, а что плохо. В системе гомеостаза такое понимание есть: все, что выводит из нормы жизненные параметры - плохо, что возвращает в норму - хорошо, что никак не влияет или слабо - безразлично. От этой оценки потом выстраивается более сложная. И это дает ответ на вопрос: как программа может "думать" без оператора? Сама по себе никак, система гомеостаза тоже не "думает", но у нее уже есть базовые состояния, основа для построения будущего дерева понимания. Это как в философии все строится от бытия/не бытия, в этике от плохо/хорошо.
Полностью согласна и я не предлагала ничего подобного случайной выборке вариантов. Вы второй раз мне приписываете вещи которые я не сообщаю

Цитата: Palarm от января 12, 2023, 09:18:04Если у вас есть поток информации, который можно разбить на пары причина-следствие, то в первом приближении можно вытащить пару стимул-ответ: на такой то стимул, такой то ответ.
Можно написать такой скрипт двумя строками кода и базой данных mysql. Только я описывала совершенно другую систему в браузере и смартфоне. Вы третий раз мне приписываете мышление которого у меня нет, как бы отвечая на тексты, которые я не писала.

Цитата: Palarm от января 12, 2023, 09:18:04При таком понимании возникает непонимание необходимого кол-во триллионов для перехода из одного состояния в другое. Можно с таким же успехом свалить все на "душу" и закрыть вопрос, вернее закрыться от него.
У Вас возникает, у биологов нет, так как для них биофизические, генные, этапы онтогенеза, популяционные механизмы и все остальные уровни строения и развития организма и его поведения в окружении социума, врожденные биологические программы ЦНС не такой пустой звук как для Вас.
Вы просто не успеваете обрабатывать информацию от всех собеседников и попали в переплет таких врожденных программ, так как Вы про них не знаете они на Вас воздействуют слишком сильно, думаю совет притормозить и подумать в данной ситуации не поможет, поэтому я уберу сейчас из темы фактор своего присутствия  и Вы сразу почувствуете как стало намного проще с остальными входящими данными работать.
Если у Вас останется два собеседника Вам будет еще проще, перестанете воспринимать беседу как битву где надо победить любой ценой, видеть противника в том кто им не является.

Именно так работает увеличение и уменьшение входящих данных, перегрузка ЦНС заставляет реагировать чрезмерно. Поэтому не любое число из входящих данных будет работать как такое же большое.
Понятно, что большое писать в коде утомительно, триллионы невозможны, поэтому в сети можно найти не только погоду но и другие параметры внешней среды, которые уже работают с внешним миром и создают достаточно широкий набор входящих значений среды. Есть сайты солнечной активности, магнитных бурь,  https://www.worldometers.info/ дает широкий круг постоянно изменяющихся параметров связанных с биосферой и человечеством. Изменения окружающей среды  и социума в режиме онлайн вы можете связать простыми операторами влияющими на субъективный мир вашего персонажа.

Если еще подумать можно массу других сайтов найти и включить их в постоянно изменяющийся гомеостаз.
Океан отличается от лужи, там происходят вещи, которые в луже невозможны.

Цитата: Palarm от января 12, 2023, 09:18:04Кирпич сопротивляется разрушению под прессом своими физ. свойствами, кошка сопротивляется, когда ее тянут за хвост. Стало быть просто сопротивление действительно не годится для однозначного определения. Но для него ничто не годится в принципе потому, что если не установить границ рассуждений, мы не увидим вообще ничего: граница объекта на уровне электронов, которые словно дым размывают ее, а нырнув в бесконечном поиске внутрь атома увидим там пустоту. Поэтому нужно остановиться все же на определении самосохранения, подразумевая под этим обязательное наличие системы гомеостаза, способной активно сопротивляться внешним воздействиям, выводящим ее критические жизненные параметры из нормы. И понятно, жизнь без репликации не возможна.
Смешно вышло, правда?
:)
в смысле самосохранение в определении а подразумеваем все что я написала. Здорово.
Думаю все таки это от перегрузки, поэтому как и сказала сворачиваю свои тексты здесь как фактор влияющий на ЦНС количеством разнонаправленных входящих данных от слишком большого количества разных собеседников с очень разными системами координат. Это как раз отличает открытый социум от единственной мамы.

Palarm

Цитата: АrefievPV от января 12, 2023, 14:01:29Я же говорил, что в этом случае никакого развития не будет.
Когда детеныш покидает мать, развитие продолжается потому, что теперь вместо матери у него окружающая реальность. Она продолжает учить, но уже более сурово. С Beast ровно тоже самое. Только оператор сначала обучает его простейшим навыкам, затем имитирует более сложные ситуации. Как если бы мать продолжала следить за детенышем, но тайно от него. Просто ограниченность канала восприятия Beast делает это не явно.
Цитата: АrefievPV от января 12, 2023, 14:01:29А если у вас ещё и развитие заранее прописано
Развитие зависит от того, как будет реагировать оператор, а этого никто не знает. Я не могу это прописать, даже если бы захотел. Развитие это не просто (не только) алгоритм преобразования чего то из чего то, а пополнение базы реагирования. На стадии 1 за счет условных рефлексов, а это уже не возможно предсказать: какой предшествующий стимул вздумает предъявлять оператор. На стадии 3 добавляется отзеркаливание, на 4 обработка эпизодической памяти - анализ, подобный тому, что делается в нейросетях, но не обезличенный как там, а с учетом значимости стимулов.
Цитата: АrefievPV от января 12, 2023, 14:01:29Последовательно активируемые? То есть, они уже заложены, но пока не активированы? И разворачиваться они будут в соответствии с заложенной программой, но с учётом совокупности воздействий в период разворачивания, верно? Ещё и количество уровней развёртывания, наверное, пропишите, да?
Организм проходит строго определенные последовательные стадии развития, мозг не формируется в готовом виде со всеми отделами, полностью готовыми к функционированию и ожидающих только прокачки - все это жестко заложено в геноме. Сам геном - жестко заложенная последовательность активации генов, которые активируются при определенных условиях. То есть могут и не активироваться, если очередь подошла, а условия не те. Вроде не напутал, могу ошибаться. Тут все жестко прошито, но в итоге все равно выходит живое и разумное существо. А может и не выйти, если пропустить стадии, или выйти не совсем разумным.
Цитата: АrefievPV от января 12, 2023, 14:01:29Ещё раз – не активирована, а самостоятельно (без всякого заранее вложенного кода на активацию и/или развёртывание)
Геном активирует создание определенных белков в определенной последовательности при раскручивании спирали ДНК. Самостоятельно они не возникнут, нужен стимул и код, однозначно задающий тип белка.
Цитата: АrefievPV от января 12, 2023, 14:01:29Но пока этот аналог получится, придётся перепробовать миллионы вариантов. А так как, модель не умеет пока размножаться (или я ошибаюсь?), то репликацией придётся заниматься программисту (ну, или запускать сразу по миллиону штук голых «гомеостатических ядер»).
Я говорил, что строго говоря было бы правильнее симулировать эволюцию в среде, чтобы получить реально подходящий набор рефлексов. Но по понятным причинам мы это не стали делать. Насколько это критично? Пока не знаю. Но с другой стороны, рефлексы списаны с примерных реакций реального человека, так что это не совсем бардак. Кроме того, это всего лишь база для дальнейшего развития с глубокой модификацией.
Цитата: АrefievPV от января 12, 2023, 14:01:29Когда у вас модель не станет развиваться без вашей поддержки, то, возможно, вы поймёте, что где-то совершили  «поворот не туда». Вот я и хочу вас предупредить о возможности такого неудачного сценария.
Если случится ступор и полный швах - это замечательно. Избавлюсь наконец от иллюзии понимания, которой посвятил несколько лет ковыряний. Но опять же: если поместить человека в сурдокамеру, на 3-4 день у него начнутся глюки, и вскоре эксперимент придется прекращать, иначе дурка. Сознание не может жить само по себе в вакууме, ему нужна постоянная подпитка внешними сигналами. То есть "учитель" никогда не уходит, лишь меняет формы. Поэтому не только Beast, но и живой реальный человек без "поддержки сигналами реальности" не может существовать как человек.

АrefievPV

Цитата: Palarm от января 12, 2023, 17:26:21Если случится ступор и полный швах - это замечательно. Избавлюсь наконец от иллюзии понимания, которой посвятил несколько лет ковыряний.
Понятно. Но лучше бы, конечно, чтобы вы оказались правы, а я ошибался...

Palarm

Я вообще не понимаю трагедии: за три года, что ковыряюсь в теме освоил в какой то мере php, js, ajax, Go, узнал много нового и интересного про разумы, интеллекты и эволюцию - разве оно того не стоило? Проект - просто повод окунуться в новую реальность, не стоит придавать сакральное значение каким то "результатам". Все это пыль и суета, важны эмоции и драйв. Как правильно заметил Игорь, это всяко лучше, чем водку пить :).

Игорь Антонов

#70
Цитата: Palarm от января 12, 2023, 13:37:14
Цитата: Игорь Антонов от января 12, 2023, 11:32:38Поскольку путь этот  - механистичное моделирование отдельных элементов нейрофизиологии и всё, не более того.
А вы какой путь представляете более перспективным? Можете вкратце выложить свою стратегию, согласно которой можно добиться появления ИР?
Ещё одна знаковая цитата из описания Beast:

Цитироватьнет никаких интеллектуальных функций принятия решения кроме выборки из личного опыта

Во-первых, что не получится с Beast.
Не получится новое сложное поведение, поскольку оно требует прогноза будущих результатов сложных действий, а это требует формирования связной модели среды, что в Beast не реализуется.
Субъект должен предвидеть последствия новых сочетаний известных ему элементов.
Например, если анимат питается разбросанными яблоками, натыкаясь на ящики, а половина яблок за забором, он мог бы догадаться, съев яблоки на своей стороне,  что на другую сторону можно попасть, составив ящики лесенкой (которой в его личном его опыте никогда ранее не было), чтобы перелезть через забор. Но для этого нужно воображение и учёт пространственных свойств среды и объектов в ней.  Так раскручивает новые решения мышление - исходя из цели, через декомпозицию решения на элементы, новое взаимодействие которых его обеспечит.

Что касается моего видения проблемы ИР. Я думаю, её можно пытаться раскручивать не с конца, а с начала.
Способность к новым скоординированным действиям, решающим проблему,  не у пятилетнего ребёнка (как сказано в описании к Beast), скорее, появляется, а ещё у одноклеточных. В пользу этого свидетельствуют эксперименты Erez Braun и некоторых других с колониями дрожжей. В "Химии и жизни" был обзор "Думы простейших".
При этом, начинается всё, скорее всего, со сложной внутренней адаптивной координации внутри клетки, а затем постепенно, во всё большей мере становится скоординированной экспансией во внешний мир,  от микро к макро.
Возможно, нервная система - вынужденная альтернатива внутриклеточному управлению для многоклеточных.

Возвращаясь к моделированию реального интеллекта.
Как системотехник, я понимаю, что электронно-схемотехнический подход - это тупик.
Почему? - Если коротко, то в силу интегративности ментальных феноменов понимания, ощущения, осознания. Я не вижу перспективы для того, чтобы такого рода интеграция достигалась алгоритмически, вычислительно, схемотехнически. Семантику программы осознаёт и понимает только программист. У алгоритма не будет собственной субъектности. Потому что алгоритм всегда распадается на набор операций, которые можно рассматривать независимо, а мысль - целостна, неделима. "Это колесо не доедет до Парижа". - Возможен ли алгоритмический эквивалент этой идеи, определённой семантики комплексного отношения ряда сущностей?  То есть, на мой взгляд, электронная цифровая техника - это вообще не о мышлении тема.

Можно ли будет создать искусственный разум?
Я такой возможности не отрицаю, но считаю, что для её реализации нужна иная физическая основа и дело это неопределенно далекого будущего.
Я думаю, что то особое состояние, в котором становится возможна новая управляемая координация для поддержания гомеостаза, может возникать в определенных конгломератах органических молекул, связанных в целое за счет взаимопроникновения их электромагнитных полей и, возможно, квантовых эффектов.
То есть, некоторая органическая конструкция за счет особого комплекса связей и взаимодействий может почувствовать себя целым, способным принимать полезные для себя решения как способ достижения более устойчивого, комфортного состояния. Какие-то молекулы при наличии у них ряда степеней свободы в системе лучше будет расположить определенным образом, потому что так легче существовать этому комплексу. И комплекс физически может это сделать. И в тот момент, когда такая координация впервые даёт не мгновенный энергетический выигрыш, а отложенный в будущее, в этот момент  физика начинает работать на цель. Происходит электрический пробой из мира семантики в косный мир. Материя оживает. И с этой точки раскручивается всё остальное вплоть до человека разумного.
Чтобы начинать это моделировать, надо тщательно исследовать, как функционирует, чем обеспечивается внутренняя адаптивная координация в клетке.
Вот, например, люди пытаются:

F Baluška, W B Miller Jr , A S Reber "Biomolecular Basis of Cellular Consciousness via Subcellular Nanobrains"  (International Journal of Molecular Sciences, 2021)

Y Timsit, S-P Grégoire "Towards the Idea of Molecular Brains" (International Journal of Molecular Sciences, 2021)

Если удастся уловить принцип, как это происходит, возможно удастся создать искусственные структуры с подобными свойствами и если получится неограниченно масштабировать их, то, возможно, эти структуры станут основой мозга будущих разумных аниматов. Какого-то пути короче, я не вижу.
 




Маikov

#71
Цитата: Palarm от января 12, 2023, 10:53:25Отвечает за согласование работы систем жизнеобеспечения и адаптацию к внешним изменяющимся условиям.
Начнём с конца. 

Ваше представление о роли нервной системы неверно. У нервной системы есть своя чётко определённая функция, без всяких «адаптаций и согласований». «Адаптации и согласования» есть следствие этой функции, а не она сама. Учитывая обстоятельства — что это ваша область деятельности, именно мозг вы описываете и моделируете, то незнание роли нервной системы в организме — это очень плохо. Вы моделируете сами не зная что, какую функцию.

Понятно теперь, откуда у вас такие надуманные представления о мозге — факты фантазию не ограничивают. Понятно, и почему вы об искусственных нейронных сетях ничего не знаете — вы же считаете, что они к мозгу отношения не имеют, зачем их изучать. А на самом деле наоборот. Искусственные нейронные сети созданы по образцу мозга, созданы в том числе учёным-нейрофизиологом, поэтому как бы они ни были от мозга далеки в частном (причём понятно, почему), в общем и целом они мозг повторяют. В отличие от ваших представлений, которые не имеют к мозгу совсем никакого отношения.

В следующем посте постарайтесь правильно указать функцию нервной системы. Это не сложно, поэтому вы должны сделать это сами, без подсказок.

Цитата: Palarm от января 12, 2023, 09:18:04Это пример возможности учитывания действий пользователя в нейросетевых технологиях, но: если у нейросети нет системы гомеостаза, все ее ответы для нее обезличены, она принципиально не способна построить стратегии реагирования потому, что нужна постановка цели, а для этого нужно самоощущение, которого у нее нет - она не знает что такое "плохо" и "хорошо". Все ее знания - отражение чужого, обработка массива данных тех, кто знает. Здесь же требуется строго субъективное понимание, которое есть только у систем с гомеостазом.
Реального гомеостаза нет и в вашей модели, а вот возможность строить стратегии — распознавать условия и, в зависимости от распознанного, строить стратегии реагирования, формировать последовательности действий решения задач, в том числе, например, писать компьютерные программы — это как раз естественная функция нейронных сетей. Просто не тех, которые вам, видимо, известны.

И именно потому, что для сетей это обычное дело, нейронные сети не только кошек от собак отличать могут, но и строить диалоги, переводить речь или управлять нелинейными системами. Всё это требует формирования последовательностей, объединённых общим смыслом, — слов, фраз, управляющих воздействий. У сетей даже внимание есть. Другими словами, как и для мозга, «обдумывание», «осмысливание», «самостоятельный поиск решения» — это для сетей естественно.

Что касается гомеостаза, то в мозге свой гомеостаз, организм для мозга — это такая же внешняя среда, как и действительная внешняя среда. И вот этот уровень гомеостаза искусственные сети как раз и моделируют. Дело в том, что искусственная нейронная сеть — это некоторая, сильно упрощённая, модель биологической нейронной сети, а в основании работы биологической сети лежит явление самоорганизации и, соответственно, гомеостаза. Как следствие, моделируя мозг, искусственные нейронные сети в той же степени моделируют и самоорганизацию/гомеостаз мозга.

Поэтому, например, моделируя в своей модели гомеостаз, вы на самом деле моделируете среду (ведь у вас не нейронная сеть, сама по себе ваша модель никакой гомеостаз не моделирует). Но вам-то нужна модель интеллекта, а не модель среды. Вот и получается, что гомеостаз у вас лишняя сущность, которая только усложняет модель.

Цитата: Palarm от января 12, 2023, 09:18:04Для адаптационных системы с гомеостазом распознавания лишь первый шаг, далее следует осознание - чего нет в нейросетях и не никогда не будет.
Ваша модель не имеет отношения к мозгу, поэтому сознания там ожидать точно не стоит. И в искусственных нейронных сетях тоже не стоит. Но если в вашем случае модель ничего из мозга не повторяет, то в случае искусственных нейронных сетей дело в другом — в физике, которая принципиально разная у искусственных систем и биологических, и которая не позволяет первым сколько-нибудь близко приблизиться к сложности вторых. В итоге сознание — квалиа — может быть только в мозге (хотя это не совсем так, здесь много своих нюансов).

Цитата: Palarm от января 12, 2023, 09:18:04Она решит ее строго так, как решил бы человек - грубо говоря просто "спишет" решение. Своего понимания у нее нет и никогда не будет. Анализ чужого опыта, сколь бы глубоким он не был, никогда не даст своего помания - только чужое. Это все равно, что надеяться, что если как то особо тщательно отполировать зеркало, то можно сделать отражение самостоятельным, отвязав его от объекта-источника. Отражение всегда будет только отражать.
Нет, сети решают задачи именно самостоятельно. Нам даже неизвестно, как конкретно они их решают. Просто возможности к формированию нового поведения у столь простых по сравнению с мозгом систем тоже невелики.

Цитата: Palarm от января 12, 2023, 10:53:25Динами́ческий ха́ос (также детерминированный хаос) — явление в теории динамических систем, при котором поведение нелинейной системы выглядит случайным, несмотря на то, что оно определяется детерминистическими законами
-----------
Алгоритм генератора случайных чисел определяет динамику хаоса, который он генерирует. Что тут не так?
Прочитайте внимательнее цитату. Там написано про нелинейные системы. Нелинейность — это следствие неравновесия, флуктуаций, перехода через точку бифуркации. В программах ничего этого не может быть в принципе. Поэтому ваш генератор моделирует не явление хаоса, а внешнее проявление хаоса — «поведение, которое выглядит случайным». Вот если бы в качестве генератора случайных чисел вы использовали одиночный нейрон (одиночный нейрон — это хаотический автоволновой осциллятор, он хаотически генерирует нервные импульсы), то это был реальный хаос.

Но дело в другом. В том, что в моделировании гомеостаза нам нужно моделировать не случайность, а чувствительность. Потому что реальное хаотическое поведение суть поведение не случайное, а чувствительное — настолько, что поведение системы выглядит случайным. Но «моделировать чувствительность» — это значит, всё более точно моделировать среду. Однако учитывая, что в точке бифуркации (хаос прямо связан с бифуркациями) чувствительность системы абсолютная (бифуркация — это качественное изменение поведения динамической системы при бесконечно малом изменении её параметров), то модель среды такой сложности не имеет смысла, и даже сколько-нибудь близкое приближение к ней невозможно. Как следствие, программная модель гомеостаза сколько-нибудь адекватная реальной сложности явления невозможна тоже. По этим же причинам для «аппаратного» моделирования гомеостаза никакие генераторы, даже реальные хаотические системы, не подойдут. Хаотической должна быть вся система, иначе чувствительной будет только максимум её часть, а тогда самоорганизация и гомеостаз будут невозможными.

Цитата: Palarm от января 12, 2023, 10:53:25Если вы написали код нейросети, запустили обучение - она "сама" обучается. Если я написал код Beast, запустил обучение - тут уже не само, я чего то прописываю. Я в код не лезу, ничего не прописываю, у меня так же все "само" получается. ... Не нужно Beast показывать миллионы кошек в разных ракурсах, он их распознает по выделенным значимым лично для него признакам - а вот что для него значимо будет в тот момент, и есть субъективность, которой нет у нейросети.
У вас нет обучения, несмотря на то, что вы думаете, что оно есть. У вас нет обобщения, ему неоткуда взяться, а если нет обобщения, то так или иначе все нюансы всех условных кошек и собак вам придётся прописывать самому - а это невозможно. Во всём этом вы убедитесь, когда дойдёте до соответствующего этапа. Правда, я думаю, что никогда не дойдёте. Этот этап будет постоянно откладываться по разным причинам, пока всё само собой не заглохнет. Это типичный конец всех нереализуемых проектов.

Цитата: Palarm от января 12, 2023, 17:26:21Геном активирует создание определенных белков в определенной последовательности при раскручивании спирали ДНК. Самостоятельно они не возникнут, нужен стимул и код, однозначно задающий тип белка.
Самый распространённый вопрос про морфогенез это — где план, по которому формируется организм? Если он зашифрован в ДНК, то как он там помещается? А ответ в том, что план организма нигде не зашифрован, его вообще нигде нет. Для развития организма никаких планов не нужно, всё проще и сложнее одновременно.

Цитата: Palarm от января 12, 2023, 19:43:00Я вообще не понимаю трагедии: за три года, что ковыряюсь в теме освоил в какой то мере php, js, ajax, Go, узнал много нового и интересного про разумы, интеллекты и эволюцию - разве оно того не стоило? Проект - просто повод окунуться в новую реальность, не стоит придавать сакральное значение каким то "результатам". Все это пыль и суета, важны эмоции и драйв. Как правильно заметил Игорь, это всяко лучше, чем водку пить
Это да, но за исключением «разумов, интеллектов». Тут вас ввели в заблуждение. Впрочем, если время прошло весело, то и ладно.

Цитата: Игорь Антонов от января 12, 2023, 11:32:38Я не высказываюсь потому, что я уважаю труд и целеустремленность разработчиков, лучше ведь этим заниматься в свободное время, чем водку пить, но при этом я крайне скептически оцениваю возможные результаты проекта.
Пусть человек теряет время, а потом в старости поймёт, что всё зря? По-моему, это плохой подход. Лучше вовремя остановиться. Впрочем, если вы не уверены, что правы, то действительно лучше высказываться аккуратно.

Palarm

Цитата: Игорь Антонов от января 12, 2023, 21:17:38Субъект должен предвидеть последствия новых сочетаний известных ему элементов.
В четвертой стадии начинает формироваться эпизодическая память в виде цепочек кадров: стимул - ответ - эффект. Например вопрос оператора_1 - ответ бота_1, вопрос оператора_2 - ответ бота_2. На основании такой цепочки строятся прогнозы разного уровня сложности. В порядке усложнения:

1. Сделать выборку по фильтру "текущий стимул", затем выбрать наилучший (для чего и нужен эффект).
2. сделать выборку по цепочке кадров, то есть например искать точное совпадение 5 последних кадров, затем выбрать среди них ту, где эффект в последнем кадре наилучший - это уже учет контекста
3. Это был анализ своего опыта. Но точно так же можно поискать и в чужом. Ведь цепочку можно представить и так: С-О-С-О-С-О... Эффект опущен, что очевидно показать: вопрос оператора является стимулом для ответа бота, ответ бота является стимулом для следующего вопроса оператора. Это значит, что если сдвинуть "по фазе" такую цепочку, то получим опыт оператора - как он отвечал на такой то стимул. Но так как мы не знаем, какой эффект на него это оказало, то можем только использовать такой опыт как пробный, а затем уже сохранить в цепочке с эффектом.
Цитата: Игорь Антонов от января 12, 2023, 21:17:38Например, если анимат питается разбросанными яблоками, натыкаясь на ящики, а половина яблок за забором, он мог бы догадаться, съев яблоки на своей стороне,  что на другую сторону можно попасть, составив ящики лесенкой (которой в его личном его опыте никогда ранее не было), чтобы перелезть через забор. Но для этого нужно воображение и учёт пространственных свойств среды и объектов в ней.
Воображение это производная от анализа личного опыта. Мы не можем вообразить того, что не видели, но можем обобщить какие то признаки и попробовать. Например, воображая бесконечность вспомнить голубое небо, или море. "Догадаться" - тоже исходит из опыта, это просто вспомнить прошлый опыт и "продолжить" его, выявив корреляцию.

Поэтому я и говорил: все интеллектуальные функции - это работа с памятью, опытом. Только забыл уточнить: своего и чужого. Можно просто вспомнить свой личный опыт и выбрать наилучшую из старых попыток, а можно подсмотреть чужие попытки и попробовать их. Это значит, что для получения вообще нового варианта поведения нет вариантов кроме как:

1. сгенерить что нибудь случайное - вдруг прокатит, но это опасно.
2. отзеркалить у других. Это безопаснее.

Но кроме этого, можно и модифицировать свою реакцию, просто усилить или ослабить и запустить как пробник. Но во всех случаях требуется субъективная оценка.
Цитата: Игорь Антонов от января 12, 2023, 21:17:38"Это колесо не доедет до Парижа". - Возможен ли алгоритмический эквивалент этой идеи, определённой семантики комплексного отношения ряда сущностей?
Конечно. Выше показал, как формируется прогноз: свой + чужой опыт. Выявляются закономерности в чередовании кадров памяти, и пишется на их основе предполагаемое продолжение. Кроме того, выявляются и объекты со свойствами.
Цитата: Игорь Антонов от января 12, 2023, 21:17:38То есть, некоторая органическая конструкция за счет особого комплекса связей и взаимодействий может почувствовать себя целым, способным принимать полезные для себя решения как способ достижения более устойчивого, комфортного состояния.
Как она "почувствует" себя, как вы поймете, что она "чувствует", как она определит "полезность" решений, как она определит "комфортность/не комфортность" состояния? Если у вас нет четкого понимания, что такое "чувствовать", "желать" - как вы узнаете, что какая то модель это все может или не может? Почему непременно органическая - вы ведь не обозначили признаки разумности, но уверенны что они могут быть только в органических системах.
Цитата: Игорь Антонов от января 12, 2023, 21:17:38И в тот момент, когда такая координация впервые даёт не мгновенный энергетический выигрыш, а отложенный в будущее, в этот момент  физика начинает работать на цель. Происходит электрический пробой из мира семантики в косный мир. Материя оживает. И с этой точки раскручивается всё остальное вплоть до человека разумного.
Если для оживления нужно лишь прогностическое реагирование, то нейросети живые. Там нет проблем с предсказанием реакций. Это простой анализ. Проблемы нейросети с самоощущением, отсутствием личных оценок плохо/хорошо.

Я никак не могу понять: есть система с тремя базовыми состояниями, которые четко обусловлены ее свойствами. Почему нельзя начать плясать от них, зачем нужно погружаться в бездонный колодец бесконечностей и хаоса, не понимая при этом, что ищешь. Такое впечатление, что просто понятие жизнь, разум кажется настолько сложным, что никак не можно сделать что то простое и назвать его живым и разумным. Это как в фильме "Волга-Волга": ерунда! Чтоб так петь, надо 20 лет учиться!

Я понимаю так ваш подход: хаотичные на первый взгляд движения волн на самом деле обусловлены множеством факторов. Взаимодействуя друг на друга, они "контрастируют" наиболее существенные причины и мы видим ритмичные волны. Выявляется закономерность из множества мелких, маловлияющих на процесс формирования волн закономерностей. Чем менее они влияют на что либо, тем их больше надо, чтобы породить волны. Сознание сложный процесс, выявляющий закономерности, стало быть нужно очень много мелких и разных влияний, чтобы породить такое сложное явление. Программно это не возможно потому, что невозможно прописать все эти явления в виде функций. Ведь параметры функций это влияние внешних факторов - придется создавать симулякр реальности, сканировать его параметры и передавать это в программу, чтобы из таких триллионов собралось сознание. Или как вариант - получать их через триллионы датчиков, натыканных в какого то робота.

В таких рассуждениях плохо то, что никак не определено, что мы ищем и чего ожидаем. Как понять, что сознание родилось? Тест Тьюринга не годится, нейросети его давно пробили. И получится бесконечное созерцание бездонного колодца.

Игорь Антонов

#73
Цитата: Palarm от января 13, 2023, 10:51:24В таких рассуждениях плохо то, что никак не определено, что мы ищем и чего ожидаем. Как понять, что сознание родилось? Тест Тьюринга не годится, нейросети его давно пробили. И получится бесконечное созерцание бездонного колодца.
Да очень просто. На поверхности лежит этот  критерий, и я сто раз про это говорил. Это вторичный системогенез П. К.Анохина, синтез по-новому функционирующей системы, новая координация в системе. Получение полезного для системы результата за счёт новой структуры связей существующих элементов, новый способ решения задачи. Искусственные нейросети этого не делают,  машинные  алгоритмы этого не делают, разумное сознание делает это постоянно и повсеместно.

Palarm

Цитата: Игорь Антонов от января 13, 2023, 11:06:59Получение полезного для системы результата за счёт новой структуры связей существующих элементов, новый способ решения задачи.
Кто будет определять полезность? Если человек - система не самодостаточна, ей опять требуется оператор, если она сама - то как?