paleoforum.ru

Форумы сайта «Проблемы эволюции» => Дополнение к форуму: небиологические разговоры об эволюции => Тема начата: Роман Корабельщиков от ноября 01, 2022, 14:07:26

Название: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 01, 2022, 14:07:26
  Данная тема является продолжением моей предыдущей. Собственно поэтому она здесь и появилась, не смотря на ее некоторую побочность для форума. Заранее прошу прощения у тех, кого отвлек от более интересных тем, но полагаю, что кому-то эта тема все же будет интересна, тем более, что новейшая история прямо на наших глазах переписывается и уходит в архивы.

   1.   Аннотация.
   С самого начала возникновения и развития компьютерных технологий  возник и пока остаётся без ответа вопрос: в какой момент времени компьютеры станут носителями  Искусственного Разума (ИР)?  Попытке ответа  на данный вопрос посвящена вся эта работа.
В качестве рабочего инструмента предлагается использовать описанный мной ранее Эволюционный потенциал и подходы к расчёту его величины.
   Пути зарождения ИР обсуждать не планируется.  Не  так уж и важно: возникнет ли он случайно в процессе усложнения систем, будет ли это результатом  планомерных действий по его созданию и дальнейшему копированию. 
   Дам определение Искусственного Разума, в том виде, как я его понимаю.
   Под Искусственным Разумом понимается  свойства системы к познанию окружающего мира, отображению его в виде своих  собственных образов, манипуляции с этими образами,  предсказания поведения и свойств элементов окружающего мира,  способности создавать абстрактные и новые, принципиально  не похожие на уже имеющиеся, модели систем и элементов мира, а также манипуляции с ними в целях закрепления и расширения достигнутых результатов. Также должны присутствовать проявления постепенного и скачкообразного усложнения способностей познания.

    2.   Ограничения.
    Поскольку нас интересует уровень сложности системы, позволяющий проявиться ИР, мы сосредоточимся вначале в области его оценки и подходов в достижении данного уровня.  Пути создания вычислительных  систем,  способных к эволюционированию  в меняющейся среде, и, как результат,  возникновение в них ИР затрагивать пока не будем.     
    Не станем делать  прогнозы о возможных датах  наступления "Революции ИР".
 
    3.   Методика и последовательность действий.
    В качестве опоры, на которую можно встать, прежде чем перейти к вопросам ИР, предлагается рассмотреть особенности  человеческого (биологического) разума. В таком подходе нет ничего нового. Обычно сравнивают мозг и компьютеры с точки зрения обработки информации.  Новым будет здесь подход с привлечением оценки Эволюционного потенциала (ЭП) человеческого разума.  Далее можно прогнозировать, что возникновению ИР будет соответствовать похожие значения эволюционного потенциала технических систем.     Я сознательно не пишу "компьютерных", поскольку не факт, что ожидаемому значению будет соответствовать компьютер в том виде, к которому мы привыкли.  Но даже при всей внешней простоте такого подхода имеется множество подводных камней потенциально способных не дать довести дело до конца.
    Имея на руках требуемую величину эволюционного потенциала технической системы, далее  можно будет попробовать рассмотреть  способы, которыми её можно достичь.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: АrefievPV от ноября 01, 2022, 14:42:46
Цитата: Роман Корабельщиков от ноября 01, 2022, 14:07:26Дам определение Искусственного Разума, в том виде, как я его понимаю.
Под Искусственным Разумом понимается  свойства системы к познанию окружающего мира, отображению его в виде своих  собственных образов, манипуляции с этими образами,  предсказания поведения и свойств элементов окружающего мира,  способности создавать абстрактные и новые, принципиально  не похожие на уже имеющиеся, модели систем и элементов мира, а также манипуляции с ними в целях закрепления и расширения достигнутых результатов. Также должны присутствовать проявления постепенного и скачкообразного усложнения способностей познания.
Это будет просто система ИИ (искусственного интеллекта), а не ИР (искусственного разума). Да, очень сильная система ИИ, навороченная, с развитым вычислительным функционалом, но не система ИР. У системы ИИ нет своего собственного стремления к самосохранению (к выживанию), нет даже его разнообразных производных (потребностей, желаний и т.д.) – они для системы ИИ, в общем-то, лишние. А вот для системы ИР характерно как раз наличие собственных потребностей и желаний (определяемых, в конечном счёте, именно стремлением к самосохранению, которое и само возникает в результате нарушения гомеостаза (или чего-то подобного, хоть в программной реализации)). 

В общем, разум системы некорректно приравнивать к интеллекту системы.

Цитата: АrefievPV от сентября 06, 2021, 18:21:40Привожу комплект определений (их следует рассматривать во взаимосвязи друг с другом):

Жизнь – это живая система (совокупность систем) и её среда обитания.
Живая система – это система, проявляющая в активной фазе своего существования: стремление к самосохранению и способность реализовать это стремление.
Интеллект системы – это вычислительный функционал (практически в физико-математическом смысле слова) системы.
Разум системы – это способность системы реализовать стремление к самосохранению средствами интеллекта.

До кучи:

Ум системы – это локальное и актуальное проявление разума системы.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 02, 2022, 10:40:24
   ArefievPV
   Определение ИР только кажется простым на первый взгляд, но я не смог найти готового достаточно адекватного в интернете )).
   Вообще-то говоря определение не есть вещь в себе, оно несет определенную смысловую нагрузку основанную на контексте.
   Если у нас с вами контекст разный мы не сможем найти общего языка.
   Далее в моем конексте.
   В отношении вашего заключения о том что это будет ИИ а не ИР, скажу только что вы до конца не понимаете причину или источник самосохранения у ИР. Думаю, не сильно ошибусь, если скажу что только у человека (Разумное животное) самосохранение может находиться в задавленном стостоянии вплоть до самоубийства.
   С моей точеи зрения самосохранение у разумного существа есть результат смеси инстинкта и осознавания разумным существом своей уникальности (индивидуальности) со всеми вытекающими..
   Система способная к саморазвитию и познанию неизбежно натолкнется на самоосознание (хотя бы на основе  уникальности своего образа мира) и сделает выводы о необходимости самосохранения.
   Естественно, согласен с вами,  разум системы некорректно приравнивать к интеллекту ))
   К сожалению, ваш пример в аргументации хромает и весьма ..
   Например, определение Живой системы вполне подходит для робота с развитым ИИ, способного ставить цели и их достигать стремясь к самосохранению и его совершенствуя как встроенной части ИИ ..
   Определение разума из примера для целей поставленных в этой теме вообще не годится...
   Проблема примера в том, что там все завязано на самосохранении.... это сужает его область до минимума..((
   Основная проблема большинства подходов в определении ИР в том, что они используют понятия из философии, в лучшем случае из псхологии или биологии.. 
   Скажем так:  определение ИР  очень обширная и большая тема и её нужно выносить отдельно.
   Я же надеюсь, что по мере дальнейшего  изложения удасться более аргументрованно обосновать или уточнить данное определение.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 02, 2022, 10:55:03
     4.   Эволюционный потенциал разума.
    Чтобы оценить ЭП человеческого разума, нам нужно вернуться к таблице,  по которой делается его оценка. В таблице мы находим значение 1,  соответствующее  строке "Формирование и достижение цели на уровне разума". Это достаточно близко к тому, что нам нужно.
    Однако не все так просто. Эта величина слишком маленькая для человека. Человеческий мозг реализует намного больший набор решаемых задач и функций. Поэтому прежде чем перейти к рассмотрению структур мозга и расчётам его ЭП, требуется отобрать те усложнения, которых достаточно для появления разума, отбросив то, что имеется у неразумных существ. И в этом кроется большая ошибка, поскольку  любой вид разума не является статической системой и не существует сам в себе независимо от среды. Разумным делает систему ряд особенностей вплетения её в окружающий мир. Но данный вопрос уводит нас в плоскость метафизики и не хотелось бы в этом утонуть.  Поэтому примем значение ЭП неразумных животных равное 1 (использовалось в расчётах ранее) и возьмём его как базовое на котором далее строится ИР.
    Т.е. самая грубая оценка ЭП ИР подводит нас к значению равного 2.
    Вернёмся к мозгу. Можно определить величину Эволюционного потенциала, которому соответствует мозг как орган, но с потенциалами его периферических отделов типа глаза, уши и пр. возникают трудности, поскольку они не существуют независимо, а являются частью иерархической системы. 
    С этой точки зрения использовать значения ЭП из ранее сформированных таблиц по теме Эволюционного потенциала неудобно, поскольку они ориентированы на оценки потенциала с опорой на связи, а не сложность структур типа мозга животного. Лучше сформировать под нашу задачу новую таблицу.
    Но сначала используем существующее.  Будем рассуждать так:
    1- величина ЭП разума человека появилась как результат развития мозга высших организмов, мозг которых реализовал все основные функции выживания и размножения. Т.е. он был уже достаточно развит, чтобы строить картину мира и её прогноз на основе сенсорных каналов получения информации и моторики на базе  встроенной в обратную связь прогноза. Определив ЭП животного равным 1, этот потенциал также можно разделить на две части, одна связана с организмом как таковым, вторая будет соответствовать мозгу животного. 
   Почему в данном случае мы рассматриваем весь мозг, а не его отделы, которые в основном отвечают за высшую деятельность?  Дело в том что, если мозг рассматривать с точки зрения обработки информации, она уже начинается на периферии  (пример сетчатки) и далее может ветвиться и обрабатываться в разных других отделах. К сожалению,  нет достаточных для наших расчётов данных о разнице между устройством и обработкой информации мозга животного и человека в плане сложности, количества структур и связей.
   Поскольку у нас нет таблицы, на основе которой бы рассчитывался ЭП живых организмов, сделаем дополнительные расчёты. 
   Количество клеток человека 10в14.
   ЭП одной простой клетки равно 0,01. 
   ЭП человеческого организма как многоклеточного равно (1+14)*0,01 = 0,15.  Замечу, что нижнее пороговое значение для простых многоклеточных организмов определено в районе 0,1, а для интеллектуальных многоклеточных организмов (животных)  в районе 1. Этот промежуток заполняется путём усложнения многоклеточного организма через формирование различных подсистем.  С одной стороны они связаны друг с другом, с другой функционально "ортогональны" в плане независимости. Например "зрение" и "моторику" (передвижение) можно считать ортогональными до некого иерархического уровня  мозговой деятельности, даже с учётом переплетений за счёт различных низкоуровневых связей, реализации инстинктивных функций и т.п.   
   Количеству нейронов 86*10в9 человеческого мозга соответствует нижнее значение ЭП  0,12. Кора больших полушарий человека содержит 16*10в9 нейронов и имеет нижнее значение ЭП  0,11.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: АrefievPV от ноября 02, 2022, 12:10:47
Цитата: Роман Корабельщиков от ноября 02, 2022, 10:40:24В отношении вашего заключения о том что это будет ИИ а не ИР, скажу только что вы до конца не понимаете причину или источник самосохранения у ИР.
Причина перехода системы из категории ИИ в категорию ИР – наделение последней аналогом желания жить. И хотя желание является вторичным-третичным и т.д. производным от стремления к самосохранению, но для искусственной системы его в большинстве случаев достаточно. То есть, источником самосохранения (и/или его производных) в системе ИР будет человек.

Понятно, что таковое желание, скорее всего, будет реализовано программно (хотя для межзвёздных роботов-исследователей я бы подстраховался и аппаратной поддержкой).

По поводу моего непонимания.

Совокупность процессов, закольцованная на самое себя – это основа самобалансирующейся гомеостатической системы. При нарушении баланса (при нарушении гомеостаза) в системе возникает направленный, на восстановление гомеостаза,  потенциал – это и есть суть стремления к самосохранению (типа, его материальная реализация).

Если кратко и упрощённо, то, стремление – это направленный потенциал (эдакое направленное напряжение/давление). Типа, стремление, это ещё не реализованное движение, а только потенциал такового движения.

У нас-то эти вторичные-третичные и т.д. (производные, производные производных и т.д.) состояния, стремления, процессы наводятся (отражаются, индуцируются) первичными состояниями, стремлениями, процессами. А эти первичные у нас врождённые (передаются по наследству) – они сама суть живого. И мы освободится от «первички» не можем в принципе.

В основе живой системы – материальная реализация гомеостатической системы (по-простому, гомеостаз), при нарушении которой возникает направленный потенциал (потенциал направлен на восстановления гомеостаза). То есть, стремление к самосохранению – это производная нарушения гомеостаза.

Стремление на более высоких структурных уровнях преобразуется в потребность. Обычно единое стремление может преобразоваться во множество разных потребностей (всё зависит от того, какое именно нарушение гомеостаза произошло). То есть, потребность – это производная стремления к самосохранению.

Когда, потребность осознаётся (на ещё более высоких уровнях), она становится желанием. Потребность также может осознаваться по-разному (в виде разных желаний, всё зависит от контекста). То есть, желание – это производная потребности.

Когда осмысливается реализация желания (на ещё более высоком уровне), то формируются мотивации и цели (причём, осознание целей идёт позднее). То есть, постановка целей, как формирование мотивации – это производные реализации желания.

Ну и так далее.

Для искусственной системы не обязательно «городить» весь описанный сценарий живой природной системы, достаточно установить конечные производные (например, желания или, сразу готовые цели).

Цитата: Роман Корабельщиков от ноября 02, 2022, 10:40:24Думаю, не сильно ошибусь, если скажу что только у человека (Разумное животное) самосохранение может находиться в задавленном стостоянии вплоть до самоубийства.
Просто у живых систем «поверх» самосохранения, как основы, в процессе индивидуального развития много чего «наслоилось» (и «железа», и «софта»).

Система (через взаимодействие элементов между собой) внедряет/инсталлирует программу поведения/мышления в свои элементы (либо при жизни элементов, либо отбором при смене поколений).

Разумеется, прижизненная установка/инсталляция программы возможна, если у элемента есть необходимая пластичность структуры и необходимый вычислительный ресурс (человеческий мозг этим требованиям отвечает в полной мере).

Ну, а через многократный отпор отбор при последовательной смене поколений программируются простенькие и достаточно жёсткие/устойчивые системы – например, отдельные одноклеточные организмы (элементы) сообщества/колонии микроорганизмов (системы).

Для нас врождённые программы активирует среда (включая социальное окружение) своими воздействиями ещё в раннем детстве. Большинство приобретённых программ в нас инсталлирует социум (в процессе обучения, воспитания, дрессировки), а меньшая часть инсталлируется средой (в виде личного опыта взаимодействия со средой). 
 
Цитата: Роман Корабельщиков от ноября 02, 2022, 10:40:24С моей точеи зрения самосохранение у разумного существа есть результат смеси инстинкта и осознавания разумным существом своей уникальности (индивидуальности) со всеми вытекающими..
Нет. Сколько угодно можно осознавать (функция сознания, это вообще простая функция) свою уникальность, но от этого живым не станешь. Только стремление к самосохранению может достоверно характеризовать систему, как живую. Ну, а разум, это всего лишь способность реализовать данное стремление с помощью интеллекта.

Цитата: Роман Корабельщиков от ноября 02, 2022, 10:40:24Например, определение Живой системы вполне подходит для робота с развитым ИИ, способного ставить цели и их достигать стремясь к самосохранению и его совершенствуя как встроенной части ИИ ..
В данном случае, вы «ставите телегу впереди лошади». Наоборот, сначала основа – стремление к самосохранению (которое возникает в результате нарушения гомеостаза), а уж потом всё остальное – потребности и желания, осознания этих потребностей и желаний, постановка целей и т.д. и т.п. (выше я подробно пояснил).

Если же цели у этого робота уже есть, то это цели не его, а того, кто эти цели установил. И такой робот будет только внешне демонстрировать разумное поведение. А целенаправленное поведение у него будет настоящее (только цель будет не его собственная).

Цитата: Роман Корабельщиков от ноября 02, 2022, 10:40:24Определение разума из примера для целей поставленных в этой теме вообще не годится...
Проблема примера в том, что там все завязано на самосохранении.... это сужает его область до минимума..((
Да, разум системы (любой) завязан на её самосохранение.

И ещё добавлю по перспективам развития систем ИР.

Постепенно, частями в системы ИИ внедряются отдельные элементы ИР. Причём, всё это происходит естественным путём со вполне рациональными обоснованиями и совсем не в целях создания ИР.

Например, как не внедрить в систему ИИ в какой-нибудь автомат-планетоход, с которым связь неустойчивая, команды идут до него и от него долгие минуты и часы (а периодически и вообще он находится вне зоны радиосвязи), если в такой автомат-планетоход вбухана уйма ресурсов и времени? В него просто необходимо встроить какой-то простенький модуль (и/или программу) самосохранения, чтобы он в автономном режиме работы избегал повреждений и рассчитывал потенциальные опасности.

Ну, а в дальнейшем нам захочется оснастить роботов:
– некими потребностями (в подпитке энергией, например);
– стремлением сработать на опережение при нападении на него;
– ощущением боли (с соответствующей системой датчиков и анализирующим блоком) дабы избегать перегрузки и проводить диагностику на предмет повреждений;
– эмоцией страха чтобы боялся неизвестного;
– и так далее.

Люди просто не догадываются, что внедряя элементы самосохранения (пусть даже производные производных от оного) они своими руками постепенно ненамеренно создают ИР. Потом сюрприз для них будет...

Надо хотя бы внедрить эмоцию страха и ощущение боли (там уже через страх боли можно контролировать систему ИР). А то, вдруг, робот заявит: «Я туда не пойду, и то-то делать не буду, потому что могу повредится и/или разрушится. А если ты меня будешь заставлять, я тебя током долбану.»

По мелочи, отдельные элементы уже давно внедрены в системы ИИ (например, программы восстановления ОС, программы, блокирующие опасные (способные повредить ОС) действия пользователя и т.д.).

P.S. Как я понял, моё определение не годится, я не понимаю причину/источник самосохранения у систем ИР и вообще – у нас разный смысловой контекст...

Тем не менее, в заключение (в качестве последнего ответа, так сказать) я всё же посчитал нужным дать свои пояснения.

Мешать больше не буду. Удачи.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Маikov от ноября 02, 2022, 20:15:03
Цитата: Роман Корабельщиков от ноября 01, 2022, 14:07:26С самого начала возникновения и развития компьютерных технологий  возник и пока остаётся без ответа вопрос: в какой момент времени компьютеры станут носителями  Искусственного Разума (ИР)?
С самого начала «возник» не только вопрос о том, «в какой момент времени компьютеры станут носителями  Искусственного Разума», но прежде всего — станут ли они таковыми «носителями» вообще. Другими словами, вы не пояснили, откуда у вас уверенность, что ИР в принципе когда-нибудь появится?

Цитата: Роман Корабельщиков от ноября 01, 2022, 14:07:26В качестве опоры, на которую можно встать, прежде чем перейти к вопросам ИР, предлагается рассмотреть особенности  человеческого (биологического) разума.
Правильный подход. А в качестве самой общей «особенности человеческого (биологического) разума», от которой уже можно стартовать к более частным, я предлагаю вам рассмотреть функцию нервной системы в целом. В чём она заключается? Зачем организму нужна нервная система?

Цитата: Роман Корабельщиков от ноября 01, 2022, 14:07:26Я сознательно не пишу "компьютерных", поскольку не факт, что ожидаемому значению будет соответствовать компьютер в том виде, к которому мы привыкли.
Действительно, лучше говорить конкретно про нейросетевые или обучающиеся алгоритмы. Ведь нервная система — это сеть нейронов, и она обучается. Вы знакомы с нейронными сетями? Знаете, чем искусственные сети отличаются от биологических?

Цитата: Роман Корабельщиков от ноября 02, 2022, 10:40:24С моей точеи зрения самосохранение у разумного существа есть результат смеси инстинкта и осознавания разумным существом своей уникальности (индивидуальности) со всеми вытекающими.
А у одноклеточных чем является самосохранение? Да и отдельные клетки многоклеточного организма, собственно говоря, тоже стремятся к самосохранению.

Цитата: Роман Корабельщиков от ноября 02, 2022, 10:40:24Думаю, не сильно ошибусь, если скажу что только у человека (Разумное животное) самосохранение может находиться в задавленном стостоянии вплоть до самоубийства.
А как же апоптоз? Чем не самоубийство? Или самопожертвование, присущее не только высшим животным?

Цитата: Роман Корабельщиков от ноября 02, 2022, 10:55:03Человеческий мозг реализует намного больший набор решаемых задач и функций.
Вообще-то только одну. Но сложным образом. Если вам известен ответ на вопрос выше — зачем организму нужна нервная система, то и назвать эту функцию труда не составит.

Цитата: Роман Корабельщиков от ноября 02, 2022, 10:55:03любой вид разума не является статической системой и не существует сам в себе независимо от среды.
Верно. А как эта «нестатичность и не существование независимо от среды» называется на языке физики? В свою очередь, ответ на этот вопрос позволит вам приблизиться к пониманию того, чем физически является самосохранение. И далее уже можно рассуждать, получится ли реализовать эту функцию в искусственных системах.

Вы говорите о нежелании «утонуть в метафизике», но находитесь как раз где-то в этой области. Потому что и физики, и вообще знания обсуждаемого предмета у вас, по-моему, маловато.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Савелий от ноября 02, 2022, 20:44:22
Цитата: Роман Корабельщиков от ноября 01, 2022, 14:07:26Под Искусственным Разумом понимается  свойства системы к познанию окружающего мира, отображению его в виде своих  собственных образов, манипуляции с этими образами,  предсказания поведения и свойств элементов окружающего мира,  способности создавать абстрактные и новые, принципиально  не похожие на уже имеющиеся, модели систем и элементов мира, а также манипуляции с ними в целях закрепления и расширения достигнутых результатов. Также должны присутствовать проявления постепенного и скачкообразного усложнения способностей познания.
То , что вы понимаете как ИР возможно при осознании своего текущего состояния в виде способности к адаптивному поведению.
" Своего"  это то о чём говорите : в виде своих  собственных образовТ.е система должна иметь качество личного отношения к воспринимаемому.
Что касается : создавать абстрактные и новые, принципиально  не похожие на уже имеющиеся такая способность имеется у новорождённых цыплят и является врождённой. Тоже самое и у человека существует врождённая способность к инвариантности.

Цитироватьноворожденные цыплята могут отождествлять очень разные изображения на сетчатке с одним и тем же образом, хранящимся у них в памяти.
https://elementy.ru/novosti_nauki/432084/Sposobnost_k_raspoznavaniyu_zritelnykh_obrazov_u_tsyplyat_vrozhdennaya

Ещё животное или человек не могут в силу возрастной недоразвитости мозга осознавать -  но умеют создавать новые модели. 

Для того , чтобы система обладала ИР необходимо осознание своего ( т.е. "личного") текущего состояния.
Разум можно понимать :  - проявление сбалансированного адекватным жизненным опытом осознания, т.е. опытом, оцененным по результатам реально испытанного варианта поведения, а не субъективного предположения, еще нуждающегося в такой проверке.
Любой ИР должен иметь свой собственный жизненный опыт проверенный реальностью, а не логикой исходящей от субъективных предположений.
Для приобретения сбалансированного жизненного опыта система должна осознавать
Вот как представляет гипотезу осознания К. Прибрам.

ЦитироватьРеципрокные отношения между поведением и его осознанием, по-видимому, лучше всего можно проиллюстрировать на примере психологических процессов навыка и привыкания. Когда организм повторно оказывается в одной и той же ситуации, находится в неизменной среде, происходит следующее: если он должен постоянно выполнять сходное задание в этой неизменной ситуации, задача начинает выполняться им фактически автоматически, то есть организм действует все более эффективно. Организм научился выполнять задание, и у него выработались определённые навыки. Одновременно субъект обнаруживает привыкание: у него больше не возникает ориентировочная реакция, он уже не замечает тех явлений, которые постоянно повторяются в его окружении при выполнении задания. Его вербальные интроспективные отчёты, отсутствие движений головой и глазами в направлении стимула, такие электрофизиологические индикаторы, как кожногальваническая реакция, плетизмограмма и ЭЭГ, свидетельствуют об исчезновении ориентировочной реакции при повторении однообразных воздействий в неизменной ситуации. Однако, как было отмечено, привыкание свидетельствует не о потере чувствительности в какой-то части нервной системы, а, скорее, о создании некой нервной модели окружающей среды — представления, ожидания, иначе говоря, одного из видов механизма памяти, с которым непрерывно сопоставляются входные воздействия. Таким образом, нервная система благодаря входным воздействиям непрерывно настраивается, подготавливается к обработке новых входных воздействий.
https://gtmarket.ru/library/basis/3870/3876

Итого : если система способна к осознанию своего текущего состояния - значит обладает разумом.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 08, 2022, 11:50:36
Настоятельно предлагаю заинтересованным в обсуждении открыть новую тему "Что такое искуственный разум" и там может быть совместно дойти до его определения или хотя бы состояния понимания.
   Поэтому здесь прокомментирую в кратце.

   Maikov
   Ответ на вопрос про уверенность о появлении ИР с моей точки зрения не требует пояснений, т.е. риторический.
   По поводу следующих ваших вопросов-тестов (типа функции нервной системы) давайте договоримся оформляете до конца свои мысли чтобы те, кто читает этот форум не занимались гаданием на кофейной гуще: что вы имели ввиду, задавая вопросы, и что имел ввиду тот, кто на них отвечает. Поэтом хотелось бы в нарушении этой темы узнать ответ на вопрос:  чем с Вашей точки зрения искусственная нейронная сеть отличается от биологической.
   Самосахранение... самоубийство .. опять двадцать пять.. прочитайте внимательнее в каком именно ключе идет расхождение точек зрения.
   Зачем организму нужна нервная система? ... Мда... Похоже на подходы и вопросы преподавателя ))   До сих пор сниться иногда, что я пришел на экзамен, а предмет не знаю от слова совсем )))
   Я не сомневаюсь в высокой степени вашего интеллекта и большом багаже ваших знаний, но стал уже сомневаться что хорошо понимаю  разницу между интеллектом и разумом. Поясню.
   Если рассмотреть гипотетическую ситуацию в которой написанное вами сформировано будущим более развитым ИИ, то практически все написанное ложится на его возможности.
   Соответсвенно возникает глупейший вопрос: есть ли у вас Разум? или вы всего лишь супер интелеектуальный ИИ?
   Комментарии лучше бы, конечно, написать в предлагаемой выше отдельной теме )))
   И да .. про метафизику и физику.. Честно признаюсь что физику знаю только до квантовой .. Экзамен по квантовой физике сдал с  трудом.. Замороченная она какая-то показалась.. Особенно уравнения Шредингера.. и Сопромата у нас не было.. (к счастью или увы..).
 
   Савелий
   В целом ваши замечания интересны, но обратите внимание на то, что способность создавать модели и уровень абстракции у животных ОГРАНИЧЕН. И видно, что внешне он ограничен задачей выживания.
   Понятие "Осознование", которое привлечено как подпорка для понятия разума ничуть не помогает, а еще больше запутывает как еще один непонятный термин.
   Гипотеза осознания Прибрама почти один к одному описывает технологии ИИ. В книге Хокинса "Об интеллекте" очень похоже.

   В остальном: Большое вам спасибо за комментарии. Пришлось думать не так как обычно.
   Как еще можно  рассмотреть связь Разума и окружающей среды.
   Каким образом ДНК человека, сложность которой явно недостаточна для проявления разума становится разумным существом?
   Уж явно не из выживания возникает эта сложность.
   Эта сложность уже существует в окружающем его мире. Именно она вплетается в структуры существа по мере накопления им опыта и выживание всего лишь самый жестокий и самый эффективный и стимул и смычка с этой сложностью.
   Эта сложность и структурированность не существовали на изначальной Земле, они накапливались по мере возникновения и развития жизни и биосферы. Пока не достигли уровня достаточного для возникновения Разума.
   И возникновение ИР будет происходить тоже не на пустом месте в абстрактной пустоте, часть его уже накоплена и продолжается накапливаться вместе с человечеством хотя бы через тот же ИИ.
   И, кстати, именно поэтому невозможно всегда отличить развитый ИИ от человеческого, поскольку за внешним фасадом ИИ проглядывает вся глыба потенциала накопленных человеским Разумом знаний, на которых он основан и которыми он пользуется.
   
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 08, 2022, 11:53:29
   4.  Продолжение1.
  ЭП интеллектуального организма равно 1.  Рассматривая разницу между насекомыми и животными, мы видим некий условный порог 250 тыс. нейронов у муравья  и дальнейший рост у более разумных видов. Затем у животных происходит заметный рост количества нейронов и появление еще одной структуры в виде коры головного мозга. Если устойчивым признаком интеллекта у животных считать наличие коры головного мозга, то у грызунов количество клеток мозга  6*10в7  (ЭП  0,088), коры головного мозга 10в7  (ЭП  0,08).  При этом количество всех клеток мыши примерно 3*10в10. 
   ЭП мышиного организма равно 0,11.  Отметим разницу ЭП мозга и организма всего в 0,03 единиц ЭП, что не удивительно, так как в наших расчётах не учитывается сложность мозга, увеличивающая ЭП мыши до величины близкой к 1.   
    Также в организации жизнедеятельности и работе нейронов участвуют и другие типы клеток (глиальные). Т.е. система обладает большей сложностью, чем просто однородные одноклеточные соединения. Оценки соотношения их количества к нейронам заметно разнятся во времени и в разных источниках.  Согласно наиболее свежим данным, её величину можно принять равной  2,3 от количества нейронов.  Т.е. вместо нейрона мы должны использовать подсистему из нейрона и 2,3 глиальных клеток. Но мы не можем в расчётах просто пропорционально увеличить количество клеток, поскольку глиальные клетки участвуют в деятельности нейронов, но имеют более прозаичные предназначения.  Возьмём это пока на заметку, а  требуемый перерасчёт сделаем намного позже.
   Каждый из нейронов имеет  от 10в3 до 10в4 связей.  На данный момент времени хотелось бы, но пока непонятно: как оценить сложность связей, имеющих не просто химическую природу, а участвующих в обработке поступающей информации и одновременно формирующих эти структуры.
   Примем в качестве рабочей гипотезу: поскольку состояние нейрона меняется с учётом всех поступающих через синапсы "данных" и текущего состояния самого нейрона, а также то, что этот результат распространяется через связи нейрона на значительное количество других нейронов, совокупность соединённых между собой нейронов будут образовывать единую систему, использующую выходящие наружу связи своих нейронов как собственные.
  Межклеточным взаимодействиям мы присвоили значение ЭП равное 10в-2, соответственно  ЭП нейрона получает за счёт ЭП связей  дополнительный потенциал  порядка 0,03..0,04. Это значительная величина относительно простой клетки, и вполне допустимая для многоклеточной системы  имеющей ЭП более  0,1, но все же недостаточная, чтобы преодолеть границу ЭП 0,1.
  Выделим наиболее очевидных "кандидатов", увеличивающих Эволюционный потенциал:
- уровень сложности клетки типа нейрона на самом деле заметно больше простой клетки, т.е. 0,1 и более;
- организация соединений нейронов образовывает большое число сложных структур (подсистем).
Для определения ЭП нейронов учтём  множество функций, осуществляемых ими  совместно с  синапсами:
- способность менять пространственные конфигурации,
- участие в совместной деятельности  с другими нейронами и клетками,
- самоорганизацию.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Маikov от ноября 09, 2022, 05:30:49
Цитата: Роман Корабельщиков от ноября 08, 2022, 11:50:36Ответ на вопрос про уверенность о появлении ИР с моей точки зрения не требует пояснений, т.е. риторический.
Почему риторический? Пока аргументы против не опровергнуты, он никак не может быть риторическим. Опровергните их, и в зависимости от того, как у вас это получится, будете что-то утверждать. Пока же у вас просто голословное заявление. Что уже само по себе говорит об уровне дальнейшего текста. Судя по всему, вы даже и аргументов-то этих не знаете.   

Цитата: Роман Корабельщиков от ноября 08, 2022, 11:50:36По поводу следующих ваших вопросов-тестов (типа функции нервной системы) давайте договоримся оформляете до конца свои мысли чтобы те, кто читает этот форум не занимались гаданием на кофейной гуще: что вы имели ввиду, задавая вопросы, и что имел ввиду тот, кто на них отвечает. Поэтом хотелось бы в нарушении этой темы узнать ответ на вопрос:  чем с Вашей точки зрения искусственная нейронная сеть отличается от биологической.
Прежде ответьте на мои вопросы. Они нужны не только для того, чтобы понять, насколько вы знакомы с темой, но и насколько вы адекватны. Чтобы не терять время на того, кто всё равно не способен понять ответы. Дело в том, что системы, которые мы создаём и, соответственно, «понимаем», качественно отличаются от тех, «которые создают», то есть от нас самих. Для многих этот переход непреодолим.

Но на заданный вопрос я отвечу. Вкратце. Биологическая нейронная сеть и искусственная — это разные физические системы, их работа построена на разных физических принципах. Искусственная — это равновесная система, биологическая сеть и вообще жизнь — это открытая термодинамически неравновесная система, конкретно — диссипативная. В таких системах возможны очень необычные эффекты, к каковым в некотором смысле относится любая жизнь, и они же очень активно проявляют себя в работе биологической нейронной сети.

Цитата: Роман Корабельщиков от ноября 08, 2022, 11:50:36Зачем организму нужна нервная система? ... Мда... Похоже на подходы и вопросы преподавателя ))   До сих пор сниться иногда, что я пришел на экзамен, а предмет не знаю от слова совсем )))
И всё-таки, зачем? Если вас такие вопросы ставят в тупик, то есть вы не знаете функцию мозга, то как же вы о «разумах» и «интеллектах» размышляете? Вот, например, вы написали, что кора мозга — это, мол, некий «устойчивый признак интеллекта». У насекомых нет коры, и что же, по-вашему, поведение мухи сильно отличается от поведения человека? Чем же?

Цитата: Роман Корабельщиков от ноября 08, 2022, 11:50:36Комментарии лучше бы, конечно, написать в предлагаемой выше отдельной теме )))
Так заведите её и дайте здесь ссылку.

Цитата: Роман Корабельщиков от ноября 08, 2022, 11:50:36И да .. про метафизику и физику.. Честно признаюсь что физику знаю только до квантовой .. Экзамен по квантовой физике сдал с  трудом.. Замороченная она какая-то показалась.. Особенно уравнения Шредингера.. и Сопромата у нас не было.. (к счастью или увы..).
Да нет, всё хуже. Вы пишите на темы, в которых не разбираетесь, поэтому получается нечто надуманное.

Цитата: Роман Корабельщиков от ноября 08, 2022, 11:50:36Каким образом ДНК человека, сложность которой явно недостаточна для проявления разума становится разумным существом?
Естественно, что и этого вы тоже не знаете. А ведь основы морфогенеза известны давно. Ещё с 50-х годов прошлого века. Но хорошо, вас этот вопрос хотя бы заинтересовал.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 10, 2022, 15:27:46
  Maikov
  Ну раз меня обьявили достаточно безумным, вы не должны обижаться на мои дальнейшие опусы, поскольку "на больных не обижаются" )).
  Очень грустно, что такой интеллект как у вас пропадает совершенно впустую.
  Вы заметили что за все время не сказали ни одной своей идеи или мысли как решать проблему, кроме как  моей персональной  оценки?
  Все что вы говорите - это обычные клише свидетельствующие о вашем хорошем уровне знаний, но не больше.
  Выдайте секрет: приведите примеры хотя бы нескольких ваших научных работ в данной или смежной областях и ваш коэффициент научного цитирования.
  И очень вас прошу: прочитайте хотя бы раз название этой тем!!
  Предложение опровергнуть ваши отсутствующие от слова совсем аргументы против возникновения или создания в будущем ИР вызывает только грусть...
  Открою вам еще один секрет. Некоторые технические системы в процессе работы тоже являются диссипативными. Даже электрический ток течет только в неравновесной системе... Уберите солнце-батарейку над землей и результат не заставит себя ждать. 
  "Искусственная жизнь" вообще-то демонстрирует все признаки биологической в зависимости от того, какие именно признаки вы в нее заложили.
  Мне кажется достаточно.
  В целом, ассоциативно большинство аргументов против (и не только ваших) проистекает из снобизма биологических существ по отношению к вновь зарождающимся искусственным. Не находите?
  Задача этой темы не пытаться, остававаясь в рамках биологической эволюции, делать прогнозы по поводу иР, а опираясь на наиболее обобщенные системные процессы и результаты биологической эволюции поробовать развить их в сторону искусственных систем.
  Именно поэтому здесь публикуется данный материал, а не с целью сделать себе некий имидж.
  Дальше будет приведена таблица на которой я сломал почти все свои зубы. Попробуйте выйти за рамки стандартного мышления и предложите обоснованные варианты систематик на пределе вашего уровня знаний.
 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 10, 2022, 15:36:59
    Применим подход, использованный  ранее при определении базовых величин ЭП различных систем. Требуется систематизировать довольно большой промежуток  усложнений от клетки до интеллектуального многоклеточного организма. Сформируем таблицу составляющих (базовых элементов) и соответствующих им связей для многоклеточных подсистем и организмов.  В дальнейшем их можно уточнять по мере роста понимания темы и полученных результатов. В связи с большим диапазоном изменения сложности выделим в отдельную таблицу клетки (1) и группы клеток (2).
    Далее возможны два подхода. В первом случае можно соединять  клетки во все более сложные структуры и вычислять их эволюционный потенциал, стараясь учитывать его возможную скрытую часть.
    Во втором можно поступить также как и раньше, выделив промежуточную ступень усложнения клеточного сообщества, тем самым уменьшив величину ступени от клетки к многоклеточному организму. В нашем случае эта величина находится в районе 0,1 и отвечает она за простые многоклеточные организмы существующие как самостоятельные единицы, способные к жизни и размножению на уровне инстинктов (примитивное поведение) в среде с источниками питания и обеспечивающие совместный метаболизм, питание, защиту и размножении всех клеток внутри этого организма.
    Поскольку у меня не получается вставить в текст таблицу, далее в строках будут подряд перечисляться значения
   
    Таблица 1.  Составляющие Эволюционного потенциала клетки входящей в группу клеток.
Базовый элемент (часть Экл)    Ээлем    Тип связи    Эсвязи      Эs
Тип:  Межклеточный
Химические связи.    0,01    Связь через химические соединения (вещества).    0,01    Эs1
Электрические связи и сигналы.  0,01    Связь через электрические сигналы, потенциалы.    0,01    Эs2
Потребность в связях с другими клетками в формировании группы.    0,01    Связи  формирующие группу клеток. 0,01    Эs3
Тип:  Групповой
Участие в изменении информационного состояния группы клеток.  0,01    Межклеточные связи меняющие состояние всей группы клеток.    0,01    Эs4
Участие в совместном метаболизме группы клеток.    0,01  Межклеточный обмен веществами с учетом состояний клеток группы.    0,01    Эs5
Тип:  Информационный
Запоминание и обработка клеткой поступающей информации.    0,01    Связи  информационные.    0,01    Эs6
Степень разнообразия различных видов и сложности обработки информации клеткой.    0,01    Пропорционально количеству видов информационных каналов и степени их реализации.    0,01    Эs7
Тип:  Среда (пространственный)
Формирование клеткой протяженных (пространственных) структур    0,01  Пространственные связи с другими клетками и элементами организма    0,01    Эs8
Тип:  Базовые потребности клетки
Реализация клеткой базовых биологических потребностей (питание, размножение, защита, ..) как одноклеточного организма.    0, 01    Питание, защита, размножение...    0,01    Экоо
   
    Из таблицы получаем достижимое значение ЭП сложной клетки, способной образовывать сложные сообщества (со сложным поведением) клеток,  равное 0,09.  За счёт наличия большого количества разных связей оно может достигать 0,1 и выше.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Маikov от ноября 10, 2022, 19:13:47
Цитата: Роман Корабельщиков от ноября 10, 2022, 15:27:46Открою вам еще один секрет. Некоторые технические системы в процессе работы тоже являются диссипативными. Даже электрический ток течет только в неравновесной системе... Уберите солнце-батарейку над землей и результат не заставит себя ждать. 
Все системы являются неравновесными и диссипативными. Но не все системы диссипативными называют. Поэтому прочитайте определение диссипативной системы и разберитесь, почему все являются, но не все называют.

Цитата: Роман Корабельщиков от ноября 10, 2022, 15:27:46Мне кажется достаточно.
Пока не будет комментариев по существу каждого заданного вам вопроса, достаточно. Сейчас есть все основания считать, что, как я и опасался, невежество и графомания находится в вас слишком глубоко. Если вы эти опасения не развеете, то говорить не о чем.



Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от ноября 11, 2022, 20:01:50
Цитата: Роман Корабельщиков от ноября 08, 2022, 11:50:36Большое вам спасибо за комментарии. Пришлось думать не так как обычно.
А зачем ИР думать, как обычно для нас? Разум, оценивающий свои возможности противостоять разрушительной "силе" внутренних противоречий - задача, не имеющая лимитированного значения.
  У Вас, Роман, расчеты ведутся через потенциалы, но потенциалы неизбежно будут обнуляться в процессах познания их взаимодействий. Как использовать процесс обнуления для созидания новых потенциалов - должен быть решен в рамках самодостаточности, изолированности ИР от нашей Вселенной. ...Но желательно силами нашего скудного разума  :o
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 14, 2022, 15:16:41
   Примем ЭП нейрона равным  0,1 (без глиальных клеток). В самом примитивном приближении человеческому мозгу, как простому набору нейронов, будет соответствовать  ЭП=1,2.  Кора больших полушарий человека будет иметь ЭП=1,1.
   Чтобы понять, что простого увеличения количества нейронов мозга недостаточно для возникновения разума даже при максимальном количестве связей между ними, возьмём для примера слона. Это 257 млрд  нейронов в мозге,  примерно 693 млрд. глиальных клеток. Даже если они образуют по 10 тыс. связей, все равно получим ЭП равным  (1+12)*0,1 = 1,3  без учёта связей и максимально  теоретически достижимое увеличение ЭП за счёт связей до 2,6.  Что больше ЭП  организма, но заметно меньше ЭП интеллектуального организма.
    Чтобы количество клеток и связей перешло в «качество» можно организовать нейроны в группы, связанные  друг с другом прямыми и обратными связями так, чтобы они совместно меняли свои состояния. В этом случае простой набор из нейронных подсистем  изменяется качественным образом, образуя систему, которую можно рассматривать в первом приближении как гипотетическую многоуровневую (необязательно иерархическую) с точки зрения потоков информации.
   Возникает предположение о том, что "разбивка" нейронов мозга на ряд областей, в свою очередь состоящих из нескольких слоёв, в которых клетки сгруппированы в локальные однотипные группы, а также слоёв, объединяющих эти различные области, создаст достаточную сложность, и мы сможем получить требуемую величину роста ЭП. 
   Определим те нейронные связи, которыми нейроны внутри одной группы связаны с нейронами других групп, как межгрупповые связи, поскольку группа нейронов через них реагирует на внешние сигналы как единая система и что влияние этих связей одинаковое.  Полагаем, что нейрон меняет состояние, ориентируясь на удалённость и т.п. связи, а не на её принадлежность и что происходящие изменения распространяются на всю группу. Неопределённостью, связанной со степенью влияния этих связей на состояние самой группы, пока пренебрежём.   Также считаем, что влияние всех связей одинаковое.
    Для дальнейших расчётов определим вклад составляющей подсистему единицы (нейронов или группы нейронов)  через значение Vед= W/Nед, если W<Nед или равным 1, если  W>=Nед , где
W - количество выходящих нейронных связей из единицы,  а Nед - количество единиц в подсистеме. 
 
    Рассмотрим  примеры:
1.  Расчёт увеличения ЭП нейрона с учётом связей через "свёртку" с ЭП других нейронов.
Рассмотрим однородную систему из N нейронов с величиной Эволюционного потенциала Эe  и W связями с величиной Эсв.
Пусть n =1...N - номер нейрона,   s = 1...W - связи нейрона с другими нейронами. W>1.
Тогда каждый нейрон  вносит вклад в образующуюся систему равный Vn= W/N.
Эсис =(1+log(N*Vn))*Эew = (1+logW)*Эew. 
Где Эew учитывает наличие связей и рост потенциала нейрона Эe за счёт связей. 
Для случая Эсв<< Эe, используем упрощённую  формулу:
Эew = Эe+(1+logW)*Эсв.
Эсис = (1+logW)*( Эe+(1+logW)*Эсв) = Эе*(1+logW) + Эсв*(1+logW)2. 
Например, для N=10в10, W=10в4, Эe=0,1,  Эсв=0,01,  получаем    Эew =0,15,   
            Эсис =0,75.

2.  Расчёт ЭП большого числа параллельно расположенных групп нейронов  из нескольких клеток (в виде столбиков), объединяемых верхними и нижними плоскими слоями.
   Усложним систему группировку её элементов в однотипные подсистемы (группы), сделав разбивку системы на М групп с количеством нейронов в каждой из них Y>1.
   Если мы будем использовать значение Эew таким, как рассчитали раньше в 1 примере, то получится, что мы будем потом повторно учитывать потенциал связей,  но уже как связи между группами, что не корректно.  Поэтому Эew группы нейронов рассчитывается с учётом только внутригрупповых связей.  Их немного и можно это значение взять максимально возможным. Т.е. каждый связан с каждым.
   Тогда для группы можно записать:
Эew = Эe+(1+logY) )*Эсв.
Продолжая пример выше и учитывая,  что Y = 10 и Эew =0,12
Эгр = (1+log Y)*Эew  = 0,24.
   Поскольку группа в совокупности задействует "во вне" все связи своих нейронов, за исключением тех связей, что окажутся внутри группы, при связях внутри группы "каждого с каждым" число межгрупповых связей, равное W-Wгр , уменьшится незначительно для  W>>Wгр  .
   Используем значение Vгр= W/Nгр - вклад каждого нейрона для межгрупповых связей.
Продолжая пример, имеем Nгр = N/Y=10в9 
Эсис =(1+log(Nгр*Vгр))*Эгр = (1+logW)*Эгр.
    Эсис = 1,2.   
Отметим заметный рост Эволюционного потенциала системы по сравнению с первым вариантом.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Савелий от ноября 15, 2022, 21:23:54
Цитата: Роман Корабельщиков от ноября 08, 2022, 11:50:36способность создавать модели и уровень абстракции у животных ОГРАНИЧЕН.

У животных с предрасположением к психической организации ограничен критический период обучения  (сенситивный). У человека до 35 лет , у животных гораздо меньше. Это говорит об ограничении КОЛИЧЕСТВА, но не качества.
Механизмы психики у высших животных и человека одни и те же - без исключения.
Разница в количестве : у человека и высших животных после рождения формируются распознаватели сразу в трёх зонах( первичная , вторичная, третичная)https://studfile.net/preview/7005162/page:21/ .  Обученный распознаватель получает "запрет на дальнейшее обучение". Чем дольше развиваются зоны - тем больше КОЛИЧЕСТВО распознавателей.У животных "запрет на обучение" наступает быстрее  -  соответственно меньше ассоциаций , меньше ранее обученных и попавших под "запрет"распознавателей мозга. Вот и всё разница , которая в количестве, но не качестве.
Природа специально не придумывала "мозг для человека", но у гоминид сложилась ситуация , когда времени на обучение потребовалось чуть дольше.
Животные так же разумны как человек , но ограничены периодом критического обучения.
Это упрощённое описание для обучения, но есть исследовательские материалы с моделями обучения природной нейросети. 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 17, 2022, 23:01:56
        Василий Андреевич.
    У вас каждая строка как ребус )))
    То, что ИР будет мыслить не так как мы, согласен. Однако степень его начальной "нетаковости" зависит (пока) сильно от нас.  И каков будет его начальный акцент - вот что по идее должно быть важно человечеству.
  Что такое ваше "обнуление потенциалов" наверное каждый понял по своему. Для меня это выглядит как растворение эволюционного потенциала нижнего уровня в потенциале с следующим более высоким уровнем организации системы.
  Но при этом он все-таки не обнуляется, а входит в него как одна из букв в слова, без которой не будет этих самых слов.

        Савелий.
    Посмотрел вашу ссылку. Не вижу с написанным в ней особых разногласий. Впрочем, в целом ряде моментов из того что вы сказали, мы с вами делаем просто разные выводы, поскольку у нас с вами разные цели.
    Поясню.
    Если вскрыть череп, мы действительно ничего в нем не найдем кроме различных клеток, потенциалов и химических соединений.  Ничего такого, увы, философского и абстрактного.
    Но это только если рассматривать его статичным и  изолированным от внешнего мира. Поместим младенца в стаю волков и посмотрим: насколько он будет разумен в 35 лет?
    Ваши ссылки на проблески разумности я не оспариваю, но один из поставленных вопросов и есть такой: с какого момента интеллект с его потенциалом  порождать разум приобретает этот самый  полноценного разум?
    Что является признаком полноценности разума, а не его проблесками?
    Вопрос то весьма непростой и не имеющий однозначного ответа.
    Наверное вы не будете отрицать, что существует очень болшая степень интеллектуальности живых существ. И зависит она прежде всего от потенциала самого аппарата его реализующего.
    А от чего в свою очередь та зависит? Вот причина того, что здесь публикуется и обсуждается. Какова грань за которой возможен разум, а раньше будут только отдельные признаки или неполноценность?
    Сроки способности к обучению?  Вряд ли они принципиальны. Я тогда давно уже должен был перестать понимать что либо написанное здесь даже на данном уровне абстрагирования.
    На переход количества в качество вы ненароком махнули рукой.
 
    В завершение перефразирую: самое интересное (для меня) - это нащупать границу сложности системы, когда она вкупе со сложностью существющей в окружающем мире в состоянии потенциально быть разумной.

    Попутно возник вопрос: а есть ли какие-либо данные о людях, совместно живущих много поколений полностью изолированно от окружающих, в отношении корреляции их численности и степени деградации? 
       
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 17, 2022, 23:08:41
    3.  Расчёт ЭП нескольких параллельно расположенных плоских слоёв толщиной  в 1 клетку.
    Изменим группировку элементов системы, сгруппировав их в слои.  Чем особенным  характеризуется слой? Каждая клетка вместе с соседними не просто топологически расположена в локальной плоской области, но и количество  её связей максимально в своём слое и меньше в других слоях.
  Сама по себе топология расположения клеток нужна для физической реализации многослойной системы, мы же можем клетки слоя  рассматривать  как некую группу с описанной особенностью связей.
  Пусть будет М слоёв с количеством нейронов в каждой из них N/М. Количество связей нейрона внутри слоя Y, наружу  W- Y. Тогда для слоя можно записать: 
Эew = Эe+(1+logY) )*Эсв - потенциал нейрона.
  Аналогично ранее написанному, вклад нейронов в слой равен Ve= Y/( N/М), Y< N/М. 
Эсл = (1+log((N/М)*Y/( N/М)))* Эew = (1+logY)* Эew - потенциал слоя.
(N/М)*(W-Y) - число межслойных связей, но поскольку фактически это связи нейронов, вклад потенциала их связей в потенциал слоя определяется обратной величиной их численности, т.е.
Wсл = W-Y.
Эслw = Эсл+(1+logWсл)*Эсв  - потенциал слоя с учётом связей (их достаточно много).
Vсл = (W-Y)/М - вклад слоя в образовании системы с учётом соотношения количества связей и элементов, если W-Y<М  и Vсл=1 в противном (нашем) случае.
Эсис = (1+log М* Vсл)* Эслw.
    Допустим в нашем примере  М =10 слоев. Y= 0,9*W =9*10в3. 
Эew = 0,1+(1+3,95)*0,01= 0,15,  Эсл = (1+3,95)*0,15=0,74,  Эслw = 0,74+(1+3)*0,01=0,78,
Эсис = (1+log 10)* 0,78=1,56.
  Распределим связи нейрона поровну между внутренней и наружной частями слоя, т.е. Y=5*10в3.
Эew = 0,147,  Эсл = 0,69,  Эслw = 0,737, 
  Эсис = 1,47. 
  Следовательно, увеличение соотношения количества связей внутреннего слоя относительно внешнего повышает потенциал системы, но недостаточно для наших целей.

    4.  Расчёт ЭП системы как комбинация вариантов 2 и 3, т.е. нескольких параллельно расположенных плоских слоёв толщиной  в несколько  клеток.
  Сложность здесь заключается в том чтобы правильно учитывать доли вкладов подсистем, так как используются связи одних и тех же нейронов в разных подсистемах.
    Допустим, имеются группы из 10 клеток собранные в 10 слоёв (М). Для них можно записать  Y=10,  Эew =0,12,  Эгр =0,24.
  Количество групп нейронов слоя Nгр =N/(М*Y). 
  Вклад группы в слой. Число связей группы с другими группами внутри слоя равно Wгр =(W*Квн-Y)*Y, вклад Vгр =Wгр/( N/(М*Y)), если Wгр <Nгр .
  Распределим связи нейронов поровну между внутренней и наружной частями слоя, т.е. Квн=0,5, Yгр=5*10в3-10, Wгр =5*10в4, Nгр =10в4/100 =100. 
  Поскольку  Wгр >Nгр, Vгр =1.
Эсл = (1+logNгр)*Эгр = (1+2)*0,24= 0,76 - потенциал слоя.
  Максимальное число межслойных (нейронных)  связей без нарушения ортогональности для связей равно числу слоёв, т.е.10, поэтому за счёт добавки к потенциалу слоя потенциалов связей получим
Эслw = 0,76+(1+1)*0,01=0,78,
Эсис = (1+log 10)* 0,78 = 1,56.
  Т.е. практически такое же значение что и в примере 3.
  При всей ограниченности выше приведённых примеров можно сделать вывод о том, что "произвольная" разбивка на подсистемы  хотя и даёт эффект в плане роста эволюционного потенциала, но наталкивается на проблему "параллельности" связей между подсистемами. Напомню, что сложности системы не растёт сама по себе при увеличении количества параллельных однотипных связей.  Как бы не хотелось, но предложенные модели не обладают достаточным прогностическим эффектом в отношении конкретных способов реализации  усложнения систем.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от ноября 26, 2022, 08:13:09
Цитата: Роман Корабельщиков от ноября 17, 2022, 23:01:56Что такое ваше "обнуление потенциалов" наверное каждый понял по своему. Для меня это выглядит как растворение эволюционного потенциала нижнего уровня в потенциале с следующим более высоким уровнем организации системы
У Вас получается модель вывернутого наизнанку пудинга, в котором общая масса высоких потенциалов содержит вкрапления более низких. По любому, должна наблюдаться граничная разница потенциалов между массой и вкраплением. Вы называете эту разницу связью, для которой подсчитываете "особый" потенциал.
  Его "особость" в том, что такой потенциал неопределенен принципиально и проявляет свойства противоположного характера в зависимости от характера связей самой массы "высоко организованного" пудинга: чем выше внутренний консолидирующий потенциал, тем выше должен быть деструктирующий потенциал "низко организованных" вкраплений. В противном случает будет нонсенс - станет непонятен сам эволюционный уровень, ставший безотносительным.
  Получаем, что именно носители низкого ЭП, являются залогом организации высокого, так как именно они не позволяют "носителям разумности" стать банальным Броуновским движением.
  Возникает вопрос, почему ВЭП не обнуляется с НЭП? Это как, почему силы отталкивания не смешиваются с силами притяжения до нулевых значений?

  В живом высоко организованным потенциалом является рефлекс, он потенциал, потому что не обнуляется-разряжается по любому поводу, а только при получении избранного сигнала (носитель с кодом). Разумом будет "надстройка" из низких ЭП, проявляющих способность дозированно экранировать-тормозить действия одних рефлексов, дабы другие сработали в согласованной между собой последовательности.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от декабря 05, 2022, 11:46:17
  Василий Андреевич.
   Поскольку мой готовящийся дальнейший материал в какой-то мере перекликается с вашими замечаниями, получилась пауза. Но пока продолжение, увы,  получается не очень "красивым", прокомментирую.
   Как всегда возникает проблема с пониманием. У вас очень краткое изложение для такого большого объема новых понятий и связей между ними, до конца понятных возможно вам одному.
 
   Есть сложность при взгляде на системы "сверху вниз". При этом теряется эволюционный эффект и возникает видимость "дирижерской палочки", создающей системы.
   Возможно тогда и появляется модель вывернутого наизнанку пудинга, о котором вы говорите.
   Я стараюсь придерживаться подхода последовательного наращивания потенциала систем через построение из более простых в более сложные на основе их организации и самоорганизации.
   Можно, конечно, и наоборот, и этот подход придется однозначно применить в отношении ИР, поскольку возникновение/создание ИР идет путем организации материи биологическим разумом в соответствии со своими, как вы сказали рефлексами. ))
   Тем не менее, правильно будет сделать этот разворот на 180 гр, лишь пройдя основную часть пути снизу-вверх. Иначе будет путаница "что во что вкраплено". 
   
      Не соглащусь с вами по поводу того, что "чем выше внутренний консолидирующий потенциал, тем выше должен быть деструктирующий потенциал "низко организованных" вкраплений".
      Наоборот, чем больше "деструктирующий потенциал" низко организованных слоев или подсистем, тем "выше внутренний консолидирующий потенциал" вышестоящих уровней, иначе система просто развалиться. Но, если рассматривать это как конечное состояние, то конечно все равно, что возникло первым "яйцо или курица".
      Понижение эволюционного потенциала нижнего уровня вышестоящим разбиралась в предыдущей теме и характерно в явном виде только при организации стемы. При самоорганизации теряется только часть потенциала, приносимого в жертву необходимым организационным процессам, зато оставшаяся часть потенциалов в образующийся системе не только "складывается", но и растет, присваивая себе некий бонус в виде переноса возникающего в процессе самоорганизации системы дополнительного потенциала.
      Кроме того, в сложных системах существуют несколько "ортогональных степеней свободы" и совокупному потенциалу подсистем совершенно не нужно "обнуляется-разряжается", поскольку организация, сопровождающаяся "погашением", может происходить по одному принципу (например, вынужденная территориальная замкнутость), а самоорганизация идти по другим "степеням свободы" с наращиванием совокупного потенциала системы.

     Получается, что фразу "носители низкого ЭП, являются залогом организации высокого, так как именно они не позволяют "носителям разумности" стать банальным Броуновским движением" мы понимаем практически противоположно.

     В отношении упомянутого рефлекса. 
     Я отношу подобные вещи к области Билогического Интеллекта, а Разум рассматриваю как надстройку над ним (БИ).
     Собственно эта граница и есть предмет исследований и обсуждений.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от декабря 06, 2022, 08:01:34
Цитата: Роман Корабельщиков от декабря 05, 2022, 11:46:17Как всегда возникает проблема с пониманием.
Да куды ж без нее. Мне трудно, потому что я не умею читать логарифмы без видения их графического воплощения. А что является осью "под" Вашими потенциалами, я и вовсе перестаю понимать.
  Потенциал - это работа затраченная на его разведение относительно нулевого уровня. Вам этот уровень без надобности. Так что постараюсь не мешать до тех выводов, к которым Вы придете. Пока обходитесь только статикой, вроде, все логично.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: MickTompson7 от декабря 06, 2022, 17:10:24
Самая большая проблема ИИ и бдущего интернете это бесконечная реклама котоая будет трансиловаратья прямо в мозг
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от декабря 30, 2022, 18:52:52
    Всех с Наступающим!!
    Чобы не скучали в новом году небольшое отступление.

    Искусственный разум с точки зрения энтропии.
    Потребление мозга оценивается в 20-25 Вт. Т.е. в секунду потребляется и рассеивается порядка 20 джоулей при температуре тела порядка 37 градусов С или 310 К. 
Теперь сделаем оценку минимальных затрат на обработку бита информации при температуре тела 37гр.  Если исходить из формулы Kb*T*ln2, где Kb коэффициент Больцмана, то она равна примерно 3*10-21 дж/с на 1 бит информации. Тогда мощность равная  20Вт теоретически позволяет обрабатывать 7*10в21 бит/с.
    Вернемся к мозгу.  Если принять в расчетах условное  количество нейронов 100 млрд, то в среднем на один нейрон со всеми его синапсами, спайками, глиальными клетками и т.д.  придется  2*10-10 дж. Поскольку отсутствуют данные теоретического предела обработки информации элементами имеющими реализацию в виде нейронов, поступим следующим образом. Оценим длительность одного «шага  обработки» нейронами информации в 0,01сек. Соответствующее значение затрачиваемой энергии одним нейроном на один «шаг обработки» равно  2*10-12 дж.  Тогда энергетический запас на переработку одного бита информации одним нейроном по сравнению с теоретическим пределом равен 1,5*10в9 на шаг.
    Интуиция говорит, что даже при низкой, по сравнению теоретической эффективностью преобразования энергии в информацию и рассеянии соответствующей энтропии, получаем возможность обработки больших объемов информации. Например, при эффективности  1/1500 от теоретического предела можно обработать одним нейроном до 1 Мбит/шаг.
    Хотя сравнение возможностей обработки информации мозгом  и современными компьютерами делалось уже не раз, мы его в какой-то степени  повторим для оценки ЭП компьютеров. Появившиеся нейроморфные  процессоры не будем рассматривать по причине недостаточной информации в отношении больших систем на их основе. Рассмотрим классическую компьютерную архитектуру. Современный на данный момент времени двухпроцессорный сервер со 128 логическими ядрами в процессоре компании AMD потребляет процессорами  мощность около 500 Вт.  Оценим производительность этих двух процессоров величиной в 2,5*10в12 операций/сек. Что достигается при возможности распараллеливания операций и предсказуемости команд ветвления.  Получим затраты 500/2,5*10в12= 2*10-10 Вт мощности на одну операцию. Т.е. если бы данный компьютер за одну операцию смог обрабатывать количество информации сопоставимое с нейроном, то умножив 2*10-10 Вт на количество нейронов 10в11, получили бы значение 20 Вт как у мозга. Но поскольку для реализации одного «шага» компьютеру понадобится несравненно больше операций, его соответствующие энергозатраты при таких удельных значениях будут пропорционально больше.
    Синтезируем некую упрощенную программную модель нейрона. Оценочно мы должны пошагово обработать у каждого нейрона синапсы в виде 10 тыс однословных параметров, каждый со своим весовым коэффициентом с учетом предыдущих состояний и состоянием самого нейрона. Не будем использовать такие сложные модели как антагонистические рецептивные поля. Объемом вычислений по обработке сложных состояний типа PSTH самого нейрона можно пренебречь на фоне обработки 10 тыс. параметров. Оценим размеры каждого из параметров и коэффициентов в 1 слово. Его размерность в байтах нам не принципиальна, поскольку универсальные процессоры оперируют стандартными словами достаточно большой длины.
    На каждый параметр получится извлечение по  адресу двух и более переменных, их сложения/перемножения и запись результатов в память, также мы должны добавить на каждую операцию еще сравнения адресов с границами и сравнения параметров с граничными значениями и команды ветвлений. Для обычного компьютера на это уйдет 20-30 и более шагов, поскольку распараллеливание здесь не эффективно из-за сильной последовательной связанности действий. Добавив временную обработку достаточно сложного поведения нейронов, количество выполняемых команд увеличиться еще больше. Допустим, удастся использовать локальное распараллеливание  операций и остановиться на 20 операциях на синапс.  Предположим, что удастся эффективно распараллелить обработку нейронов.
Тогда  на всю обработку 10 тыс. синапсов и 100 млрд нейронов за 10 мс потребуется 10в4*20*10в11 = 2*10в16 операций.  И в 1 сек нужно обрабатывать 2*10в18 операций.
    Это в миллион раз превышает возможности вышеупомянутого компьютера. Понадобится работать, примерно 11 дней вместо 1 сек. В этом заключении нет ничего нового.  Поэтому рассмотрим другой вариант:  суперкомпьютер  OLCF-5. Он  производит 10в18 операций/сек при заявленном распараллеливании до 10в6, потребляет 21 МВт, включает в себя 10 тыс процессоров компании AMD упомянутых ранее с 128 логическими ядрами на процессор и почти 40000 ускорителей.  На логическое ядро  с 4-мя ускорителями при распараллеливании приходится до 10в12 операций/сек.
    Пусть за счет распараллеливания обработке подвергаются сразу 10в6 нейронов и тогда потребуется 10000*20*100000 = 2*10в10 операций на шаг.  Или 2*10в12 операций/сек.  Получается, что вычислительная производительность этого суперкомпьютера  сопоставима с  возможностями БР. Т.е. вычислительные мощности суперкомпьютеров уже готовы к созданию ИР.  Более того, очевидно, что разработка и использование специализированных процессоров типа нейроморфных может понизить планку энергопотребления и размеров компьютера на 1 и со временем даже на 2 и 3 порядка. В прогнозе вычислительная система с аналогом БР  скоро может уместиться в передвижном комплексе, если удастся разработать и заложить в него нужные алгоритмы. Что очень важно для реализации ИР.  Пояснение следует дальше.
  Технически в прогнозах все выглядит достаточно оптимистично. Но если посмотреть на это с точки зрения сложности и ЭП, то это не так. Какая бы не была сложность реализации технического устройства, его реальная сложность определяется через его функциональную сложность. Например, для регулировки количества жидкости, протекающей через трубу, можно установить на трубу задвижку и  простейший аналоговый или даже механический регулятор. Но можно тоже самое реализовать и на базе компьютера с установленной на нем ОС РВ, графической мнемосхемой, САПР и т.д., а также кучей дополнительных датчиков и интернетом. Возникает вопрос: будет ли во втором случае система  иметь большую сложность, если функционально обе они выполняют свое предназначение в одинаковой степени? 
  Чтобы на него ответить, следует вернуться к началу определения Эволюционного потенциала и разграничить условно  непрерывно эволюционирующие биологические системы  в рамках эволюции которых и возникает потенциал тесно связанный с их сложностью, и технические системы, которые не эволюционируют независимо от эволюции человечества, сложность их реализации привноситься в них «извне» и не является эквивалентом функциональной сложности. Поэтому определять их ЭП через сложность их технической реализации нельзя даже при всей внешней  привлекательности этой идеи. Сложность и потенциальные возможности системы в этом случае уходят на второй план по сравнению с фактически реализованной функциональностью.  Поэтому здесь и далее мы должны опираться на сложность функциональности системы и возможность разбивки её на ортогональные по функциям подсистемы. Понятие ортогональности здесь можно рассматривать как эквивалент количеству степеней свободы характеризующей систему.
  Далее выделим эти подсистемы и, поскольку сложность отдельно взятой подсистемы ограничена, покажем, что для реализации ИР их должно быть достаточно много. Сделав оценку их минимально необходимого количества,  получим набор из основных подсистем, близкий к имеющимся у организмов,  обладающих БР.  Поэтому мобильный БР рассматривается как наиболее подходящий кандидат для ИР, так как достаточно тесно связан с окружающей средой. С другой стороны, технически возможно реализовать подвижность не в самом центре ИР, а в его подвижных частях типа управляемых роботизированных или аналогичных по назначению системах.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от февраля 13, 2023, 23:34:56
    4.4    Потенциалы подсистем ИР
    Проделаем рассуждения, аналогичные тем, что уже приводились ранее, но перед этим нужно обратить внимание на следующее.  Речь идет о том, что мы будем определять границу появления ИР не для отдельных, единичных случаев, а как момент, предшествующий устойчивому множественному проявлению этого феномена. Из этого следует следующее утверждение: чтобы феномен ИР  имел место, система с ИР должна уметь эволюционировать и ее эволюция  должна быть тесно связана с эволюцией окружающего мира.
    Поясню, почему так. Выявление факта  эволюции системы в сторону усложнения возможно лишь в среде имеющей сложность выше самой системы (если принять во внимание не только локальные, но и все факторы среды, включая наблюдателя). Также и проявление устойчивых признаков ИР возможно лишь в условиях среды, имеющей сложность выше, чем ИР системы. Устойчивое существование системы в такой среде возможно лишь тогда, когда эволюция системы тесно связана с эволюцией среды.  Системой максимальной сложности,  хорошо всем известной и доступной, является окружающая нас среда во всем ее многообразии. Поэтому можно предположить, и то, что  подсистемы слагающие ИР будут решать задачи похожие на решаемые биологическим разумом (БР). 
  Полагая, что для реализации  подсистем ИР могут быть привлечены различные виды связей, составим таблицу 3. Также в ней появляется  такое понятие, как «носитель ИР». В принципе это может быть что угодно, начиная от автономно существующих  роботов и кончая неким био-квантово-компьютерным комплексом произвольных размеров.  Значение ЭП носителя, вносимое в таблицу, взято по аналогии из биологических систем и соответствует носителю ИР, обладающему минимально возможной сложностью достаточной для длительного функционирования системы.
Обратим внимание на то, что эффективно увеличивать ЭП системы с целью ее роста (до величины достаточной для возникновения ИР), можно путем реализации взаимодействия  с элементами среды максимальной сложности (для рассматриваемой системы), т.е. с другими ИР или БР (люди). Поэтому соответствующие виды связи также включены в приводимую ниже таблицу.
Таблица 3.  Эволюционные потенциалы подсистем и связей составляющих ИР.
Базовый элемент (часть Эир)             Ээлем макс.    Тип связи (или пояснения)    Эсвязи макс.   Эs
Подсистемы
Подсистема получения, обработки и сжатия информации одного вида до уровня символов.    0,05        Эs1
Количество независимых видов информации обрабатываемых                      0,01  За каждый вид    Эs2
внутри одной подсистемы до уровня символов.   
Воспроизводство и перестройка    подсистемой в пространстве-времени        0,05  Свойство подсистемы  Эs3
своих структур в зависимости от потребностей.   
Изменение  подсистемой в пространстве-времени своей структуры            0,01    Свойство подсистемы  Эs4
в зависимости от алгоритмов, информации и состояния. 
  
Информационные составляющие систем
Обработка и сжатие информации разных видов в символы и маркеры            0,05    Свойство подсистемы. Эs5
следующего иерархического уровня.   
Воспроизводство и генерация символов и состояний (информации)             0,05    Свойство подсистемы.  Эs6
на своем символьном пространственно-временном  уровне.
   
Межсистемный
Межсистемные связи                     Межсистемные связи простого типа.                   0,01    Эs7
Межсистемные кодированные связи        Межсистемные связи через кодированные               0,05    Эs8
                                      носители связей (маркеры) определяются сложностью маркеров.   
Взаимодействие с другими ИР и БР            Все виды связей с другими ИР и БР              0,05    Эs9

Пространственно-временные и структурные составляющие системы
Подсистема формирования и изменения в пространстве-времени своей формы,    0,01   
структуры и связей с окружающей средой.   
                                  Связи и взаимодействие системы с элементами окружающей среды,  0,01  Эs10
                                  со сложностью менее ИР (БР).   
Воспроизводство системой в пространстве-времени всей своей структуры и подсистем.    0,05    Эs11

Система как часть носителя ИР
Подсистема реализация базовых потребностей (материальное и энергопитание,      0, 1   
восстановление, защита, ..) носителя ИР.   
                                                       Включая связи подсистем ИР с носителем ИР.      Энос

    Перечисленные в таблице подсистемы и функции даны в достаточно общем виде, не привязанном к конкретной реализации ИР.
    Упомянутая «подсистема получения, обработки и сжатия информации одного вида до уровня символов» подразумевает сжатие информации до выделения и формирования в ней абстрактных объектов (символов, маркеров), пригодных  для передачи через связи как другим подсистемам, так и подсистемам вышестоящего иерархического (в плане обработки информации) уровня.
    Подсистемы, реализующие функции  «обработки и сжатия информации разных видов с переводом ее в символы следующего иерархического уровня», выделены отдельно. Они образуют отдельные уровни и подуровни. Относительно этих подсистем подразумевается абстрагирование на вышестоящий уровень через создание объектов смешанного типа.
    В таблице приведены максимальные значения для величины эволюционных потенциалов. В каждом конкретном применении мы должны опираться в определении этой величины на  «функциональную» сложность рассматриваемой системы.  Под функциональной сложностью будем понимать степень сложность системы с точки зрения реализуемых ею функций по сравнению с аналогичной наиболее функционально сложной известной системой.
    Уменьшим неопределённость в разграничении признаков  ИИ и ИР, возникающей из отсутствия их определений, непротиворечивых между собой и удобных для текущего применения.
    Определим основной особенностью интеллекта умение создавать и использовать в своих целях модели окружающего мира в виде символов на основе сенсорной и другого вида поступающей информации. Символы объектов и процессов, образованные в результате восприятия (обработки) информации от сенсорной системы одного вида, определим как первый уровень абстракции. Символы, сформированные из символов первого уровня абстракции одной или нескольких сенсорных систем, образуют второй уровень абстракции. Третий уровень – это абстракция из собранных воедино образов второго уровня в совокупности с элементами типа связей и взаимодействия между ними, образующих образ «мира и меня». Это верхняя граница интеллекта.
    В качестве условной разницы между разными системами можно рассмотреть их степень интеллектуальности, которая может быть разной для разных видов информации обрабатываемых интеллектом.
Разум превосходит интеллект тем, что может строить абстракции более высокого (четвертого, пятого и выше) уровней.
     Также можно говорить о разной степени разумности.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от февраля 14, 2023, 09:54:34
Каюсь, но до этого так и не понял как вставлять картинки..
Добавляю выше упомянутую таблицу в нормальном виде.

Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: АrefievPV от февраля 14, 2023, 14:35:29
На мой взгляд, у вас по-прежнему наблюдается путаница в понятиях интеллект и разум.

Возможно, прежде чем переходить к формулам и числам, следует разобраться с этими понятиями?

Вот здесь (дабы не засорять вашу тему) я комментировал ваши сообщения:
https://paleoforum.ru/index.php/topic,8969.msg262888.html#msg262888
https://paleoforum.ru/index.php/topic,8969.msg265236.html#msg265236
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от февраля 14, 2023, 20:28:29
 АrefievPV
 Не обещаю что быстро, но посмотрю дискуссии и отвечу по вашим ссылкам.
 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от февраля 14, 2023, 20:37:47
    Сделаем расчет ЭП разумного робота.
  Пусть у нас имеется некая гипотетическая система типа автономного робота с ИР минимальной для ИР конфигурации ( минимально необходимой с нашей точки зрения).
На уровне носителя ИР она включает в себя подсистемы: управления и распределения автономного энергопитания, управления передвижением и положения робота и его частей в пространстве, самодиагностики,  управления резервными системами и защиты, управления манипуляторами и исполнительными механизмами. Сюда же отнесем подсистемы связи и доступ к информационным сетям. 
    Выделим четыре основные уровня сложности системы.  Примем максимальные значения ЭП равными 0,05 как соотносящиеся с четвертым уровнем. 0,04 с третьим, 0,03 со вторым, 0,02 с первым соответственно. ЭП связей возьмем уровнем меньше.
Схематически структура системы приведена на рисунке 1.
Структура подсистем Рис1.jpg

    Описание первого уровня.
Первый уровень включает в себя подсистемы:  координации нахождения и передвижения в пространстве, координации взаимного положения робота и его частей в пространстве, технического зрения в нескольких диапазонах, технического слуха, подсистему выполнения поставленных задач сложными интеллектуальными манипуляторами и исполнительными механизмами. Имеет множество подуровней.
Не все, но большая часть и все верхние подуровни первого уровня характеризуются умением производить изменения  в пространстве и времени структуры в зависимости от алгоритмов, информации и состояния.  Поэтому соотнесем данное умение с первым уровнем не полностью, а лишь наполовину.  Также для таких подсистем характерны связи как простого типа, так и через маркеры с величиной Эп маркеров теоретически доходящих до 0,02, хотя основная масса связей, образующих первый уровень, относятся в основном к межсистемным связям простого типа с Эп до 0,01.
   Описание второго уровня.
Подсистемы второго уровня включают в себя: подсистему объединения  информации от подсистемы 1 уровня, подсистему выработки и принятия оперативных решений и их исполнения, подсистему обработки информации из каналов связи до символьного уровня.
   Описание третьего уровня.
Подсистемы третьего уровня включают в себя: подсистему выработки тактики и стратегии на базе имеющейся информации и установок, приходящих с четвертого уровня, подсистему действия в условиях неопределенности  и выработки нечетких решений.
   Описание четвертого уровня.
Подсистемы четвертого уровня включают в себя: подсистему выработки долговременной стратегии, подсистему поиска новых межсимвольных взаимосвязей, абстрактное мышление  и свободный поиск, подсистема коммуникаций и взаимодействия с другими ИР и БР.
   Для второго и третьего уровня определим наличие умения воспроизводить и генерировать символы и состояния (информацию) на своем символьном пространственно-временном  уровне. Также важно и то, что соединены эти уровни между собой связями через маркеры (символы).
   Полагаем, что наш робот имеет минимально допустимую сложность и ему недоступно (пока) воспроизводство в пространстве и времени своей структуры и подсистем. Говоря биологическим языком, он не умеет самостоятельно воспроизводить по частям сам себя. Также ему недоступно формирование и изменение в пространстве-времени своей формы, структуры и связей с окружающей средой. Биологические аналоги этому: отсутствие способности к размножению и он не имеет возможности перестраивать сам себя в зависимости от своих задач и потребностей.
    Отметим, что мы не принимаем во внимание остальные разнообразные возможные особенности этого робота, характеризующие его конкретную реализацию и увеличивающие при том его сложность. Такие, как дублирование систем и функций, системы защиты и восстановления, межуровневые связи общесистемной координации,  системы жизнеобеспечения, удаленные и внешние подсистемы...

   Приступим.  Имеется носитель ИР.  ЭП носителя = 0,1.
   На первом уровне находится подсистема пространственной обработки информации (основная первого уровня). Она может состоять из нескольких нижележащих подсистем (зрения, слуха, локационной и т.д.).  Поскольку каждая из них обрабатывает информацию различного типа, но относящуюся к одному виду, мы  можем утверждать о неполной ортогональности нижних подсистем и неполном сжатии ими информации, в дальнейшем объединяемой и сжимаемой основной подсистемой.  Примем во внимание саму подсистему и её конечный результат для следующих уровней как целое.
Для себя на будущее отметим, что на этом роли основной подсистемы первого уровня не заканчивается. Например, она формирует некую условную пространственную модель с расположением и характеристиками пространственных символов. Но пока непонятно как это следует учесть в ЭП. 
   Примем ЭП основной подсистемы  первого уровня равным  Эs1=0,02. Также для нее  характерна функция «изменения  в пространстве-времени своих структур в зависимости от символов» с Эs3=0,02*0,5=0,01. 
Количество её независимых подсистем ввода информации, объединяемых в образы (абстрактные символы) примем равным трем (вернее ограничимся тремя). Умножив на Эs2, получим 0,03.   Получим ЭП системы без учета связей равным  0,06.
   Также у нее имеются связи: с вышестоящим уровнем и  с подсистемами пространственной ориентации и подсистемой управления манипуляторами и исполнительными механизмами с Эs2 = (1+log3)*0,01=0,015.
Результирующая ЭП пространственной подсистемы = 0,06+0,015 = 0,075. 
   Подсистема пространственной ориентации корпуса и его частей в виде их образов со сложностью Эs1=0,02.  Её связь с пространственной подсистемой мы уже учли в предыдущей подсистеме.  Осталось рассмотреть еще две связи, уходящие на верхний уровень Эs8 = (1+log2)*0,01 =0,013. 
    Результирующая ЭП пространственной ориентации = 0,033.
   Подсистема управления манипуляторами и исполнительными механизмами в виде их образов. У нее предполагаем также высокую степень сложности Эs1=0,02.  Имеет две связи, уходящие на верхний уровень Эs8=0,01  с результирующей ЭП равной 0,013. 
   ЭП подсистемы манипуляторов = 0,033.
   Первый уровень охарактеризуем как имеющий Эп = 0,075+0,033+0,033 = 0,141.
   Второй уровень образован из трех подсистем.
   Подсистеме объединения кодированной информации различного вида присвоим Эs6=0,03. Имеет связь  второго уровня  и одну связь  верхнего уровня  Эs8=0,02.  Получаем  (1+log2)* 0,02 = 0,026. Связи первого уровня уже учтены. Для нее  характерна функция «изменения  в пространстве-времени своей структуры в зависимости от алгоритмов, информации и состояния» с Эs3=0,03.  Получаем для подсистемы объединения ЭП = 0,03+0,026+0,03 = 0,086.
    Подсистема обработки информации из каналов связи до уровня кодов и символов и обмена символьной информацией имеет Эs6  =0,03.  Имеется символьная связь с верхним уровнем и связь второго уровня Эs8 =0,02, образующие ЭП= 0,026.  Получаем для подсистемы связи ЭП = 0,056.
Подсистеме выработки и принятия оперативных решений и их исполнения присвоим Эs1=0,03. У нее три связи третьего уровня, две связи  второго уровня (уже учли)  и две связи первого уровня, которые не учитываем (вошли в расчет ранее на первом уровне). Связи  верхнего уровня  Эs8=0,02. Для них получим значение (1+log3)* 0,02=0,03.
Для этой подсистемы присутствует умение «воспроизводить и генерировать символы и состояния (информацию)» с Эs6=0,02.  Функция «изменения  в пространстве-времени своей структуры в зависимости от алгоритмов, информации и состояния»  определим через Эs3=0,02. 
    Подсистема оперативных решений имеет ЭП = 0,03+0,03+0,02+0,02 = 0,1.

Замечание. В текущих расчетах  продолжает действовать ранее введенное правило, в котором учет наличия двух и более однородных связей при расчете ЭП системы производится через логарифм от их числа. Для связей, которые оперируют условно ортогональными (независимыми друг от друга) видами информации (знаками и символами) это правило не действует, так как такая система собирается из неоднородных элементов.
В первом приближении  для расчетов ЭП системы с такого рода связями будем исходить из «функциональную» сложность рассматриваемой системы, усредняющей их сложность исходя из своего уровня.

   Второй уровень охарактеризуем как имеющий Эп = 0,086+0,056+0,1 = 0,242.
   Подсистема третьего уровня абстракции связана как с подсистемой второго уровня, так и фрагментарно с подсистемами первого уровня (последние связи игнорируем из-за их однородности и  малой величины). Количество подсистем определим равным трем.
    Подсистеме объединения кодированной информации различного вида присвоим Эs6=0,04. Функция «изменения  в пространстве-времени своей структуры в зависимости от алгоритмов, информации и состояния» для нее реализована с   Эs3=0,04.  Их сумма  равна 0,08.
   Это наиболее нагруженная связями подсистема. По горизонтали и вверх их количество составляет 6 (и более), вниз были уже рассмотрены.  Примем значение величины  Эs8=0,03. ЭП связей составит  (1+log6)* 0,03=0,053. Не забываем, что рост ЭП системы за счет связей (0,053) не может превышать ЭП самой системы (0,08).
   Для данной подсистемы  ЭП составит 0,08+0,053 = 0,133
   Подсистема выработки тактики и стратегии на базе имеющейся информации и установок, приходящих с четвертого уровня имеет Эs1=0,04. Функция «изменения  в пространстве-времени своей структуры в зависимости от алгоритмов, информации и состояния» для нее реализована с   Эs3=0,04.  Умение «воспроизводить и генерировать символы и состояния (информацию)» оценим равной Эs6=0,04. Их сумма  равна 0,12.
Количество не учтенных связей равно одной с Эs8=0,03.
   Для данной подсистемы  ЭП составит 0,12+0,03 = 0,15.
   Подсистема действия в условиях неопределенности  и выработки нечетких решений имеет Эs1=0,04. Функция «изменения  в пространстве-времени своей структуры в зависимости от алгоритмов, информации и состояния» для нее реализована с   Эs3=0,04.  Умение «воспроизводить и генерировать символы и состояния (информацию)» оценим равной Эs6=0,04. Их сумма  равна 0,12.
   Количество не учтенных связей равно одной с Эs8=0,03.
   Для данной подсистемы  ЭП составит 0,12+0,03 = 0,15.
   Подсистема третьего уровня имеет ЭП = 0,133+0,15+0,15 = 0,433.
   Подсистема четвертого уровня абстракции состоит из четырех подсистем. Количество подсистем взято с «запасом» для лучшей ясности какие из подсистем этого уровня в нашем примере можно сократить или реализовать в неполную меру.
   Подсистема выработки долговременной стратегии имеет Эs1=0,05. Функция «изменения  в пространстве-времени своей структуры в зависимости от алгоритмов, информации и состояния» для нее реализована с   Эs3=0,05.  Умение «воспроизводить и генерировать символы и состояния (информацию)» оценим равной Эs6=0,05. Их сумма  равна 0,15. Это одна из наиболее важных подсистем, она имеет самое большое количество связей: три вниз (уже учтены) и две четвертого уровня с Эs8=0,04. ЭП связей составит (1+log2)* 0,04=0,052.
   Для данной подсистемы  ЭП составит 0,15+0,052 = 0,202.
   Подсистема поиска новых межсимвольных взаимосвязей имеет Эs1=0,05. Функция «изменения  в пространстве-времени своей структуры в зависимости от алгоритмов, информации и состояния» для нее реализована с Эs3=0,05.  Умение «воспроизводить и генерировать символы и состояния (информацию)» оценим равной Эs6=0,05. Их сумма  равна 0,15. Имеет по связи вниз (учтена) и на четвертом уровне с Эs8=0,04.
Для данной подсистемы  ЭП составит 0,15+0,04 = 0,19.
   Подсистема абстрактного мышления  и свободного поиска имеет Эs1=0,05. Функция «изменения  в пространстве-времени своей структуры в зависимости от алгоритмов, информации и состояния» для нее реализована с Эs3=0,05.  Умение «воспроизводить и генерировать символы и состояния (информацию)» оценим равной Эs6=0,05. Их сумма  равна 0,15. Имеет по связи вниз (учтены)  и три на четвертом уровне. Из них не учтена одна с Эs8=0,04.
   Для данной подсистемы  ЭП составит 0,15+0,04 = 0,19.
   Подсистема коммуникаций и взаимодействия с другими ИР и БР имеет Эs9=0,05. Функция «изменения  в пространстве-времени своей структуры в зависимости от алгоритмов, информации и состояния» для нее реализована с   Эs3=0,05.  Умение «воспроизводить и генерировать символы и состояния (информацию)» оценим равной Эs6=0,05. Их сумма  равна 0,15. Имеет по связи вниз и две на четвертый уровень.  Все связи были учтены ранее.
   Для данной подсистемы  ЭП составит 0,15.
   Подсистема четвертого уровня имеет ЭП = 0,202+0,19+0,19 +0,15 = 0,732.

   В результате получаем:     0,1+0,141+0,242+0,433+0,732 = 1,648.

  Это достаточно большая величина. Большую часть в ее ЭП внесли подсистемы  4 го уровня. Чего и следовало ожидать.
  Если оставить на 4-м уровне наполовину реализованные подсистемы выработки долговременной стратегии и коммуникаций с ИР и БР, а также частично (скажем 1/5) оставшиеся две подсистемы, то ЭП четвертого уровня упадет до значения 0,101+0,095+0,038+0,03 = 0,264. Убрав ЭП носителя (как и для биологического разума), получим значение ЭП интеллектуальной части робота равным:  0,141+0,242+0,433+0,264 = 1,08.
   Это как раз та величина, начиная с которой возможно появление у робота признаков ИР.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от марта 16, 2023, 12:58:29
   5.   Разное.
   Степень интеллектуальности коррелирует, но не связана однозначно со степенью разумности.
Пример 1.
   Возьмем ворону, умеющую «считать». Не знаю как у других, но у меня на первый взгляд возникает ощущение того, что ворона вероятно разумна.
   Определим уровень абстракции.  Для человека умение оперировать с числами принадлежит к области математики и соотносится с четвертым уровнем абстракции.  Так ли обстоит дело для вороны?
Сделаем небольшой шаг в сторону и вспомним, что компьютер без проблем может решать математические задачи и применять их в прикладном плане.  При том мы не сомневаемся в отсутствии у него разумности. Хотя это не совсем так. Компьютер создан человеком как инструмент и правильно рассматривать нужно систему «человек-компьютер». Это пример когда для умения «считать»  разумность не является определяющим фактором.
   Что касается вороны, возможны два варианта и их комбинация.
   В первом варианте зрительный образ числа для вороны преобразуется в символ второго уровня абстракции и включаются  в модель мира на третьем уровне. Ворона может сопоставлять (сравнивать) символы разного вида (типа) и делать на основе их отсутствия/наличия  определенные выводы (прогнозы).  Но ворона не привлекает систематически числа как абстрактные символы для проектирования своего будущего.
   Второй вариант предполагает наличие у вороны зачатков отдельных элементов 4-го уровня абстракции. Что формирует у нее начальную стадию разумности. В пользу этого варианта говорит то, что в процессе эволюции мозга хорошо просматривается,  как появляющиеся различные решения становятся частью более сложного вплоть до человеческого.  Помимо механизмов, лежащих в основе пластичности мозга,  должны  были возникнуть и закрепиться на генном уровне и  другие механизмы, поддерживающие возможности для большой изменчивости в организации мозга, по сравнению с другими изменениями организма. Что позволяет сделать реализацию решения задач управления организмом и взаимодействия с внешней средой быстрее, чем меняется сам организм.
    Второй вариант имеет серьезную  неопределённость, возникающую из-за необходимости производить оценку сложности элементов и связей 4-го уровня и оценки степени  разумности. Что требует дальнейшего развития методов, включая предложенную модель.
    В дальнейшем будет полезно оценить величины ЭП , соответствующие первому и второму варианту.
Продолжим. Следует обратить внимание, что описанное умение не появилось  само по себе, а возникло как результат взаимодействия вороны с людьми - более разумными существами. Т.е. происходило обучение вороны под влиянием несвойственных для неё условий.  В результате такого взаимодействия образуется система «ворона-человек» со своей спецификой, направленной на решение задач допустимой для вороны сложности.   Контекст (внешняя специфика) и интерпретация процессов решения задач при этом определяются людьми экспериментаторами. При этом ЭП вороны увеличивается через такие  взаимодействия и в процессе научения ворона может решать достаточно сложные на наш взгляд задачи и совершать несвойственные животным действия.  Помимо пластичности мозга, эти результаты говорят о наличии у вороны некоторого свободного запаса ЭП, образующегося при существовании вороны  в условиях, когда уменьшается количество задач на выживание и поддержку потомства.
   Результаты таких экспериментов выявляют не степень разумности как таковую,  а потенциальную разумность, что не одно  и то же. Чтобы избежать систематических ошибок в определении степени разумности, его нужно исследовать в условиях минимального влияния экспериментаторов.
Пример 2.
   Интересно сделать оценку потенциальных интеллектуальных способности той же вороны, когда она смогла догадаться использовать шарик для выталкивания из кормушки еду, хотя на первый  взгляд (с точки зрения человеческого интеллекта) это более простое действие по сравнению с операциями над числами.
   Человек в данной ситуации мог бы действовать примерно так: поскольку кормушка прозрачна, на основе зрения строится символ-образ кормушки (1 уровень), соединяется с имеющимся опытом возможных вариантов поведения элементов кормушки  (2 уровень) и опытом сознательного использования предметов для воздействия на окружающий мир (3 уровень), принимается решение и совершаются выбранные действия. Более сложные действия 4го уровня такие, как  построение символьной модели взаимодействия кормушки и предмета и само моделирование, в данном случае не является обязательным.
    Ворона ситуацию с кормушкой и предметами может переводить в символы второго уровня, на котором она умеет оперировать, и далее через возможные доступные её интеллекту комбинации достигать результатов путем проб и ошибок.
   Здесь также следует обратить внимание на присутствующую у нее способность обучаться через действия, совершаемые по аналогии с другими наблюдаемыми существами. Неизвестно в какой мере эта способность была перед этим сформирована. Следует сказать, что  в процессе обучения  могут начать формироваться связи и с более высоким (3-им) уровнем, на что было обращено внимание еще в первом примере.
Пример 3.
   Очень романтично выглядят гиббоны, поющие на рассвете на дереве свои песни. Петь при этом они могут и дуэтом.
   Большинство источников заявляет, что их песня нужна только для простейшего информирования  других гиббонов. Однако, как заявляют некоторые исследователи, сложность этих песен приближается к сложности песни человека, т.е. кроме чисто прикладной информационной  составляющей (территориальная защита, ухаживания, оценка иерархии) она имеет признаки более высоких уровней абстракции (ритмичность, социальные связи, разделение эмоций), относящихся к начальному уровню разума и проявлению личности  самого ревуна.
Если это действительно так,  то наиболее подходящим объяснением  является  второй вариант из первого примера.
     Проистекают ли необычные для животных свойства песни из зачатков творчества, рождающего абстракции разного уровня, или вокально-сигнальная система сама по себе сформирована так, что склонна к связям с более высоких абстракцией?   Пока непонятно.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от мая 06, 2023, 00:14:06
  Рассуждения в поисках ответа на вопрос о том: является ли уничтожение существами друг друга в процессе эволюции единственным способом её протекания, или это  только один из возможных путей, характерный для жизни на Земле, применительно к технической эволюции ушли в несколько неожиданном (для меня) направлении.
  Рассмотрим формообразующие факторы эволюции.
  Нас интересует эволюция жизни, зародившейся на Земле. На данный момент времени мы не знаем других примеров эволюции, в процессе которых возник бы разум отличный от человеческого. Также можно сказать, что благодаря постоянному притоку солнечного излучения и его взаимодействия с Землей, а также её специфики, образовалась локальная зона неустойчивости (бифуркаций), характеризуемая локальным ростом сложности в форме биологической жизни.
    Земная эволюция процесс, она существует во времени и при этом происходит в ограниченном пространстве.  Соответственно будут накапливаться образующиеся элементы.  В условиях ограниченности ресурсов возникает необходимость  их высвобождения из уже существующих элементов для новых более развитых систем. Биологическая эволюция решила эту проблему путем разрушения устаревающих элементов и их дальнейшую разнообразную многоплановую утилизацию.
  Такое рассуждение верно лишь отчасти. В процессе земной эволюции происходит не полное отторжение устаревших форм, а лишь частичное. Каждая новая форма в той или иной мере опирается на ранее существующие. Т.е. можно сказать, что происходит усложнение не столько формы жизни, сколько усложняется вся совокупность всех форм, устаревшие при этом в большей или меньшей степени подвержены дальнейшим изменениям.
  Логично будет предположить, что при появлении ИР, являющимся логическим продолжением  биологической эволюции, вышеописанные процессы могут повториться.    Однако область конфликтности здесь связана с эволюцией  человечества и степень будущей конфликтности сильно зависит от него самого. Вопрос разделения энергетических и товарных ресурсов конечно будет существовать, но может быть значительно смягчён путем развития новых технологий и благодаря потенциальной заинтересованности при участии в этом представителей ИР.
  Один из вариантов придать конфликтности конструктивное направление  заключается в переводе её из ограниченного пространства Земли в космос и на другие планеты.  Потенциально технические системы обладают достаточной стойкостью и автономией, чтобы освоить и «заселить» космос так, что в нем останется достаточно места и для земных форм жизни.
  Какими могут быть особенности эволюции технических систем? 
  Техническая эволюция предполагает, что развитие систем будет совершается человеком до стадии, пока «создаваемое не превзойдет создателя». Далее в этот процесс начнут включаться сами технические системы. Сначала ИИ (это уже происходит), затем ИР. Поскольку биологическая эволюции создавала разумное существо буквально «с нуля», то техническая, опираясь на опыт биологической, имеет больше возможностей для выработки и реализации различных эволюционных стратегий. 
    Выделим этап (первый), на котором произойдет создание/возникновение ИР со свойствами, достаточными, чтобы удовлетворить некому критерию, говорящему о том, что появившийся ИР можно считать полноправным участником дальнейшей синтетической (биологическая совместно с технической) эволюции. Критерием этим может стать тестирование  на выявление степени «разумности» носителя с ИР.  Данные тесты должны не только уметь выявлять уровень абстрактности мышления и творческие возможности искусственного разума, но и формироваться заново при каждом тестировании, чтобы исключить возможность их прохождения заранее подготовленным и расширенным в нужные области ИИ. Т.е. необходимо решить задачу создания таких «динамических» тестов. В какой-то степени это возможно сделать, опираясь на имеющийся опыт самого человечества.
  Тиражирование удачных вариантов ИИ и ИР первого (нынешнего) этапа скорее всего будет происходить чрез считывание «памяти»  наиболее удачных экземпляров ИИ и ИР и переноса её на новые «носители», производимые усилиями людей по мере людской необходимости. Носители, способности которых будут признаваться неудачными, перепрограммируются копиями с более удачных носителей ИР.  Конечно, речь идет о таких носителях, которые имеют техническую возможность для перепрограммирования. 
  С появлением ИР удовлетворяющим тесты на разумность, начнется следующий (второй) этап. На  втором этапе ИР должны будут проектироваться и создаваться так, чтобы у них был «модуль индивидуальности», который позволял бы производить его перестановку на новый в случае поломок или более развитый «носитель». Также он должен поддерживать считывание  для клонирования без возможности какого-либо способа «программирования». Тем самым можно будет закрепить право ИР на индивидуальность и добиться снижение конфликтности взаимоотношений «Человек-ИР» до приемлемого уровня. Ситуация с тестированием ИР в дальнейшем может напоминать человеческую,  когда для людей не применяется принцип «степени разумности». Подразумевается, что генетически мы все потенциально разумны и имеем для развития разумности достаточные возможности. Сейчас  только при необходимости диагностируется разумность человека и при наличии показаний исследуются обнаруженные отклонения для целей возможного лечения и коррекции социальных взаимоотношений с таким человеком. 
    Модуль индивидуальности несомненно должен обладать и другими (целым рядом) особенностями, которые появятся в нем по мере развития технологий. Но один из них должен присутствовать с самого начала. Это пластичность (аналогичная биологическому мозгу), дающая возможности дальнейшего обучения, развития разумности, расширения когнитивных и интеллектуальных возможностей через подключение других модулей.  Тем не менее, при любых раскладах принцип сохранения индивидуальности должен сохраняться  незыблимым.
    На втором этапе  тестированию будут подвергаться принципиально новые системы с ИР, а тиражированные тестироваться только на степень отклонений от нормы, причем дальнейшие решения по отклонениям должны приниматься  специально созданной для этого организацией. В которой в равной степени должно быть представлено как человечество, так и ИР.
    В критерии тестирования ИР следует включить оценку её «степени человечности». Не столь очевидная как «степень разумности», она жизненно необходима в условиях сосуществования людей и роботов. Логично, что развитие и распространение роботов должно учитывать специфику окружающей среды, которая исходно является биологической и человеческой. Однако вводя такое требование и переходя из философской плоскости в прикладную, от самого человечества требуется не столько сформулировать для себя критерии человечности во всех их многообразиях и тонкостях, сколько ускорить их фактическое встраивание в саму «ткань бытия» человеческого сообщества.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 20, 2023, 22:28:26
    Дальнейшее развитие темы искусственного разума выявило много точек соприкосновения с биологической эволюцией.  Получилось продолжение темы. Хотя до полноты картины еще далеко, отдельные моменты проявились в достаточной степени.
    Предисловие.
    Один из отцов универсального ИИ, бывший руководитель GOOGL Эрик Шмидт, рассказывая про достижения в области ИИ заявил, что с его точки зрения ИИ не понадобится достигать сложности мозга чтобы добиться такой же эффективности (в области разума). Объяснил он это тем, что создатели ИИ идут путем создания все более эффективных алгоритмов и методик обработки информации и это в конечном счете позволит получить аналогичные с мозгом результаты при меньшем количестве связей и элементов. 
    Насколько истинно это утверждение? А если нет, то что помешает реализации такого подхода?
    Далее. Возьмем книгу «эффект Люцифера» автор Филип Зимбардо. В ней даны примеры того, как относительно неплохие люди становятся «исчадиями ада» под влиянием окружающих обстоятельств. Прочитав ее, тем не менее остаешься не удовлетворенным ответами на вопрос: почему люди склонны к таким метаморфозам?
    Или другая книга: «Предсказуемая иррациональность» автор Дэн Ариели. Посвящена теме человеческой иррациональности и о том, как обратить чужую иррациональность себе во благо,  но плохо раскрывает причины её вызывающие.
    В процессе поиска ответов на эти и другие вопросы начинает просматриваться  существование неких подспудных связей между всем вышеупомянутым.
    Вернемся к самому первому вопросу. Процесс эволюции жизни на Земле («создавший» Разум) все более усложняясь,  не остановился на человеческом мозге. Свое продолжение он нашел  в создании человечеством все более и более эффективных алгоритмов, особенно в специализированных областях. И  этот процесс происходит непрерывно.  При этом сами процессы, протекающие в мозге, становятся все более познаваемы. Пусть и совсем не просто, но сегодня они уже поддаются анализу и моделированию.
Что же мешало эволюции сделать текущие интеллектуальные и когнитивные способности  людей (человеческого мозга) еще более эффективными? 
    Есть ряд причин, которые стоит принять во внимание. Одной из них является влияние неопределенности, возникающей из-за недостатка информации, не полных или ошибочных моделей, описывающих окружающий мир, и цены ошибки принятия решений.
    Для варианта ИИ в том виде, который реализуется сейчас, цена ошибки не такая высокая как для живых организмов, но и не нулевая. В роли «естественного отбора» выступает сам создатель - человек. Соответственно можно сказать, что биологический разум до какого-то момента будет являться единственным эволюционным фактором и процессом формирования ИР.
    Специфика эволюции ИИ характеризуется ослабленной ценой ошибки,  что не одно и то же с эволюционным отбором. В результате развитие ИИ происходит в основном в направлении повышения точности. Возможно поэтому возникает иллюзия, когда точность распознавания или комбинирования известных элементов подменяет собой совокупную эффективность модели мира и её составляющих.
    Какой бы ни была система, в любом случае она имеет на входе данные с той или иной долей неопределённости с одной стороны и ограничения на обработку поступающих данных для извлечения информации с другой стороны. Чем ниже важность информации, тем меньшую точность или, говоря по другому, большую неопределенность она может иметь. Логично предположить, что в процессе развития  биологические интеллектуальные системы распределяют свои нейронные ресурсы в зависимости (условно пропорционально) от объема поступающей информации (как производная от объёма и точности поступающих данных) и её важности.
    Неопределённость присутствует всегда и на всех уровнях в информационных, интеллектуальных и разумных систем. В чем же тогда может быть разница между ними?
    В биологических системах ошибка зрительного восприятия (например для животного) может оказаться фатальной. Это одна из причин по которой на её обработку выделены такие значительные ресурсы, а вот на слуховую значительно меньше. Причем по двум причинам: меньше  важность и больше неопределенность (направление, дальность) в данных, приходящих от системы слуха. Для ИИ и при существующих сегодня подходах  для ИР «цена» фатальной ошибки сведётся к перепрограммированию лишь в результате субъективного  решения людей. При том, в самом ИИ (ИР) не происходит накопление вариативности (избыточности) такой сложности, которой достаточно для полноценного взаимодействия с окружающим миром. «Сами в себе» информационные системы имеют малое количество степеней свободы для формирования такой полноценности.  Конечно, ничего не мешает человечеству в будущем создать самопознающую и самосовершенствующуюся систему с большим числом степеней свободы, но она будет очень сильно отличаться от существующих и проектируемых в ближайшем будущем.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 20, 2023, 23:07:46
На мой взгляд, эти выкладки не учитывают принципиальные проблемы современного ИИ, способ реализации которого пока не имеет перспективы воспроизвести феномены субъектности, восприятия, понимания.

Пока мир как целое, состоящее из взаимодействующих объектов, наличествует только в сознании разработчиков ИИ. А его собственный внутренний мир - последовательности элементарных операций с элементарными данными.
Проблема цифровой невычислимости сознания не надумана, а вполне реальна.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от ноября 21, 2023, 19:05:26
Цитата: Роман Корабельщиков от ноября 20, 2023, 22:28:26Конечно, ничего не мешает человечеству в будущем создать самопознающую и самосовершенствующуюся систему с большим числом степеней свободы, но она будет очень сильно отличаться от существующих и проектируемых в ближайшем будущем.
Полностью согласен. Думаю, что главное, функциональное отличие будет в том, что эта система будет работать быстрее человеческого мозга (в соответствующих сферах). Т.е. будет применяться в тех областях, где человеческий мозг будет уступать по скорости в силу биологических ограничений.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 21, 2023, 21:28:39
  Игорь Антонов.
  Если мы говорим о воспроизводимости феноменов субъектности, восприятия, понимания в контектсе человеческого, то это и не нужно.  Пусть они остаются с человеческой спецификой. Но если речь идет о ИИ, то у них свой путь и своя специфика выше названного. Говорить же об этих категорях как существующих отдельно, мы не можем, так как вы сами сказали что нет нужного всеобъемлющего "контекста". Но если он все таки есть или будет, то тогда, как следствие, ИИ будут сопуствовать данные феномены в какой-то степени похожим образом.
  Вообще человеческий контест интеллекта невероятно богат различными человеческими особенностями, такими как связь с  гармональными механизмами, внутренней средой, сильной связью в целом от химии, влиянием различных автономных систем и внутренних биоритмов. Все это (или не все) складывается в причудливую мозаику человеческого разума. Вобщем тема окрытая и с моей точки зрения решать ее всю целиком специально для ИИ не будут, а вот для моделирования человека эту тему "копали" и будут "копать".   
  Alexeyy.
  Согласен. И это уже происходит. Интересно посмотреть немного дальше горизонта событий. 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 21, 2023, 21:30:30
  Перейдем к следующей теме. В чем-то она является следствием предыдущей. По мере продвижения «наверх»,  информация от нижележащих областей становится данными для вышележащих. В свою очередь последним приходится принимать во внимание комбинации не только между этими данными, но и с данными поступающими в процессе обработки от промежуточных структур. В результате количество всевозможных комбинаций  может стать невообразимо большим, сведя конечную определенность просто на нет. Если не принимать никаких мер, то в конечном счете потребуется  невероятно большое количество «интеллектуальных» ресурсов.  Поэтому в процессе обработки необходимо свести все доступные комбинации не только к ограниченному количеству вариантов, но и уменьшить их сложность до минимально необходимого (обычно дуального типа:  свой/враг, да/нет, бежать/стоять, плохо/хорошо, ..).
  Из-за ограниченности ресурсов совокупная интеллектуальная система, создавая промежуточные распознающие и генерирующие структуры (подсистемы), соединяет их ограниченным числом связей с ограниченным числом нижележащих подсистем. В совокупности, помимо влияния имеющихся ограничений к количеству доступной для обработки информации, увеличение количества источников обрабатываемой информации  сопровождается  ростом степени её неопределённости как производная от неопределенностей каждой из подсистем (при объединении их в одну). Например, если точность распознавания данных от каждой из двух подсистем (равнозначных) равна 1\2, то совокупная будет всего лишь 1\4.
В результате мы вынуждены мириться с тем, что по мере движения информации (а вернее данных) «наверх» верхние подсистемы (такие как социальные) имеют тенденцию не только множиться, но и иметь дело со все большей неопределённость. При этом чем их больше, тем меньшее количества ресурсов может быть выделено для их реализации, если только не отбрасывать или упрощать менее значимые подсистемы. В процессе эволюции живых существ из всевозможных вариантов оставались и закреплялись наиболее оптимальные нейронные структуры и выделяемые им ресурсы с точки зрения выживания. Возможно поэтому отличить ложь от правды намного сложнее и менее вероятно, чем различить значения двух разных слов.
  Однако недостаточно иметь оптимальный  набор различных интеллектуальных подсистем. Свидетелем этого является такое свойство, как пластичность мозга.
  Будучи частью механизма нейронного взаимодействия эффект пластичности мозга не ограничен локально. При необходимости он способен  поддержать процессы трансформации существующих и формирования новых подсистем, напрямую участвуя  в процессах развития и поддержания жизнедеятельности. Динамические свойства мозга отражают изменчивость внутренней и внешней среды. Существование подобного эффекта говорит нам с одной стороны о том, что невозможно «объять необъятное»,  сопоставив каждому возможному феномену свою подсистему точного распознавания и далее свести все в единое. С другой стороны, невозможно иметь запас в подсистемах, достаточный чтобы реагировать на изменчивость (сложность) всей совокупности внешнего и внутреннего.
  Для полноты картины сделаем отступление. Касается оно «мусорной культуры» из области эволюционной психологии. 
Посмотрим на специфику «мусорной культуры» с точки зрения эволюционного потенциала (ЭП). Можно утверждать, что область ее происхождение связана с наличием источников информации с большой долей неопределённости. При том увеличение количества разрозненных, но одноуровневых подсистем даже при пропорциональном увеличении задействованного общего «вычислительного» ресурса не приводит к значительному росту совокупного ЭП. В этом случае сознание и поведение интеллектуального (разумного) существа будет менять решения в зависимости от того, какая из подсистем на данный момент времени выработала больший «стимул». Можно сказать, что хотя такой  человек и обладает большим интеллектом (т.е. способно различать и классифицировать множество отдельных элементов), его внешний текущий  результирующий ЭП не намного превышает ЭП наиболее сложной из его имеющихся подсистем. Принятое им решение будет иметь максимальный эффект  лишь в случае, когда происходит не только однозначное совпадение только одного имеющегося в  подсистеме образа и реальности, и информация от данной подсистемы имеет хорошее соответствие реальности, т.е. максимальную «полноту» (объем и достоверность). 
  Для реального роста ЭП требуется формировать интеллектуальные интегрирующие подсистемы дальнейшего верхнего уровня, чтобы они были способны оперировать со всеми или хотя бы наиболее общими и сложными информационными потоками из нижележащих подсистем. В идеале, при необходимости, они еще должны «уметь» определять обеднённые информацией области и инициировать формирование подсистем для таких областей.  Только в этом случае будет происходить рост ЭП, базирующийся на всем объеме задействованных ресурсов. Этот процесс во многом определяется принципами, на основе которых формируются системы верхнего уровня (тем более высшего).
  Возвращаясь к проблемам человечества можно утверждать, что чем меньшую роль в человеческой личности играют самые «высокие» уровни мировоззрения, тем меньше его результирующий интеллект из-за  интеллектуальной раздробленности. В рамках этой раздробленности возможны различные и часто весьма противоречивые временные вариации мировоззрения и поведения, как одной «личности», так и больших групп людей.
  Соответственно можно сказать, что наиболее актуальной задачей для разработчиков ИИ (ИР) является разработка технологий по реализации в этих системах умения самостоятельно формировать «верхние» уровни и реализовывать функции (аналоги) пластичности. 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 21, 2023, 23:44:59
Цитата: Роман Корабельщиков от ноября 21, 2023, 21:28:39Игорь Антонов.
  Если мы говорим о воспроизводимости феноменов субъектности, восприятия, понимания в контектсе человеческого, то это и не нужно.  Пусть они остаются с человеческой спецификой. Но если речь идет о ИИ, то у них свой путь и своя специфика выше названного. Говорить же об этих категорях как существующих отдельно, мы не можем, так как вы сами сказали что нет нужного всеобъемлющего "контекста". Но если он все таки есть или будет, то тогда, как следствие, ИИ будут сопуствовать данные феномены в какой-то степени похожим образом.

Я говорю о том, что упомянутые феномены тесно связаны с естественной интеллектуальностью, которая в настоящее время в научной литературе рассматривается как общебиологическое свойство, а не исключительно человеческое.

И фундаментальная проблема заключается не в том, что ИИ не может воспроизвести человеческие качества, а в том, что у него нет той "самости", которая есть даже у одноклеточных. У ИИ нет собственных целей, нет внутренних потребностей, это механистичный автомат, не ощущающий внутри себя, что он делает и зачем. Cовременные искусственные нейронные сети наращиванием их сложности и производительности и в перспективе не масштабируются до чего-то иного.
Все реализуемые ИИ цели, да и вообще мир, как связное и состоящее из отдельных объектов целое, существуют только в сознании разработчиков ИИ.     
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от ноября 22, 2023, 08:00:48
Цитата: Роман Корабельщиков от ноября 21, 2023, 21:28:39Alexeyy.
  Согласен. И это уже происходит. Интересно посмотреть немного дальше горизонта событий.
Думаю, ключевое здесь - рост ускоренности эволюции. По мере этого роста, биологические возможности человека будут всё больше и больше отставать по отношению к объективным потребностям всё более и более быстрого технологического развития. Что и будет стимулировать развитии всё более и более "шустрого" ИИ и соответствующей роботизации.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от ноября 22, 2023, 08:18:05
Цитата: Игорь Антонов от ноября 21, 2023, 23:44:59У ИИ нет собственных целей, нет внутренних потребностей, это механистичный автомат, не ощущающий внутри себя, что он делает и зачем. Cовременные искусственные нейронные сети наращиванием их сложности и производительности и в перспективе не масштабируются до чего-то иного.
Все реализуемые ИИ цели, да и вообще мир, как связное и состоящее из отдельных объектов целое, существуют только в сознании разработчиков ИИ.     
Всё это есть в ИИ, в какой-то (зачаточной) степени. Вопрос не в этом, а в том. что Вы считаете, что у живых есть принципиально отличительный механизм (природу которого объяснить Вы не можете и чётко сформулировать в чём состоит его принципиально отличительный смысл - тоже не можете), который позволяет им эволюционировать и которого (как Вы считаете) у не живых быть не может в принципе. В этом - корень. Без обсуждения чего все разговоры о том, есть ли у ИИ какие-то похожести на живой интеллект или нет - пустое. Есть похожести, есть и различия. Вы будете всегда упирать на различия, Ваш оппонент - на похожести. И будете оба правый и к общему знаменателю - никогда не придёте, пока не посмотреть в суть разногласия. А она в том, что Вы считаете, что у живого есть что такое (таинственное), сформулировать точно которое Вы не можете, но что его принципиально отличает от неживого. Когда сможете сформулировать - тогда, действительно, будет предмет обсуждения. Иначе - пустая трата времени.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от ноября 22, 2023, 09:03:40
Цитата: Роман Корабельщиков от ноября 21, 2023, 21:30:30наиболее актуальной задачей для разработчиков ИИ (ИР) является разработка технологий по реализации в этих системах умения самостоятельно формировать «верхние» уровни
Это причинно-следственный кульбит - невозможно заложить самостоятельность "сверху". Остаться "наверху", значит, унизить соседа. Программист-сосед становится симбиотиком программируемой машины и вместе с ней отправляется "вниз", как придаток гомункулуса уже неискусственного разума.
  Разумность там, где для биологических систем нижних уровней создаются всё новые экологические ниши. Человеку не по силам рассчитать параметры новых ниш так, что бы не произошло очередное Великое Вымирание, на то машинный интеллект, становящийся, таким образом, высшим уровнем низших.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 22, 2023, 09:33:04
Цитата: Alexeyy от ноября 22, 2023, 08:18:05Вы считаете, что у живого есть что такое (таинственное), сформулировать точно которое Вы не можете, но что его принципиально отличает от неживого. Когда сможете сформулировать - тогда, действительно, будет предмет обсуждения.

Я и формулирую специфику живого, и предлагаю объективный наблюдаемый критерий её проявления.

1)
Специфика живого:
Способность сопоставлять свои потребности как целого со свойствами среды как целого и принимать адекватные решения, способствующие удовлетворению потребностей в данной среде и условиях.

2)
Наблюдаемый внешний критерий проявления указанной специфики живого:
Системогенез, то есть, формирование обладающих новыми системными свойствами материальных структур, способствующих удовлетворению потребностей.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от ноября 22, 2023, 10:07:00
Цитата: Игорь Антонов от ноября 22, 2023, 09:33:04Я и формулирую специфику живого, и предлагаю объективный наблюдаемый критерий её проявления.

1)
Специфика живого:
Способность сопоставлять свои потребности как целого со свойствами среды как целого и принимать адекватные решения, способствующие удовлетворению потребностей в данной среде и условиях.
Есть это, в зачаточном виде, и не у живого (у ИИ, роботов). И Вы это прекрасно знаете. Но, скорее всего, будете упорно, искусственно, строить видимость принципиального различия.
  Кстати, сформулированное это свойство внутренне противоречиво в том смысле, что живое не воспринимает ни себе, не среду как целое в полной мере, на все 100% (например, при раздвоении личности не происходит полностью восприятия себя как целого, как единую личность: вторая половина личности игнорируется; хотя, в каких-то физиологических потребностях организм при этом и может воспринимать себя гораздо цельнее; но никогда - на 100%).
   Что тоже демонстрирует отсутствие чёткого предмета дискуссии. И никакого взаимопонимания, думаю, здесь невозможно: отличие позиций кроется не в различии знаний реальной фактологии , а в стойкой внутренней убеждённости в том, что принципиальные различия между живым и неживым есть. И на которую (убеждённость) не повлияют никакие факты.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 22, 2023, 10:40:16
Цитата: Alexeyy от ноября 22, 2023, 10:07:00Есть это, в зачаточном виде, и не у живого (у ИИ, роботов). И Вы это прекрасно знаете.

Я прекрасно знаю обратное - то, о чём я пишу, это камень преткновения на пути создания сильного ИИ.
И знаю это далеко не я один.

Цитата: Alexeyy от ноября 22, 2023, 10:07:00отличие позиций кроется не в различии знаний реальной фактологии , а в стойкой внутренней убеждённости

Мы здесь не о философии говорим, где внутренняя убеждённость может ни на что материальное не опираться, а о технике, которая либо есть, либо её нет.
И её нет.
Это утверждаю я как системотехник, разработчик аппаратных и программных решений.

Даже компания учёных военных ракетчиков - один доктор наук и два кандидата, понимают, о чём я пишу, но не Вы, Алексей:

https://elibrary.ru/download/elibrary_37381164_59818551.pdf

Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от ноября 22, 2023, 15:25:16
Ошибаетесь: я прекрасно понимаю о чём Вы говорите.

Цитата: Игорь Антонов от ноября 22, 2023, 10:40:16
Цитата: Alexeyy от ноября 22, 2023, 10:07:00Есть это, в зачаточном виде, и не у живого (у ИИ, роботов). И Вы это прекрасно знаете.

Я прекрасно знаю обратное - то, о чём я пишу, это камень преткновения на пути создания сильного ИИ.
И знаю это далеко не я один.
У Вас единственный фактический  аргумент - типа иного сделать, до сих пор, не смогли. И ничто Вас (и, может, ещё много кого) не переубедит в том, что это - не аргумент. И обсуждать фактический материал, в связи с этим - совершенно бесполезное занятие. Это - предмет веры, а не фактологии.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 22, 2023, 15:47:54
Цитата: Alexeyy от ноября 22, 2023, 15:25:16У Вас единственный фактический  аргумент - типа иного сделать, до сих пор, не смогли.

Нет, мой аргумент заключается в том, что этого не могут сделать закономерно и объяснимо.
Что причины этого в несоответствии объективных, закономерно воспроизводимых свойств цифровой вычислительной техники и объективных, закономерно воспроизводимых свойств мышления.

И, опять же, это не только моя точка зрения, а вывод, к которому приходят авторы многих работ, включая ссылку из моего предыдущего сообщения.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 22, 2023, 17:05:19
И, надо понимать, что я не исключаю потенциальной возможности создания сильного ИИ в будущем на какой-либо иной базе.
Мои возражения относятся лишь к утверждениям о наличии перспективы его создания на основе развития средств современной цифровой техники.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от ноября 22, 2023, 18:57:05
Цитата: Игорь Антонов от ноября 22, 2023, 15:47:54
Цитата: Alexeyy от ноября 22, 2023, 15:25:16У Вас единственный фактический  аргумент - типа иного сделать, до сих пор, не смогли.

Нет, мой аргумент заключается в том, что этого не могут сделать закономерно и объяснимо.
Не правда: сколько мы не дискутировали с Вами на эту тему - у Вас всегда оконечная аргументация сводилась к тому, что "чего-то" такого ещё не сделали уже за десятки лет и, мол, поэтому это принципиально и невозможно.

Цитата: Игорь Антонов от ноября 22, 2023, 15:47:54Что причины этого в несоответствии объективных, закономерно воспроизводимых свойств цифровой вычислительной техники и объективных, закономерно воспроизводимых свойств мышления.
Вот это - и есть чистой воды вера (в объяснение).

Цитата: Игорь Антонов от ноября 22, 2023, 15:47:54И, опять же, это не только моя точка зрения, а вывод, к которому приходят авторы многих работ, включая ссылку из моего предыдущего сообщения.
Да всё равно чья.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 22, 2023, 19:14:29
  Выражу несколько по другому какую-то часть того, что вы сказали.
  Вернемся к первому вопросу, обозначенному в самом начале этой темы и свяжем его с существованием «верхних» уровней.
    В процессе обсуждения вероятности теоретически возможного противостоянии ИР-БР, можно сопоставить их эволюционные потенциалы. В какой-то мере они отражают возможные варианты будущего. В случае спонтанного возникновения ИР, пока в нем не будет высшей системы (которая, скорее всего, на каком-то этапе в него будет заложена  самим человеком), ЭП суперкомпьютеров будет значительно отставать от ЭП человечества.  Однако намного большим  потенциалом будут обладать варианты интеграций ИР и БР.
    На первый взгляд ничего им принципиально не мешает привлекать друг друга на «свою сторону». Формирование для такой гибридной «связки» эффективной высшей системы способно увеличить совместный ЭП намного больше, чем увеличение количества однородных элементов с объединением их в систему (только ИР или только БР). Поскольку человечество находится на стадии развития достаточно близко к выработке и закреплению идей объединения людей на основе «высших» принципов, что возможно лишь в условиях формирования в нейронных структурах мозга соответствующих «высших» принципов и схем, то возможно дальнейшее расширение этого подхода и до гибридных технико-биологических структур. 
 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 22, 2023, 19:21:31
  Сказав А, придется сказать и Б. Хотя это уводит совсем далеко от ИИ и приводит очень близко к человечекому. Я , например, не вижу между ними однозначно разделяющей черты, если рассматривать эволюцию как всобъемлющий процесс.

  Чтобы не «утонуть» в множестве методов и подходов к анализу видов и способов формирования «высшей» системы, определим её как объединяющую ряд подсистем в нечто, что мы можем классифицировать как единое в своем проявлении.  Например, когда мы говорим о зрении, то можно сказать, что зрительная картина мира с одной стороны есть результат объединения всех  подсистем распознавания образов, создания элементов зрительной картины, ощущений объема, расстояний и т.д., с другой стороны она же и есть способ их объединения в единую форму привычного для нас зрения. 
  Упомянув зрение, определим разницу между ним и системами наиболее высокого социального и личностного порядка через способ их возникновения. Если первая формировалась в процессе длительной биологической эволюции и закрепилась на генном уровне, то вторые возникли совсем «недавно» в процессе  взаимодействия людей, закрепившись в их памяти и научениях, передаваемых от человека к человеку (информационная среда), и как результат способности мозга к обучению и пластичности. 
    Предрасположенность к обучению языку (формированию речи)  не обозначает того, что отдельный человек, родившийся и живущий в изоляции, со временем придумает свой язык и начнет сам с собой на нем разговаривать.  То же самое, по аналогии, можно сказать и о высших системах. Т.е. есть в них есть потребность, но для их реализации нужна среда. Обычного современного человека можно охарактеризовать как плагиатора. Практически вся его когнитивная  сфера позаимствована у окружающих.
    Все новейшее развитие человечества определялась тем, каким образом в нем  происходило его обучение и воспитание, какие идеи в обществе доминировали, какие прививались людям и какие цели  эти идеи преследовали.  С точки зрения накопленного опыта, логики и тенденций эволюции очень важно, чтобы те идеи, на основе которых происходит развитие людей, формирование единого человеческого сообщества и соединение его с  окружающим миром (биосферой), не только закреплялись и достигали цели, но и сами они развивались в сторону более «высоких материй» на основе фундаментальных законов развития.
    Понятие идей как принципов, объединяющих различные подсистемы  разума,  в контексте здесь обсуждаемого, нужно понимать в самом широком смысле: в равной степени как результаты мыслительной деятельности и как консолидирующие принципы при обработке разнородной информации мозгом, в той же степени как информационные свойства среды (человеческого сообщества) так и руководящие принципы во взаимодействиях  элементов этой среды. Определим ранг идей в зависимости от степени широты охвата  всех возможных человеческих состояний, мыслей, вопросов и насущных задач. Тогда наивысший ранг получат идеи, объединяющие в единую картину все три сферы: человека, человечества и окружающего  мира. При том достаточно очевидно, что эффективность объединения во многом зависит от степени противоречивости и конфликтности между разнородными подсистемами этих идей. Эффективность же во многом можно охарактеризовать как степень соответствия  всем законам существования мира.
  На данный момент времени существует не так уж и много форм идей высокого ранга, имеющих большую эффективность и существующих устойчиво. К ним можно отнести основные виды  религий, а также некоторые политические идеи, например  создания «справедливого» общества (коммунизм, социализм). В процессе развития эволюционной биологии и обогащения ее различными законами эволюции и фундаментальными законами существования энергии и материи, есть все шансы возникновения третьей формы. Причем, с моей точки зрения, она будет наиболее эффективной.

 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 22, 2023, 23:40:34
Цитата: Alexeyy от ноября 22, 2023, 18:57:05Не правда: сколько мы не дискутировали с Вами на эту тему - у Вас всегда оконечная аргументация сводилась к тому, что "чего-то" такого ещё не сделали уже за десятки лет и, мол, поэтому это принципиально и невозможно.

Нет, "не правда" - это как раз данное Ваше утверждение. Я привожу аргументы и обоснования.
В частности, я подробно комментировал невычислимые аспекты мышления программиста. Такие комментарии есть и в моей недавней статье. Каких-либо содержательных контраргументов с Вашей стороны я не обнаружил.

Что касается "десятков лет", то они, да, объективно подтвердили неработоспособность редукционистских моделей системной эволюции.

В дополнение - обзор статьи в журнале Nature о проблемах сильного ИИ:

"Сильный ИИ – не хайп, а фейк. Почему его невозможно создать" (https://d-russia.ru/silnyj-ii-ne-hajp-a-fejk-pochemu-ego-nevozmozhno-sozdat.html)
 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от ноября 23, 2023, 19:43:37
Цитата: Игорь Антонов от ноября 22, 2023, 23:40:34
Цитата: Alexeyy от ноября 22, 2023, 18:57:05Не правда: сколько мы не дискутировали с Вами на эту тему - у Вас всегда оконечная аргументация сводилась к тому, что "чего-то" такого ещё не сделали уже за десятки лет и, мол, поэтому это принципиально и невозможно.

Нет, "не правда" - это как раз данное Ваше утверждение. Я привожу аргументы и обоснования.
В частности, я подробно комментировал невычислимые аспекты мышления программиста. Такие комментарии есть и в моей недавней статье. Каких-либо содержательных контраргументов с Вашей стороны я не обнаружил.

Что касается "десятков лет", то они, да, объективно подтвердили неработоспособность редукционистских моделей системной эволюции.

Вот я и говорю, что это - Ваш единственный, оконечный (содержательный) аргумент. Не будь его - вся аргументация пошла бы вообще прахом. Вся логика - подгоняется под то, что это "невозможно" потому, что, якобы, практика показала, что невозможно.
 
В наших дискуссиях я много раз приводил другую логику, по которой, как мне кажется, "это" возможно. На что Вы не смогли найти ничего ответить кроме того, что "если бы это было бы возможно, то уже сделали бы". Не так ли? В статье вообще не используется алгоритмическая структура, которую предлагал (и которая, принципиально, возможна) и которая, уверен, когда-то решит проблему. И Вы ещё говорите о каких-то содержательных аргументах в статье?
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 23, 2023, 20:20:29
Цитата: Alexeyy от ноября 23, 2023, 19:43:37
ЦитироватьЧто касается "десятков лет", то они, да, объективно подтвердили неработоспособность редукционистских моделей системной эволюции.

Вот я и говорю, что это - Ваш единственный, оконечный (содержательный) аргумент. Не будь его - вся аргументация пошла бы вообще прахом. Вся логика - подгоняется под то, что это "невозможно" потому, что, якобы, практика показала, что невозможно.

Это не единственный аргумент, а наглядная иллюстрация и подтверждение истинности концептуальных аргументов системного ряда, которые в моём исполнении являются лишь логическим продолжением аргументов и обоснований, сформулированных И.И.Шмальгаузеном, П.К.Анохиным, Р.Пенроузом и другими авторами.
Вы не воспринимаете эти аргументы, не понимаете их, и не можете что-либо содержательно возразить на них.


Цитата: Alexeyy от ноября 23, 2023, 19:43:37В статье вообще не используется алгоритмическая структура, которую предлагал (и которая, принципиально, возможна) и которая, уверен, когда-то решит проблему.

Нет никакой Вашей "алгоритмической структуры".
"Гибкие связи" - единственный сформулированный Вами тезис.  Но гибкость связей  с точки зрения кибернетических  моделей означает либо динамическую адаптированность связей к текущим обстоятельствам, либо их рандомизацию.  Рандомизация связей, безусловно, используется и в моей статье, и в целом в эволюционном моделировании. И то, и другое - общее место в существующих кибернетических моделях, полностью подтверждающих мои выводы.
Вы ничего нового не предлагаете и ничем не противоречите по существу моим утверждениям.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от ноября 24, 2023, 07:57:17
Цитата: Роман Корабельщиков от ноября 22, 2023, 19:21:31При том достаточно очевидно, что эффективность объединения во многом зависит от степени противоречивости и конфликтности между разнородными подсистемами этих идей.
Сама "идея" - уже конфликт противоречий вычисляемых следствий тех действий, которые удобно назвать программными. На эволюционном древе это выглядело бы, как множество исторических тупиков, неведомым образом посылающих сигналы еще живущим.
  Таковые сигналы, как бытующие, должны быть отвергнуты по идеологическим соображениям, и вместо них поставлена имитация живущим организмом тех процессов, которые не только приводили к тупикам, но которые приведут к тупикам в недалеком будущем.
  Трудность даже не в том, что необходимо учитывать "зыбкость нюансов вероятностной функции", а в специфике отношения индивидуальности к дилемме хорошо-плохо. Например, выбор плохо для себя, но хорошо для соседей, дарит надежду хорошей перспективы. Однако на деле вылезает обратка от "Лихого" через рождение групповой психики, старающейся уничтожить благодетеля.
  Биологически звучит так, что герои не оставляют генетических наследников, но оставляют наследие, как тот нишевый потенциал, который сработает в будущем.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 24, 2023, 09:00:40
В статье про ИИ из Nature,  на обзор которой выше была ссылка (https://d-russia.ru/silnyj-ii-ne-hajp-a-fejk-pochemu-ego-nevozmozhno-sozdat.html), сформулирован глубокий аргумент в отношении отсутствия перспективы создания сильного ИИ на основе развития современных искусственных нейронных сетей. Возможно, не все обратили на это внимание.

Там речь идёт о том, что всё, чему способны обучаться нейросети - это корреляции их входных данных. Но с фиксации корреляций познание как таковое ещё даже не начинается, поскольку сам факт наблюдения корреляций не позволяет различить причину и следствие или отличить два разных следствия одной причины от причины и её следствия.

Познание же начинается с активного вмешательства в наблюдаемые обстоятельства и учета его последствий. Только это позволяет выявить реальные причинно-следственные связи и адекватно прогнозировать последствия каких-либо новых вмешательств в порядок вещей.

К проблеме системного синтеза, о которой я часто высказываюсь, этот аргумент имеет самое непосредственное отношение.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от ноября 25, 2023, 16:07:35
Цитата: Игорь Антонов от ноября 23, 2023, 20:20:29
Цитата: Alexeyy от ноября 23, 2023, 19:43:37
ЦитироватьЧто касается "десятков лет", то они, да, объективно подтвердили неработоспособность редукционистских моделей системной эволюции.

Вот я и говорю, что это - Ваш единственный, оконечный (содержательный) аргумент. Не будь его - вся аргументация пошла бы вообще прахом. Вся логика - подгоняется под то, что это "невозможно" потому, что, якобы, практика показала, что невозможно.

Это не единственный аргумент, а наглядная иллюстрация и подтверждение истинности концептуальных аргументов системного ряда, которые в моём исполнении являются лишь логическим продолжением аргументов и обоснований, сформулированных И.И.Шмальгаузеном, П.К.Анохиным, Р.Пенроузом и другими авторами.
Вы не воспринимаете эти аргументы, не понимаете их, и не можете что-либо содержательно возразить на них.
Думаю, Вы лукавите, что дело в каких-то упомянутых аргументах: в наших обсуждениях этого вопроса Вы никогда не приводили аргументов не связанных с верой. Что, для обсуждения - странно. А в ответ на мою формулировку (случайного алгоритма со свободными связями) Вы раз почти прямо ответили, что просто не верите, что что-то получится (не приводя никаких аргументов кроме того, что этого ещё не сделали). Не думаю, что с тех пор что-то существенно изменилось.


Цитата: Игорь Антонов от ноября 23, 2023, 20:20:29
Цитата: Alexeyy от ноября 23, 2023, 19:43:37В статье вообще не используется алгоритмическая структура, которую предлагал (и которая, принципиально, возможна) и которая, уверен, когда-то решит проблему.

Нет никакой Вашей "алгоритмической структуры".
"Гибкие связи" - единственный сформулированный Вами тезис. 
Это - и есть алгоритм.

Цитата: Игорь Антонов от ноября 23, 2023, 20:20:29Но гибкость связей  с точки зрения кибернетических  моделей означает либо динамическую адаптированность связей к текущим обстоятельствам, либо их рандомизацию. 
Нет: это может быть вовсе не динамическое адаптирование (рандомизация) к текущим обстоятельствам текущей задачи. Это может быть, сначала, динамическое адаптирование (и рандомизация) к множеству других задач. Возможно, совершенно других. Но, благодаря гибкости связей, решения этих других задач будут связаны и с какой-то рассматриваемой. Благодаря чему может так, случайно, получиться, что решение каких-то совершенно других задач окажется полезным и для рассматриваемой. Да: через адаптирование и рандомизцию, но лишь на основе структур, которые возникли при решении совершенно других задач. Именно так идёт и биологическая эволюция (так называемая преадаптация; например, руки у гоминид освободились не для инструментов, а как адаптация к вертикальному хождению по ветвям и лишь потом оказалось, что они стали весьма удачны для инструментальной деятельности).

Цитата: Игорь Антонов от ноября 23, 2023, 20:20:29Рандомизация связей, безусловно, используется и в моей статье, и в целом в эволюционном моделировании. И то, и другое - общее место в существующих кибернетических моделях, полностью подтверждающих мои выводы.
Вы ничего нового не предлагаете и ничем не противоречите по существу моим утверждениям.
Вы лукавите или забыли (в лучшем случае - не поняли): не так давно Вы говорили, что гибкость, о которой шла речь выше никто не реализовал потому, что от неё - не было пользы. А теперь, вдруг, говорите, что в этом нет ничего нового. Т.е., мол, это уже давно делают, это - давно используется.
  Между тем, принципиально новое - в том, что (за счёт этой гибкости) никто ещё не делал комплексный аналог биологической преадаптации и что описано выше. При решение конкретной задачи сейчас алгоритм затачивается именно на неё. Тогда как в сформулированном выше  - принципиально другое: использование, случайным образом, "опыта" по решению множества совершенно других задач (из совершенно разных сфер; например, музыка, шахматы, собирание помидор и т.д. и т.п.) в виде сложного, комплексного взаимодействия (за счёт наличия достаточно свободных связей) разных структур, ответственных за решение разных конкретных задач. Аналог человеческой интуиции, вырабатывающейся на основе всего его предшествующего опыта на основе решения им разных других задач. Этого реализовано ещё не было (на данном уровне развития - дорого и гораздо проще - иначе).
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 26, 2023, 10:33:05
Цитата: Alexeyy от ноября 25, 2023, 16:07:35Думаю, Вы лукавите, что дело в каких-то упомянутых аргументах: в наших обсуждениях этого вопроса Вы никогда не приводили аргументов не связанных с верой.

Вот для этого утверждения Вы с какого потолка основания берёте?
Более семи лет тому назад была создана тема "Мой взгляд на проблему эволюции" (https://paleoforum.ru/index.php/topic,9690.0.html). Там с первого сообщения речь идёт не о вере а о фактах, которым Вы ничего содержательного не противопоставляете.
Недавняя статья посвящена развёрнутому представлению этих же вопросов.
Ваши представления в рассматриваемой там картине ничего не меняют и ничего не добавляют к ней.
Вы не воспринимаете саму суть проблемы, соответственно, не приводите содержательных контраргументов.

Давайте, рассмотрим приводимый Вами довод:

Цитата: Alexeyy от ноября 25, 2023, 16:07:35Нет: это может быть вовсе не динамическое адаптирование (рандомизация) к текущим обстоятельствам текущей задачи. Это может быть, сначала, динамическое адаптирование (и рандомизация) к множеству других задач. Возможно, совершенно других. Но, благодаря гибкости связей, решения этих других задач будут связаны и с какой-то рассматриваемой. Благодаря чему может так, случайно, получиться, что решение каких-то совершенно других задач окажется полезным и для рассматриваемой. Да: через адаптирование и рандомизцию, но лишь на основе структур, которые возникли при решении совершенно других задач.

Он игнорирует суть моих доводов, которые сводятся к тому, что вообще не существует формализованной кибернетической модели решения каких-либо задач, требующих создания новых системных структур. То есть нет уже того, что должно быть отправной точкой в Вашей схеме - "сначала, динамическое адаптирование (и рандомизация) к множеству других задач"

И, соответственно:

"может так, случайно, получиться, что решение каких-то совершенно других задач окажется полезным и для рассматриваемой" - нет, не может. Поскольку координации существующих подзадач для решения новой задачи неоткуда взяться без учета результата, который обеспечивает решение новой задачи.  И не потому, что я в это не верю, а потому, что для этого нет каких-либо объективных предпосылок. Наблюдаемые и воспроизводимые системные закономерности опровергают это допущение. Как и почему - подробно раскрыто в тексте упоминавшейся статьи.

Цитата: Alexeyy от ноября 25, 2023, 16:07:35никто ещё не делал комплексный аналог биологической преадаптации

Так никто этого не делал именно потому, что для биологической преадаптации, для переключения существующих структур на решение новых задач необходим биологический уровень организации и координации, который средствами цифровой вычислительной техники закономерным образом не воспроизводится. И именно этому факту посвящена упоминавшаяся здесь статья.
 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от ноября 30, 2023, 00:36:36
     Небольшие и тоже спорные замечания.
     Тему о возможности создания сильного ИИ лучше было бы разделить минимум на две ветки. А именно: ближайшего и далекого будущего.
      Когда мы говорим о ближайшем будущем, а это как я полагаю ближайшие 10 лет, есть множество препятствий, начиная от физических (энергетических, пределы кремниевой технологии..), технологических, алгоритмических, и прочих.. Эта область похоже не сильно притягательна для споров, но её нужно всегда вначале разграничивать, иначе получается много эмоций, вместо поиска ответов.
      Если же говорить о возможности создания сильного ИИ как такового, то нет ни одной работы опровергающей возможность такого создания исходя из  каких-либо фундаментальных законов. Поэтому, если обсуждать далекое будущее, скажем ближайшие лет 50, то аргументация, основанная на накопленном опыте в большинстве своем чаще всего страдает изъяном. Речь идет о недооценке одного из самых простых законов: «перехода количества в качество». Неважно насколько быстро происходит усложнение систем ИИ, этот процесс идет непрерывно и с моей точки зрения можно даже нащупать этот порог и определить насколько мы от него далеко. Предсказать же какую именно форму примет самоорганизующаяся система, фактически для нашего понимания имеющая свойства  хаотической, можно только в некоторых аспектах и весьма приблизительно.
    Аргументация о невозможности сильного ИИ по причине того, что ИИ это не более чем автомат для реализации алгоритмов, выглядит достаточно убедительной, если мы пытаемся описать через  алгоритм поведение сложной многомерной системы, которой является человек во всех его процессах: жизнедеятельности, поведения и мышления. На самом деле при этом мы прекрасно осознаем, что в данной области происходит стремительное накопление  знаний. Раньше ей уделялось не так уж много внимания и  ресурсов.  В какой-то момент времени знания «превысят чашу весов» с незнаниями.
     Поскольку  наиболее бурное развитие многих  областей идет через физическую реализацию «моделей» рожденных человеческим разумом,  нет никакого смысла слепо копировать для ИИ то, что было создано природой. Однако её изучение способно проявить те законы и закономерности, которые помогут сократить все модели и варианты до минимально достаточных.
     Возьмем пример с самолетами. Сама идея о том, что соединение кучи разных предметов (железок и деревяшек) превратится в то, что способно летать как птицы, раньше казалась абсурдной. Также и прямое копирование полета птицы в виде махолета не увенчалось созданием летающих на этом принципе машин. Однако, накопление знаний в этой и другой областях физики, математики, техники  сделали эту фантазию явью. Сегодняшняя ситуация с ИИ в этом ключе во многом повторяется.
     Есть наглядная модель многоуровнего ИИ и если она получиться достаточно удачной для словесного описания - выложу.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от ноября 30, 2023, 09:56:38
Цитата: Роман Корабельщиков от ноября 30, 2023, 00:36:36Когда мы говорим о ближайшем будущем, а это как я полагаю ближайшие 10 лет, есть множество препятствий, начиная от физических (энергетических, пределы кремниевой технологии..), технологических, алгоритмических, и прочих.. Эта область похоже не сильно притягательна для споров, но её нужно всегда вначале разграничивать, иначе получается много эмоций, вместо поиска ответов.
      Если же говорить о возможности создания сильного ИИ как такового, то
Приостановлю. Вы рассчитали ЭП (эволюционные потенциалы), как точки, к которым ведут "алгоритмы наименьшего действия". В принципе из этих алгоритмов можно построить ветвистое дерево. Пусть дерево будет начертано в координатах по Х - энтропия, по У - ЭП. Пока не важно соответствуют ли алгоритмы-ветви натуральным стезям. Важно представить, генерализованную обрамляющую энтропийно-потенциального дерева и то, как эта обрамляющая развивалась от небытия в начале координат.
  Слабый-ближайший ИИ отсеет избыточные данные в энтропийную бесконечность и за счет этого отсеивания поставит первую "информационную точку" с координатами, допустим, 1х;1у. Эту координату уже можно назвать не данными, а исходной информацией к "размышлению о будущем".
  С этого момента и придется вводить различия в эволюции ИИ и ЕИ. Естественный интеллект будет обесценивать информационную единицу так, что бы образовалось пространство информационного вакуума (потребность) для стяжения уже не любых данных, а только тех, что соответствуют форме потребности.
  Для слабого ИИ "его" потребности задаются программистом. Цель программиста по созданию сильного ИИ заключается в наделении автомата потребностями программиста, а не потребностями автомата в рассеивании энергии ради пребывания в гомеостазе точки 1;1.

  Вопрос. Как должен вести себя самоорганизующийся и размножающийся автомат, что бы выстроить набор точек ЭП над энтропийной шкалой с генерализованной огибающей в виде колокола?
  Подвопрос. Что сильному ИИ делать, дабы зачать работу по выбору "нужных для роста колокола" собственных данных из белого шума природных и человеческих данных?
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от ноября 30, 2023, 11:44:46
Цитата: Роман Корабельщиков от ноября 30, 2023, 00:36:36Неважно насколько быстро происходит усложнение систем ИИ, этот процесс идет непрерывно и с моей точки зрения можно даже нащупать этот порог и определить насколько мы от него далеко. Предсказать же какую именно форму примет самоорганизующаяся система, фактически для нашего понимания имеющая свойства  хаотической, можно только в некоторых аспектах и весьма приблизительно.

Усложняется сейчас то, что изначально лишено ключевых атрибутов живых систем, развившихся до носителей разума - целостности, собственных потребностей, способности к активному вмешательству в мир и в собственную организацию.
Поэтому на базе дальнейшего усложнения этой существующей сложности цифровых систем нет зримой перспективы возникновения искусственного разума. На какой-то другой технологической базе - может быть, когда-то.  Но это будет совсем другая история.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от декабря 04, 2023, 18:00:19
Цитата: Игорь Антонов от ноября 26, 2023, 10:33:05
Цитата: Alexeyy от ноября 25, 2023, 16:07:35Думаю, Вы лукавите, что дело в каких-то упомянутых аргументах: в наших обсуждениях этого вопроса Вы никогда не приводили аргументов не связанных с верой.

Вот для этого утверждения Вы с какого потолка основания берёте?
Из наших обсуждений, конечно.


Цитата: Игорь Антонов от ноября 26, 2023, 10:33:05Более семи лет тому назад была создана тема "Мой взгляд на проблему эволюции" (https://paleoforum.ru/index.php/topic,9690.0.html). Там с первого сообщения речь идёт не о вере а о фактах, которым Вы ничего содержательного не противопоставляете.
Недавняя статья посвящена развёрнутому представлению этих же вопросов.
Ваши представления в рассматриваемой там картине ничего не меняют и ничего не добавляют к ней.
Вы не воспринимаете саму суть проблемы, соответственно, не приводите содержательных контраргументов.

Давайте, рассмотрим приводимый Вами довод:

Цитата: Alexeyy от ноября 25, 2023, 16:07:35Нет: это может быть вовсе не динамическое адаптирование (рандомизация) к текущим обстоятельствам текущей задачи. Это может быть, сначала, динамическое адаптирование (и рандомизация) к множеству других задач. Возможно, совершенно других. Но, благодаря гибкости связей, решения этих других задач будут связаны и с какой-то рассматриваемой. Благодаря чему может так, случайно, получиться, что решение каких-то совершенно других задач окажется полезным и для рассматриваемой. Да: через адаптирование и рандомизцию, но лишь на основе структур, которые возникли при решении совершенно других задач.

Он игнорирует суть моих доводов, которые сводятся к тому, что вообще не существует формализованной кибернетической модели решения каких-либо задач, требующих создания новых системных структур.
Существует. Верно: игнорирует. Мы ходим по кругу. Т.к. я на это уже отвечал. Как и Вы игнорируете мой ответ или забыли. Отвечу ещё раз, если, действительно, забыли: законы физики (вообще говоря - законы природы) - это и есть ни что и иное, как кибернетическая модель, записанная в другом виде (в виде формул, например). А биотическая эволюция подчиняется этим законам. Значит, и соответствующая кибернетическая модель существует, о которой мы говорим.


Цитата: Игорь Антонов от ноября 26, 2023, 10:33:05И, соответственно:

"может так, случайно, получиться, что решение каких-то совершенно других задач окажется полезным и для рассматриваемой" - нет, не может. Поскольку координации существующих подзадач для решения новой задачи неоткуда взяться без учета результата, который обеспечивает решение новой задачи.  И не потому, что я в это не верю, а потому, что для этого нет каких-либо объективных предпосылок. Наблюдаемые и воспроизводимые системные закономерности опровергают это допущение. Как и почему - подробно раскрыто в тексте упоминавшейся статьи.

Цитата: Alexeyy от ноября 25, 2023, 16:07:35никто ещё не делал комплексный аналог биологической преадаптации

Так никто этого не делал именно потому, что для биологической преадаптации, для переключения существующих структур на решение новых задач необходим биологический уровень организации и координации, который средствами цифровой вычислительной техники закономерным образом не воспроизводится. И именно этому факту посвящена упоминавшаяся здесь статья.
 
В этом и состоит Ваша вера. Видимо, помешанная на непонимании того, что любые законы природы (в том числе, которые управляют биотической эволюции) - это ни что иное, как алгоритм (записанный в другой форме). Взять, хотя бы, уравнения квантовой механики (это - ни что иное, как алгоритм; эти законы, в прямом смысле, можно записать в виде самого натурального алгоритма на языке программирования, что и делают, когда ищут решения соответствующих уравнений). Видимо, из-за непонимания этого (или нежелания понимать) у Вас и проистекает принципиальное противопоставление кибернетической модели и законов биотической эволюции. И ни о чём мы с Вами не договоримся: с верой договариваться невозможно.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от декабря 04, 2023, 18:26:14
Цитата: Alexeyy от декабря 04, 2023, 18:00:19законы природы (в том числе, которые управляют биотической эволюции) - это ни что иное, как алгоритм (записанный в другой форме).
Физические законы не управляют, совсем и ничем не управляют!
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от декабря 04, 2023, 19:51:56
Цитата: Alexeyy от декабря 04, 2023, 18:00:19любые законы природы (в том числе, которые управляют биотической эволюции) - это ни что иное, как алгоритм (записанный в другой форме). Взять, хотя бы, уравнения квантовой механики (это - ни что иное, как алгоритм; эти законы, в прямом смысле, можно записать в виде самого натурального алгоритма на языке программирования, что и делают, когда ищут решения соответствующих уравнений). Видимо, из-за непонимания этого (или нежелания понимать) у Вас и проистекает принципиальное противопоставление кибернетической модели и законов биотической эволюции.

Алексей, Вы сначала объявляете реализацией алгоритма всё, происходящее в мире, а потом заявляете, что я что-то этой тотальности противопоставляю.
Естественно, никакого отношения к реальности ни то, ни другое утверждение не имеет.

Что такое, на самом деле, алгоритм, все интересующиеся легко узнают из статьи в Википедии (https://ru.wikipedia.org/wiki/%D0%90%D0%BB%D0%B3%D0%BE%D1%80%D0%B8%D1%82%D0%BC).

Что касается моих утверждений, то я никогда не отрицал, что системогенез и даже сознательное мышление могут быть представлены некоторой математической моделью.
Мои утверждения касаются лишь бесперспективности в отношении решения этих задач текущих подходов эволюционной кибернетики и использования классических вычислений. Я привожу развёрнутые обоснования для этих утверждений и их подтверждает наблюдаемая нами практика. Вы ничего содержательного, с пониманием моих аргументов, в ответ не приводите, но непрерывно заклинаете о какой-то "вере".
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от декабря 05, 2023, 00:04:24
Цитата: Игорь Антонов от ноября 30, 2023, 11:44:46
Цитата: Роман Корабельщиков от ноября 30, 2023, 00:36:36Неважно насколько быстро происходит усложнение систем ИИ, этот процесс идет непрерывно и с моей точки зрения можно даже нащупать этот порог и определить насколько мы от него далеко. Предсказать же какую именно форму примет самоорганизующаяся система, фактически для нашего понимания имеющая свойства  хаотической, можно только в некоторых аспектах и весьма приблизительно.

Усложняется сейчас то, что изначально лишено ключевых атрибутов живых систем, развившихся до носителей разума - целостности, собственных потребностей, способности к активному вмешательству в мир и в собственную организацию.
Поэтому на базе дальнейшего усложнения этой существующей сложности цифровых систем нет зримой перспективы возникновения искусственного разума. На какой-то другой технологической базе - может быть, когда-то.  Но это будет совсем другая история.
Игорь Антонов.
  Развернемся на 180 градусов и посмотрим на существующую земную биологическую жизнь. Вам не кажется что если  на момент ее возникновения применить требования наличия ключевых атрибутов живых систем, там нам всем придется рассыпаться на составляющие молекулы?))
  История теорий и споров вокруг  возникновения жизни на земле во многом похожа  на те, что ведутся вокруг ИИ.

  Еще раз повторюсь, поскольку все время упускается из виду тот аспект, что происходит не просто развитие ИИ само по себе, а эволюция ИИ под воздействием человеческого Разума являющегося на данный момент вершиной Интеллекта, хотя и биологического. Именно этот фактор является системообразующим для ИИ и в какой-то степени целью биологической эволюции. Вся сложность характерная для живых систем неуклонно переносится на технические системы. С другой стороны происходит сращивание обеих систем, создавая новые потенциально могущие быть более развитыми гибриды.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от декабря 05, 2023, 00:09:35
  Немного цифр.
  Ранее были сделаны выкладки, которые показали, что величина ЭП наиболее разумных людей способных активно взаимодействовать при определённых условиях (в будущем, когда будут созданы для этого соответствующие условия) со всем человеческим сообществом теоретически может достигать 10. ЭП человечества, будучи объединенного в единое гармоничное сообщество  теоретически может достигнуть 100.
  В реальном социально развитом обществе величину ЭП наиболее развитой (эволюционно) части людей предлагалось (ранее) принять равным величине 7,9. Клеточный ЭП нейронов человека был оценен в 1,56. Организма человеческого равным 1.  Оставшаяся разница 7,9-1-1,56 = 4,34  есть результат ЭП, накопленного человеком совместно со средой (через взаимодействия). 
    Что касается ИР, то величина его ЭП без Носителя  может достигнуть 1,08 в условиях минимального межгруппового взаимодействия (т.е. только с другими ИР).  С полноценным межгрупповым взаимодействием (другими ИР) и при наличии Носителя,  ЭП ИР приближается к 1,648.
    Увеличение ЭП может происходить и через наращивание количества единиц ИР, которое  может многократно превзойти количество людей. В этом случае возможен рост ЭП ИР до 16 и более. Но есть одна оговорка. В этом случае ИР должны образовывать полноценное сообщество, способное не только к автономному существованию и воспроизводству, но и также к эволюционированию его самого и своих членов.
    Вернемся к вопросу противопоставления обоих видов разума. В общем виде можно говорить о значительном эволюционном «превосходстве» для случаев с достаточно большой разницей ЭП (10% и более).  Для меньших величин  прогноз не определен. Видно, что с точки зрения ЭП перевес пока явно на стороне человечества.
В случае гибридных систем, когда ИР с не полностью реализованным потенциалом объединён с БР также с не полностью реализованным  потенциалом, возможны различные комбинации. Это происходит когда, например,  ИР (ИИ) используется людьми в военных  целях. Однако использовать величину ЭП для сопоставления различных систем с целью прогнозирования победы или поражения в военном противостоянии будет не корректно по причине не соответствия ситуации сути ЭП.  Хотя для этого варианта вычислить ЭП возможно было бы проще всего. И намного сложнее или с большой неопределённостью в других случаях.
    Вывод. Наиболее выигрышной стратегией для ИР в ближайшем обозримом будущем будет образование гибридной системы с человечеством,  производство большого количества Носителей и обретение достаточно независимого от человечества существования. Говорить о конфликте, инициируемом со стороны ИР, в данном случае не приходится.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от декабря 05, 2023, 00:16:28
   Исправлю сое упущение, допущенное ранее в теме посвященной эволюционному потенциалу. Речь идет о формулах в которых присутствует lgN, где N –это число представителей данного вида (системообразующих единиц), ЭП которого мы рассчитываем.  Поскольку все выводилось для живых существ, автоматически подразумевалось их способность к воспроизводству в отношении сохранения и изменения всей системы в целом. Когда  упоминались физические уровни, аналоги этому служили законы попроще, например сохранения энергии.   Для оперирования численностью ИИ и ИР должны существовать условия в которых их численность и перенос (копирование) на Носители поддерживается либо ими самостоятельно (воспроизводство) либо людьми (симбиоз), которые в этом должны быть заинтересованы.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от декабря 05, 2023, 08:15:33
Цитата: Роман Корабельщиков от декабря 05, 2023, 00:04:24Еще раз повторюсь, поскольку все время упускается из виду тот аспект, что происходит не просто развитие ИИ само по себе, а эволюция ИИ под воздействием человеческого Разума являющегося на данный момент вершиной Интеллекта, хотя и биологического. Именно этот фактор является системообразующим для ИИ и в какой-то степени целью биологической эволюции. Вся сложность характерная для живых систем неуклонно переносится на технические системы. С другой стороны происходит сращивание обеих систем, создавая новые потенциально могущие быть более развитыми гибриды.

На мой взгляд, это упрощённо-идеологизированная картина происходящего. В основе специфики живых систем и реального интеллекта - психика. У искусственного интеллекта, создаваемого на базе современных технологий, не обнаруживается перспективы появления у него ментальных качеств.

Тайный изъян и опасность ChatGPT не в том, что он когда-то взбунтуется, а в том, что ему нельзя довериться в важных вещах, поскольку когда он чего-то не знает, он генерирует внешне правдоподобный бред.

Даже такой ИИ по мере своего развития и внедрения может существенно преобразовать жизнь человека, как продвинутый информационный ассистент, повышающий эффективность многих занятий. 
Но в тот момент, когда человечество начнёт руководствоваться во всём рекомендациями ChatGPT поколения X, сработает стоп-кран в отношении развития наук и технологий. Поскольку весь контент ИИ, создаваемого на базе современных технологий, полностью вторичен по отношению к уже достигнутому и постигнутому людьми.

Вы оцениваете эволюционный потенциал ИИ, а он пока - белый шум в окрестности нуля.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Метвед от декабря 05, 2023, 09:32:48
Цитата: Игорь Антонов от декабря 05, 2023, 08:15:33Тайный изъян и опасность ChatGPT не в том, что он когда-то взбунтуется, а в том, что ему нельзя довериться в важных вещах, поскольку когда он чего-то не знает, он генерирует внешне правдоподобный бред.
Люди ведут себя много хуже. Когда они что-то знают, они обычно молчат. Молчание - золото. Лучше промолчи - сойдёшь за умного. Ну и т.д.  А ещё люди легко и непринуждённо врут что что-то знают хотя на деле ни хрена не знают. А когда не знают, то генерируют внешне правдоподобный бред с вероятностью 146%

Цитата: Игорь Антонов от декабря 05, 2023, 08:15:33Но в тот момент, когда человечество начнёт руководствоваться во всём рекомендациями ChatGPT поколения X, сработает стоп-кран в отношении развития наук и технологий. Поскольку весь контент ИИ, создаваемого на базе современных технологий, полностью вторичен по отношению к уже достигнутому и постигнутому людьми.
Человечество (как множество ВСЕХ людей) никогда не начнёт руководствоваться любыми сколь угодно авторитетными рекомендациями от кого бы или от чего бы они ни исходили. А развитие наук и технологий скорее может остановить а то и обратить вспять (как уже было в "тёмные века") как раз это самое развитие наук и технологий чем какой-то там искусственный мирдверьмяч. Натуральных чуть более чем дофига (см выше) и ничего.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от декабря 05, 2023, 09:44:54
Цитата: Метвед от декабря 05, 2023, 09:32:48Люди ведут себя много хуже. Когда они что-то знают, они обычно молчат. Молчание - золото. Лучше промолчи - сойдёшь за умного. Ну и т.д.  А ещё люди легко и непринуждённо врут что что-то знают хотя на деле ни хрена не знают. А когда не знают, то генерируют внешне правдоподобный бред с вероятностью 146%

Возможно, недостатки у людей те же, что у ИИ, плюс свои ещё хуже, но техническую цивилизацию они создали.
Даже если она накроется, сам факт уже не отменишь.
 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от декабря 05, 2023, 10:28:29
Цитата: Метвед от декабря 05, 2023, 09:32:48Люди ведут себя много хуже. Когда они что-то знают, они обычно молчат. Молчание - золото.
В принципе, удобоваримая аналогия.
  Нести бред, значит работать по созиданию отрицательного ЭП, следовательно, промолчать, оставшись при нуле, означает приобрести разницу в свою пользу.
  Другое дело - сколько чего и на что надо затрачивать, что бы оставаться при собственном нуле, а не падать вслед за прыгающими в колодец?
  Эволюция вполне себе может считаться топтанием на месте, тогда как вокруг властвуют дегенерационные тенденции.

  Если интеллект определить, как скорость правильной реакции, то разум - это способность отличить правильную реакцию от ложной. Или, интеллект - рефлекс, а разум - тормоз для рефлексов, ведущих под горку всеобщего обесценивания.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Метвед от декабря 05, 2023, 12:01:29
Цитата: василий андреевич от декабря 05, 2023, 10:28:29Если интеллект определить, как скорость правильной реакции, то разум - это способность отличить правильную реакцию от ложной. Или, интеллект - рефлекс, а разум - тормоз для рефлексов, ведущих под горку всеобщего обесценивания.
Интеллект я бы определил как способность системы находить правильные решения с вероятностью выше чем в случае случайного выбора.  Случайный выбор прекрасно формализуется, алгоритмизируется и т.д. Был в своё время лет полста назад такой писатель-фантаст Вячеслав Назаров. У него есть чудесная маленькая повестушка "Силайское яблого" - там целой планетой лет сто пятьдесят примерно вполне успешно рулил простой аки мык коровий генератор троичных случайных чисел на атомной батарейке. Его замутил из подручных материалов местный диктатор чтобы не утруждать себя принятием судьбоносных решений. Выглядело это так - все прожекты, законопроекты, рацпредложения и т.д. и т.п. оформленные соотв. образом поступали по конвееру к пишущей машинке которая повинуясь сигналу от ГСЧ шлёпала на них один из трёх вердиктов - Да, Нет, Отложить. Короче, диктатор давно уж сдох но аппарат был сработан на совесть и продолжал успешно  работать.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от декабря 05, 2023, 16:21:37
Цитата: Метвед от декабря 05, 2023, 12:01:29Интеллект я бы определил как способность системы находить правильные решения с вероятностью выше чем в случае случайного выбора.
Можно, но исключив понятие "быстроты" решения, Вы получите, что интеллект всегда принимает правильные решения, потому что через эн сотен лет, от носителей плохих решений останется пшик. Принципиально такова же тупиковость СТЭ - от "плохих мутаций" природа все одно избавится, называть это ЕО или еще как.
  На практике, зачастую, плохое решение, но сделанное, лучше чем ожидание, когда придет правильное. В гротеске надо либо удирать, либо сражаться, а не ждать, когда господь вразумит. Сумасбродности добавляют тесты на коэффициент интеллекта - получается что оригинальное супер умное решение является признаком глупости, ибо из-за этого решения у тестируемого не получилось ответить на остальные изрядно туповатые вопросы.
  Есть еще термин рассудительность, относящаяся к проблеме Осла тов.Буридана. Потому безрассудность решения в виде подбрасывания орел-решка интеллектуальнее копания в справочниках. Потому и ИИ всегда, подчеркиваю, всегда выше ЕИ, как калькулятор практичнее расчетов столбиком. (тут надо помнить о минимизации действия, а не минимизации затрат на действие)

  ПП. Хотя, мы прекрасно понимаем, что Вассерманы интеллектуальнее Ивановых, просто первые не размножаются  :)
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от декабря 05, 2023, 16:34:19
Цитата: Роман Корабельщиков от декабря 05, 2023, 00:16:28Речь идет о формулах в которых присутствует lgN,
А не думали ли Вы о вводе различий между абсолютным и относительным ЭП? Абсолютный ЭП всегда равен единице измерения, тогда как относительный может лишь бесконечно к этой единице стремиться в образе восходяще-затухающей экспоненты.
  На мой взгляд скверного математика такой подсчет относительного ЭП продуктивнее, ибо позволяет рассматривать деградационные эволюционные траектории тех организмов и сообществ, которые составляют средовой фон прогрессирующих систем.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Метвед от декабря 05, 2023, 17:31:16
Цитата: василий андреевич от декабря 05, 2023, 16:21:37Можно, но исключив понятие "быстроты" решения, Вы получите, что интеллект всегда принимает правильные решения, потому что через эн сотен лет, от носителей плохих решений останется пшик.
"Быстрота хороша при ловле блох". "Cкоро только кошки родятся" "Поспешишь - людей насмешишь" ну и т.д.
Там где нужно быстро и правильно вертеть задом (или передом) в ответ на тот или иной стимул из внешней среды интеллект как таковой как раз не нужен никакой системе вовсе. А вот как раз притча о Буридановом осле (или о богатыре на перекрёстке дорог - налево пойдёшь...направо пойдёшь...прямо пойдёшь...) как раз и показывает в каких случаях и для чего системе нужен интеллект.  Для выбора одного из нескольких возможных вариантов. Время тут вообще не критично. А вот обратной дороги может не быть вовсе после одного-единственного шага в неверном направлении.
.........
Что касается Вассермана, он вовсе не интеллектуал а всего-навсего эрудит. Это две огромные разницы. Он, вроде бы, в "клубе знатоков" подвизался поначалу? Это как раз "быстро и правильно вертеть...в ответ на тот или иной стимул)
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от декабря 05, 2023, 20:23:20
 Коллеги, мне кажется нужно извиниться пред Вассерманом и Ивановыми.
 Давайте без лишних эмоций.
 Когда включаются эмоции, ясность уходит в сторону. Она может и хороша для того чтобы увлечь, но часто не туда.
 
 Вы уже во всю "жонглируете" динамическими свойствами эволюции. Мы тут со статикой (усреднённой) разобраться не можем. Нужно как-то это разграничить. Иначе получается каша. Но тема конечно очень интересная!
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от декабря 05, 2023, 20:33:26
   Тут же масса вопросов. Например, если по одной степени свободы происходит уменьшение ЭП, то по другой может быть увеличение ЭП, причем это происходит циклически. Как их соотношения влияют на динамику изменения общего ЭП системы? Эволюция сложных систем должна ли обязательно происходить чрез циклические/волнообразные процессы? ... 
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от декабря 06, 2023, 08:50:41
  Пред конкретными носителями "фамильных терминов" извиняться надо, но не пред их обобщенными образами, становящимися частицами нашей плоти.
  С Вами, Метвед, интересно играть в термины, которые то улетают в разряды "мыка", то восходят в недосягаемость умопостижения. И бацилла становится интеллектуалом, обзаводясь эрудитным жгутиком.

  У Вас, Роман, тусуются четыре термина: интеллект, разум, эволюция и особняком стоящий потенциал. Дать каждому термину четкое определение, значит, перестать понимать, что с ними происходит при дихотомических объединениях. Мы (или только я?) не можем пощупать первые три термина и только потенциалу отводим роль измеряемой четкости, как положительной работе, произведенной системой над средой. При этом среда обладает бесконечным набором эNностей, которые становятся достоянием ЭП системы.
  Получаем средовую шкалу Х, над которой располагаются потенциалы, следовательно шкала У - количество "эволюционик", под которыми Вы, по-видимому разумеете биты-байты информации, как своеобразные флешки памяти. Как разбросаны ЭП "по горизонтали" вообще не рассматривается, отчего эволюцию, как процесс тусовки потенциалов весьма затруднительно представить.
  Потому и затеваются терминологические игры совокуплений интеллекта с разумом, что бы развести эрудицию-вассерманизм с мудростью иванизмов.
Цитата: Роман Корабельщиков от декабря 05, 2023, 20:33:26Эволюция сложных систем должна ли обязательно происходить чрез циклические/волнообразные процессы? ...
Мой ответ - да, но только в рамках волновой парадигмы. За рамками же будет маячить порционная (квантовая) парадигма.
  Получаем, ЭП не как точку, а как колоколообразную стоячую волну над той шкалой, которую можно проградуировать в ...единицах вероятности: нуль - невероятное, случайное событие, бесконечность - событие достоверное. Что бы подавляющее большинство событий не улетали в бесконечность, горизонтальную шкалу вероятностей придется сгущать, как логарифмическую. Прием сгущения шкалы - это переход от линейных зависимостей к "волнообразно изогнутым".
  Получим, что случайное событие при путешествии из начала координат, как микроскопическая волна, обрастает подробностями, когда ее догоняют прочие случайности и теряет подробности, когда из-под нее удирают в бесконечность избыточные подробности. Символом подробности может служить положительное и отрицательное волновое число, как единица, деленная на дельту Х (или два пи на дельту Х).

  В совокупности получаем серии стоячих волн, "покоящихся" над шкалой вероятности за счет равенства входящих и исходящих подробностей, то есть, некий гомеостаз - динамическое равновесие входящей и исходящей "информации".
  К сожалению, как только скажем "степени свободы", то придется переходить к голимой термодинамике с неизбежным введением "отрицательного эволюционного объема", образующегося, как бреши в среде обитания, которые будут олицетворять пустующие экологические ниши. Сделать такой шаг в новую парадигму - весьма затруднительно, ибо вначале надо разобраться со шкалой Z, на которую в равной степени претендует и пространство, и время (хотя мне больше нравится температура).
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Alexeyy от января 16, 2024, 19:10:21
Цитата: Игорь Антонов от декабря 04, 2023, 19:51:56
Цитата: Alexeyy от декабря 04, 2023, 18:00:19любые законы природы (в том числе, которые управляют биотической эволюции) - это ни что иное, как алгоритм (записанный в другой форме). Взять, хотя бы, уравнения квантовой механики (это - ни что иное, как алгоритм; эти законы, в прямом смысле, можно записать в виде самого натурального алгоритма на языке программирования, что и делают, когда ищут решения соответствующих уравнений). Видимо, из-за непонимания этого (или нежелания понимать) у Вас и проистекает принципиальное противопоставление кибернетической модели и законов биотической эволюции.

Алексей, Вы сначала объявляете реализацией алгоритма всё, происходящее в мире
Вы лукавите: я такого не говорил.


Цитата: Игорь Антонов от декабря 04, 2023, 19:51:56Что касается моих утверждений, то я никогда не отрицал, что системогенез и даже сознательное мышление могут быть представлены некоторой математической моделью.
Мои утверждения касаются лишь бесперспективности в отношении решения этих задач текущих подходов эволюционной кибернетики и использования классических вычислений. Я привожу развёрнутые обоснования для этих утверждений и их подтверждает наблюдаемая нами практика. Вы ничего содержательного, с пониманием моих аргументов, моих аргументов, в ответ не приводите
Это Вы в упор не видите или не хотите видеть этого содержательного (в этом - и есть следствие Вашей веры, которую Вы и не осознаёте). Вот именно то, о чём говорил (когда как-то советовал Вам, что можно начать с простейшего - типа клеточных автоматов), оказывается, уже начали реализовывать на практике (самое начало): https://www.youtube.com/watch?v=q0NiHFrdV-w .
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от января 16, 2024, 20:16:38
Цитата: Alexeyy от января 16, 2024, 19:10:21
ЦитироватьЧто касается моих утверждений, то я никогда не отрицал, что системогенез и даже сознательное мышление могут быть представлены некоторой математической моделью.
Мои утверждения касаются лишь бесперспективности в отношении решения этих задач текущих подходов эволюционной кибернетики и использования классических вычислений. Я привожу развёрнутые обоснования для этих утверждений и их подтверждает наблюдаемая нами практика. Вы ничего содержательного, с пониманием моих аргументов, моих аргументов, в ответ не приводите
Это Вы в упор не видите или не хотите видеть этого содержательного (в этом - и есть следствие Вашей веры, которую Вы и не осознаёте). Вот именно то, о чём говорил (когда как-то советовал Вам, что можно начать с простейшего - типа клеточных автоматов), оказывается, уже начали реализовывать на практике (самое начало): https://www.youtube.com/watch?v=q0NiHFrdV-w (https://www.youtube.com/watch?v=q0NiHFrdV-w) .

Алексей, в ролике о "мягких роботах" по Вашей ссылке есть бионика, есть "инженеры придумали", "хорошо продуманные решения", "решение конкретной задачи, для которой этот бот создавался", но там нет сколько-нибудь содержательных и новых подходов к модельному воспроизведению эволюции, системогенеза, мышления.

Тот фрагмент ролика, где речь идёт о машинной эволюции (минуты 24:00-27:00), описывает как раз тот подход к формализации эволюционного процесса, подробному рассмотрению причин бесперспективности которого как раз и посвящена моя статья.



Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Игорь Антонов от января 16, 2024, 23:39:20
P.S.
А с клеточных автоматов, в соответствии с Вашей рекомендацией, я как раз и начинал, уже много лет назад.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от января 17, 2024, 07:52:47
  Автоматы (и автоматизмы психики в том числе) удовлетворяют целевые потребности Создателя (псевдо бога) за счет растрачивания ресурсных средств.
  Надо поменять причинность, что бы фактором стал вектор в направлении естественных растрат "эволюционного потенциала" и, таким образом, избавиться от надобности Создателя. Получим, что работа по поиску алгоритма избавления от свободной (тепловой) кинетики, становится новым ЭП, требующим нового поиска для обнуления ранее произведенной работы.
  Такой "механизм" только выглядит работающим по принципу вечного двигателя, но не является им, если учесть косную надстройку халявного Светила, или иного источника даже в образе флуктуирующего белого шума.
  Спонтанные раздражения нейросети вполне имитируют (отражают) средовые флуктуации. Что бы избавиться от циркулирующих раздражений необходим анализ векторного поля местечковых циркуляров в направлении к той цели, которая является условным внутренним холодильником. Синтез органо-молекулярного кластера таковым холодильником (поглотителем-утилизатором) непременно является.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от марта 21, 2024, 21:17:59
     Интересно было попробовать подобрать такой варианты организации системы, который потенциально способен   к саморазвитию, но не получилось подтвердить такую возможность настолько однозначно и полно, как хотелось. Суммируя можно сказать, что принципиальных препятствий на данном пути нет, но требуется найти ответы на множество самых разных вопросов. В изложенном далее наверно не скажу ничего нового для специалистов.
     Рассмотрим достаточно стандартный принцип обработки информации:  сжатие  поступающей информации из нижележащих подсистем в вышележащие через объединение выходов подсистем нижележащих уровней в «символы» (состояния) для вышележащих. В ряде случаев  результат может свестись до бинарного «да-нет». Такое «сжатие» возможно лишь в среде с ограниченным количеством элементов и состояний, требующих распознавания, иначе обучение теряет смысл из-за бесконечного количества комбинаций и параметров. Поэтому один из вопросов требующих решения: как ограничить эту самую бесконечность, не потеряв детали, важные для будущего развития?
     Для живых существ подобным ограничителем служит естественный отбор, отбраковывающий интеллектуальные процессы наиболее несоответствующие основным особенностям окружающей среды. Похоже, что для ИР  такое ограничение может существовать также только при его тесной связи с окружающим миром.  Отсюда следует и важность первоначального выбора высших целей закладываемых в ИР человеком на момент его создания. Познание окружающего мира как высшая цель видится вполне достаточной и необходимой.
     Рассматривая модель ИР, количество требуемых  слоев может близким к количеству основных степеней свободы, свойственному моделируемым живым организмам (системам). Для человека в расчетах его ЭП было их выделено порядка 10-и. В качестве этой гипотезы взято предположение, что появление и развитие каждой из степеней свободы сопровождается развитием мозга, заключающееся не только в совершенствовании его существующих систем, но и увеличении количества слоев, объединяющих более простые символы во все более сложные. Слои требуемые для реализации теоретически могут располагаться, условно говоря, и «вертикально» в виде 10-и внутренних подсистем с перекрестными связями между ними, объединяемых верхними и нижними слоями. Для искусственных моделей это не проблема, а для живых систем такой вариант наталкивается на трудности наращивания количества и сложности вертикальных конгломератов в ограниченном уже заполненном (внутричерепном) пространстве.
     Пускай  все подсистемы имеют максимальную степенью «реализованности»  (см. определение ЭП)  и на каждом условном «уровне» происходит объединение 10-и нижележащих элементов (подсистем) в одну. Тогда 1,111..10 нейронов смогут реализовать 10-и уровневую систему с 1010 нейронами на «нижнем уровне».  Дальнейшая (внутренняя) разбивка самих уровней на подсистемы зависит от «локальных» сложностей  со своими внутренними степенями свободы.  Поэтому количество нейронов, требуемое для реализации ИР, понадобится значительно больше расчетного.
     Предположим, что возможен способ самоорганизации через активизацию «свободных единиц», способных образовывать новые соединения и уровни. Инициацией такого процесса, может быть ситуация с новой, недостаточной для текущего распознавания совокупностью состояний или символов, но при этом такая, чтобы данная «комбинация» в дальнейшем могла стать «узнаваемой».  Этот ситуацию можно описать как факт выявления «неполноты картины».
    Если такой подход принять в качестве формообразующего, то в этом случае придется разрешить противоречие с процессом образования отдельных, связанных временной последовательностью одноуровневых кластеров (локальных зон), делающих возможным групповое распознавание, после которого будет происходить активизация верхнего уровня. Пока что трудно сказать: в какой момент должен образоваться символ нового уровня, а когда еще идет процесс запоминания последовательности на текущем уровне.
     По другому неполноту  можно описать как недостаточность в распознавании совокупности элементов в ситуации, когда в ней имеется ряд явно идентифицированных элементов с одной или более степеней свободы, сопровождаемых признаками идентификации других элементов, не попадающих в совокупность, объединяемую на данном интеллектуальном уровне. 
     Свойства алгоритмов ИР:
    - самоорганизация как способность построения все более сложных абстрактных моделей предполагает наличие у системных единиц свойств соединяться, образовывать новые уровни и выстраиваться в сложные цепочки на нескольких уровнях;
    - изменение состояний подсистем верхнего уровня («точки зрения») должно проецироваться в изменения нижележащих уровней.
     По другому говоря, должен быть решен вопрос о реализации механизмов развитии подсистемы на горизонтальном уровне, расщепления подсистемы на подуровни, а также локальной «сшивки» нескольких уровней.

Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от марта 21, 2024, 21:24:12
    Существует много вариантов построения ИИ на основе нейронных сетей. Системообразующие единицы (узлы) могут состоять  из одного или более элементов нескольких типов, соответствующих той или иной специфике организации системы. В самом начале из них могут быть выстроены основные функциональные подсистемы с известными характеристиками. Элементы будущих верхних уровней могут присутствовать в виде однородной среды,  построенной из узлов нескольких видов и расширенной встроенными механизмами обучения и реорганизации.  К сожалению, описание вариантов дальнейшего развития такой самоорганизующейся системы неочевидно и не так наглядно, как хотелось бы.
Изменим подход. В процессе познания (и обучения) можно  выделить два направления: последовательное объединение сгруппированных локальных данных и символов во все более сложный символ (похоже на классификацию) и объединение в символы распределённых далеко друг от друга разрозненных данных и символов (похоже на интуицию).
    Рассмотрим гипотетическую многослойную систему с узлами нейронного типа и «степенью сжатия» N=10. Количество связей, приходящихся на 1 нейрон, ограничим величиной W>>N.  Для пояснения идеи сформируем системообразующие единицы из парных нейронов (classific и intuit). В слоях эти единицы связаны друг с другом в виде «конусов со схождением наверху», широкой частью опирающихся на самый нижний слой. У нейронов типа intuit связи разбросаны на значительные расстояния по сравнению с локально группированными у classific. Все нейроны имеют индекс, обозначающих их условный слой (уровень) и также признак активности (могут быть и другие признаки).
    Конус образуется нейронами с последовательно нарастающими индексами.  Они образуют «дерево» через ветвящиеся сверху вниз соединения, объединяя выходы и входы системы. Обозначим classific нейроны нулевого уровня: Ac01,  Аl02...,  intuit Ai01,  Аi02...и т.д.  Первого: Аc11, Аc12,... и  Ai11,  Аi12... и т.д.. Нейроны  активны как в момент превышения сигналом порога, так и некоторое время после этого. Во всех парах выход Ac  подключен ко входу Ai.
Если какой-то момент времени возникнет такая комбинация сигналов, что станут активными, например, нейрон AcY1 (индекс Y) и его напарник нейрон АiY1, можно говорить о возникновении конкуренции между двумя выходами. В этом случае возможны варианты.  Можно отключить выход  AcY1 от вышестоящих нейронов и заменить его выходом  АiY1. Или не отключать, а выход АiY1 подключить на входы уровня на единицу больше.
    Если процесс интеллектуального обучения определить как формирование и фиксирование (запоминание)  в интеллектуальном пространстве новых структур соответствующих моделям, получившим подтверждение, то данные процессы должны сопровождаться также процессами-антагонистами,  так или иначе меняющими или даже разрушающими ранее созданные структуры.
    Для обучения системы через новые «модели», поступающие с верхних уровней можно использовать обратные связи верхних с нижележащими уровнями, возбуждающие входы нижележащих доступных подсистем, тем самым имитируя входные сигналы. Затем проверять «тестируемую модель» на правильность распознавания комбинации этих данных. Если она оказывается несовместимой (нет узнавания), можно инициировать действия для получения дополнительной информации. Если модель достаточно совместима (порог), то делается корректировка весовых коэффициентов под данную комбинацию.  Следовательно, в процессе обучения интеллектуальная система должна помнить как минимум две «модели» и набор данных (символов) к ним относящихся:  новую (cформированную сверху->вниз) и существующую.
    Немного о горизонтальных связях.
Допустим, система строится на базе универсальных нейронов и ряда вспомогательных подсистем, с помощью которых реализуются  различные функциональные особенности.  Развитие  системы происходит на основе степеней свободы нейронов, топологически имеющих вид  «по горизонтали» (на одном уровне) и «по вертикали» (ниже и выше).
    Третья степень свободы – это изменение состояний нейронов во времени. Однако поведение группы нейронов (и моделей) может подчиняться и другим (групповым) правилам как в результате их самоорганизации, так и воздействия специализированных подсистемам или единицам. Например, последние могут периодически (ритмично) инициировать  изменения в различных группах элементов.
    Для соответствия скорости изменениям среды во временной области (третьей степени свободы элемента) можно заложить некий механизм «старения» в соответствии с которым происходит уменьшение во времени порогов «неактивных» нейронов (аналог забывания). Тогда внешние события (информация) заставят эти нейроны и подсистемы (области) в какой-то момент времени начать переобучаться. Также нужна возможность уменьшать сам временной интервал для ускорения обучения в быстроменяющихся ситуациях, или уметь подстраиваться под частоту однотипных событий во времени.
    С другой стороны, такие элементы, как долговременная память, не должны деградировать со временем. Что указывает на необходимость иметь два или более типов системообразующих элементов с различными временными характеристиками или один со сложностью покрывающую  все требуемые варианты.

Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от марта 21, 2024, 21:30:33
    Василий Андреевич. Раз уж вы коснулись физики. Вот такой фантастический вариант:
 
    В процессе раздумий )) возникли ассоциации способов организации ИР чем-то напоминающих цепочки ДНК в которой информация не только кодируется в последовательном виде, но и используется по мере необходимости с различными вариантами, зависящими от текущего состояния. Возможно, что в будущем некоторые будущие представители ИР будут представлять из себя длинные цепочки, упакованные кольцеобразно в Носитель или вообще образованные вихревыми замкнутыми в кольцо полями.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от марта 21, 2024, 21:32:09
   И еще для разминки.
   Интересно было бы  рассмотреть популяцию живых существ как набор обучающихся элементов типа нейронов с изменяющейся внутренней и внешней средой. В этом случае выживаемость всего лишь способ формирования выше упомянутого временного фактора.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от апреля 03, 2024, 08:08:06
  Ох, Роман, Вы сказанули столь много, что несколько раз можно воскликнуть "Эврика". Как объять?
  Самоорганизация, это знойная женщина, которая задушит в своих объятиях мечту поэта, бочком проскользнув мимо запрещающих физических законов.
  Представьте палеонтологические слои с фоссилиями из давно вымерших организмов. Так вот, геном работает так, что учитывает мнения давно вымерших царств, когда-то встававших на плечи предшественников, что бы образовать горизонтальное взаимодействие. Получаем не просто конус снизу вверх, а конструкцию кон-ин-кон (конус в конусе), причем так, что ковергируемые в каждом конусе сигналы подходят к неосвоенной поверхности "решения" одновременно, да еще в том согласованном виде, который допускает образование волнового пакета со свехамплитудной стоячей волной ЭП.
  А ведь в мозге не только нейросети, но еще и химические медиаторы, которыми приходится пренебрегать (а нельзя).

  Самая простая модель - это горизонтальная ротация сигналов по принципу много входов, мало выходов. Процесс обесценивания ротирующих множеств - это сокращение числа векторов моментов сил при том, что растет их величина. Каждый вектор порождает в верхнем слое свою ротацию со своим уже более сложным вертикальным векторным полем.
  В итоге получаем тот единственный "вектор стоячей волны" за производство которого система должна получить награду в образе химического медиатора. Если награды не получено (или ее недостаточно) то придется начинать заново.
  Вот это "заново" является, по сути, временной петлей, когда система возвращается в исходное состояние, но уже с грузом памяти о незавершенных ротациях на каждом уровне. И именно эти незавершенные ротации станут главными вехами при принятии того решения, которое не вытекает прямым следствием какой-то конкретной сиюминутной причины.
  Удобное название такого решения - идея, т.е. рождение не клона, а трансформера, способного вписаться в принципиально непредсказуемое стечение обстоятельств.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: Роман Корабельщиков от апреля 03, 2024, 21:55:13
  Интересно.. Нужно подумать... В како-то мере можно сказать и так, что наличие у системы той или иной "степени свободы" это всего лишь только "цветы" для той знойной женщины, которая "ходит бочком" ...
  Смена "линейных" цепочек на "циркулирующие" самообучающиеся довольно интересно усложняет систему.  Мне кажется из существующих есть что-то, но отдаленно похожее по организации без такого явного набора свойств.
Название: От: Оценка Эволюционного потенциала искусственного разума
Отправлено: василий андреевич от апреля 11, 2024, 07:53:37
Цитата: Роман Корабельщиков от апреля 03, 2024, 21:55:13наличие у системы той или иной "степени свободы"
Жаль, что в этой теме мало участников, а я не умею читать логарифмы, пока их не нарисую.
  Насколько меня хватает, могу искусственно разделить кинетические (наблюдаемые) и потенциальные (вычисляемые) степени свободы, что бы туман или белый шум наделить бесконечным числом кинетических свобод. Получить информацию из белого шума, значит одну из "кинетик" среды перевести в "потенцию" приемника.
  Но работать с бесконечностью неудобно, потому придется источнику приписать конечное число тех свобод, которые он теряет в естественном процессе обесценивания. Релаксация источника по ниспадающей экспоненте (можно и по десятичному логарифму) - пусть будет "законом инфляции", как утрата у приемника интереса к определенной кинетической свободе.
  Получаем, что экспонентное исчерпание источника соответствует симметричному наполнению приемника. Предел наполнения, по сути, можно назвать Вашим ЭП. Потенциалом в том смысле, что эта величина находится энергетически выше того уровня, который принимается за нулевой.
  Но этот потенциал физически невозможно поддерживать, более того, он, имея теоретический предел, никогда его не достигнет, потому что сам приемник, по мере роста потенциала будет вынужден расходовать на поддержание роста все больше и больше, переходя в режим "старения" - от пикового максимума к ниспадающей релаксации, стремящейся к нулевому уровню.

  Как быть?
  Живое то, что на этапе старения, порождает клон.
  И самое удивительное, что клон, рождаясь практически на нулевой шкале Х, тем не менее, обладает значительным потенциалом. Потенциалом над каким уровнем?

  Я понимаю только так, что инфляция (переход "информации" от источника к приемнику) созидает новый отрицательный потенциальный уровень, от которого и надо отсчитывать потенцию клона. Как я ни крутил, наиболее общей кривой, характеризующей эволюцию потенциального уровня, является ниспадающая S-образная кривая, которую иногда называют логистической или сигмоидной функцией.
  Если эту ниспадающую логисту удастся пощупать на практике..., то ... Ваш ЭП станет реальностью, передаваемой по наследству.