Оценка Эволюционного потенциала искусственного разума

Автор Роман Корабельщиков, ноября 01, 2022, 14:07:26

« назад - далее »

Alexeyy

#75
Цитата: Игорь Антонов от декабря 04, 2023, 19:51:56
Цитата: Alexeyy от декабря 04, 2023, 18:00:19любые законы природы (в том числе, которые управляют биотической эволюции) - это ни что иное, как алгоритм (записанный в другой форме). Взять, хотя бы, уравнения квантовой механики (это - ни что иное, как алгоритм; эти законы, в прямом смысле, можно записать в виде самого натурального алгоритма на языке программирования, что и делают, когда ищут решения соответствующих уравнений). Видимо, из-за непонимания этого (или нежелания понимать) у Вас и проистекает принципиальное противопоставление кибернетической модели и законов биотической эволюции.

Алексей, Вы сначала объявляете реализацией алгоритма всё, происходящее в мире
Вы лукавите: я такого не говорил.


Цитата: Игорь Антонов от декабря 04, 2023, 19:51:56Что касается моих утверждений, то я никогда не отрицал, что системогенез и даже сознательное мышление могут быть представлены некоторой математической моделью.
Мои утверждения касаются лишь бесперспективности в отношении решения этих задач текущих подходов эволюционной кибернетики и использования классических вычислений. Я привожу развёрнутые обоснования для этих утверждений и их подтверждает наблюдаемая нами практика. Вы ничего содержательного, с пониманием моих аргументов, моих аргументов, в ответ не приводите
Это Вы в упор не видите или не хотите видеть этого содержательного (в этом - и есть следствие Вашей веры, которую Вы и не осознаёте). Вот именно то, о чём говорил (когда как-то советовал Вам, что можно начать с простейшего - типа клеточных автоматов), оказывается, уже начали реализовывать на практике (самое начало): https://www.youtube.com/watch?v=q0NiHFrdV-w .

Игорь Антонов

Цитата: Alexeyy от января 16, 2024, 19:10:21
ЦитироватьЧто касается моих утверждений, то я никогда не отрицал, что системогенез и даже сознательное мышление могут быть представлены некоторой математической моделью.
Мои утверждения касаются лишь бесперспективности в отношении решения этих задач текущих подходов эволюционной кибернетики и использования классических вычислений. Я привожу развёрнутые обоснования для этих утверждений и их подтверждает наблюдаемая нами практика. Вы ничего содержательного, с пониманием моих аргументов, моих аргументов, в ответ не приводите
Это Вы в упор не видите или не хотите видеть этого содержательного (в этом - и есть следствие Вашей веры, которую Вы и не осознаёте). Вот именно то, о чём говорил (когда как-то советовал Вам, что можно начать с простейшего - типа клеточных автоматов), оказывается, уже начали реализовывать на практике (самое начало): https://www.youtube.com/watch?v=q0NiHFrdV-w .

Алексей, в ролике о "мягких роботах" по Вашей ссылке есть бионика, есть "инженеры придумали", "хорошо продуманные решения", "решение конкретной задачи, для которой этот бот создавался", но там нет сколько-нибудь содержательных и новых подходов к модельному воспроизведению эволюции, системогенеза, мышления.

Тот фрагмент ролика, где речь идёт о машинной эволюции (минуты 24:00-27:00), описывает как раз тот подход к формализации эволюционного процесса, подробному рассмотрению причин бесперспективности которого как раз и посвящена моя статья.




Игорь Антонов

P.S.
А с клеточных автоматов, в соответствии с Вашей рекомендацией, я как раз и начинал, уже много лет назад.

василий андреевич

  Автоматы (и автоматизмы психики в том числе) удовлетворяют целевые потребности Создателя (псевдо бога) за счет растрачивания ресурсных средств.
  Надо поменять причинность, что бы фактором стал вектор в направлении естественных растрат "эволюционного потенциала" и, таким образом, избавиться от надобности Создателя. Получим, что работа по поиску алгоритма избавления от свободной (тепловой) кинетики, становится новым ЭП, требующим нового поиска для обнуления ранее произведенной работы.
  Такой "механизм" только выглядит работающим по принципу вечного двигателя, но не является им, если учесть косную надстройку халявного Светила, или иного источника даже в образе флуктуирующего белого шума.
  Спонтанные раздражения нейросети вполне имитируют (отражают) средовые флуктуации. Что бы избавиться от циркулирующих раздражений необходим анализ векторного поля местечковых циркуляров в направлении к той цели, которая является условным внутренним холодильником. Синтез органо-молекулярного кластера таковым холодильником (поглотителем-утилизатором) непременно является.

Роман Корабельщиков

     Интересно было попробовать подобрать такой варианты организации системы, который потенциально способен   к саморазвитию, но не получилось подтвердить такую возможность настолько однозначно и полно, как хотелось. Суммируя можно сказать, что принципиальных препятствий на данном пути нет, но требуется найти ответы на множество самых разных вопросов. В изложенном далее наверно не скажу ничего нового для специалистов.
     Рассмотрим достаточно стандартный принцип обработки информации:  сжатие  поступающей информации из нижележащих подсистем в вышележащие через объединение выходов подсистем нижележащих уровней в «символы» (состояния) для вышележащих. В ряде случаев  результат может свестись до бинарного «да-нет». Такое «сжатие» возможно лишь в среде с ограниченным количеством элементов и состояний, требующих распознавания, иначе обучение теряет смысл из-за бесконечного количества комбинаций и параметров. Поэтому один из вопросов требующих решения: как ограничить эту самую бесконечность, не потеряв детали, важные для будущего развития?
     Для живых существ подобным ограничителем служит естественный отбор, отбраковывающий интеллектуальные процессы наиболее несоответствующие основным особенностям окружающей среды. Похоже, что для ИР  такое ограничение может существовать также только при его тесной связи с окружающим миром.  Отсюда следует и важность первоначального выбора высших целей закладываемых в ИР человеком на момент его создания. Познание окружающего мира как высшая цель видится вполне достаточной и необходимой.
     Рассматривая модель ИР, количество требуемых  слоев может близким к количеству основных степеней свободы, свойственному моделируемым живым организмам (системам). Для человека в расчетах его ЭП было их выделено порядка 10-и. В качестве этой гипотезы взято предположение, что появление и развитие каждой из степеней свободы сопровождается развитием мозга, заключающееся не только в совершенствовании его существующих систем, но и увеличении количества слоев, объединяющих более простые символы во все более сложные. Слои требуемые для реализации теоретически могут располагаться, условно говоря, и «вертикально» в виде 10-и внутренних подсистем с перекрестными связями между ними, объединяемых верхними и нижними слоями. Для искусственных моделей это не проблема, а для живых систем такой вариант наталкивается на трудности наращивания количества и сложности вертикальных конгломератов в ограниченном уже заполненном (внутричерепном) пространстве.
     Пускай  все подсистемы имеют максимальную степенью «реализованности»  (см. определение ЭП)  и на каждом условном «уровне» происходит объединение 10-и нижележащих элементов (подсистем) в одну. Тогда 1,111..10 нейронов смогут реализовать 10-и уровневую систему с 1010 нейронами на «нижнем уровне».  Дальнейшая (внутренняя) разбивка самих уровней на подсистемы зависит от «локальных» сложностей  со своими внутренними степенями свободы.  Поэтому количество нейронов, требуемое для реализации ИР, понадобится значительно больше расчетного.
     Предположим, что возможен способ самоорганизации через активизацию «свободных единиц», способных образовывать новые соединения и уровни. Инициацией такого процесса, может быть ситуация с новой, недостаточной для текущего распознавания совокупностью состояний или символов, но при этом такая, чтобы данная «комбинация» в дальнейшем могла стать «узнаваемой».  Этот ситуацию можно описать как факт выявления «неполноты картины».
    Если такой подход принять в качестве формообразующего, то в этом случае придется разрешить противоречие с процессом образования отдельных, связанных временной последовательностью одноуровневых кластеров (локальных зон), делающих возможным групповое распознавание, после которого будет происходить активизация верхнего уровня. Пока что трудно сказать: в какой момент должен образоваться символ нового уровня, а когда еще идет процесс запоминания последовательности на текущем уровне.
     По другому неполноту  можно описать как недостаточность в распознавании совокупности элементов в ситуации, когда в ней имеется ряд явно идентифицированных элементов с одной или более степеней свободы, сопровождаемых признаками идентификации других элементов, не попадающих в совокупность, объединяемую на данном интеллектуальном уровне. 
     Свойства алгоритмов ИР:
    - самоорганизация как способность построения все более сложных абстрактных моделей предполагает наличие у системных единиц свойств соединяться, образовывать новые уровни и выстраиваться в сложные цепочки на нескольких уровнях;
    - изменение состояний подсистем верхнего уровня («точки зрения») должно проецироваться в изменения нижележащих уровней.
     По другому говоря, должен быть решен вопрос о реализации механизмов развитии подсистемы на горизонтальном уровне, расщепления подсистемы на подуровни, а также локальной «сшивки» нескольких уровней.


Роман Корабельщиков

    Существует много вариантов построения ИИ на основе нейронных сетей. Системообразующие единицы (узлы) могут состоять  из одного или более элементов нескольких типов, соответствующих той или иной специфике организации системы. В самом начале из них могут быть выстроены основные функциональные подсистемы с известными характеристиками. Элементы будущих верхних уровней могут присутствовать в виде однородной среды,  построенной из узлов нескольких видов и расширенной встроенными механизмами обучения и реорганизации.  К сожалению, описание вариантов дальнейшего развития такой самоорганизующейся системы неочевидно и не так наглядно, как хотелось бы.
Изменим подход. В процессе познания (и обучения) можно  выделить два направления: последовательное объединение сгруппированных локальных данных и символов во все более сложный символ (похоже на классификацию) и объединение в символы распределённых далеко друг от друга разрозненных данных и символов (похоже на интуицию).
    Рассмотрим гипотетическую многослойную систему с узлами нейронного типа и «степенью сжатия» N=10. Количество связей, приходящихся на 1 нейрон, ограничим величиной W>>N.  Для пояснения идеи сформируем системообразующие единицы из парных нейронов (classific и intuit). В слоях эти единицы связаны друг с другом в виде «конусов со схождением наверху», широкой частью опирающихся на самый нижний слой. У нейронов типа intuit связи разбросаны на значительные расстояния по сравнению с локально группированными у classific. Все нейроны имеют индекс, обозначающих их условный слой (уровень) и также признак активности (могут быть и другие признаки).
    Конус образуется нейронами с последовательно нарастающими индексами.  Они образуют «дерево» через ветвящиеся сверху вниз соединения, объединяя выходы и входы системы. Обозначим classific нейроны нулевого уровня: Ac01,  Аl02...,  intuit Ai01,  Аi02...и т.д.  Первого: Аc11, Аc12,... и  Ai11,  Аi12... и т.д.. Нейроны  активны как в момент превышения сигналом порога, так и некоторое время после этого. Во всех парах выход Ac  подключен ко входу Ai.
Если какой-то момент времени возникнет такая комбинация сигналов, что станут активными, например, нейрон AcY1 (индекс Y) и его напарник нейрон АiY1, можно говорить о возникновении конкуренции между двумя выходами. В этом случае возможны варианты.  Можно отключить выход  AcY1 от вышестоящих нейронов и заменить его выходом  АiY1. Или не отключать, а выход АiY1 подключить на входы уровня на единицу больше.
    Если процесс интеллектуального обучения определить как формирование и фиксирование (запоминание)  в интеллектуальном пространстве новых структур соответствующих моделям, получившим подтверждение, то данные процессы должны сопровождаться также процессами-антагонистами,  так или иначе меняющими или даже разрушающими ранее созданные структуры.
    Для обучения системы через новые «модели», поступающие с верхних уровней можно использовать обратные связи верхних с нижележащими уровнями, возбуждающие входы нижележащих доступных подсистем, тем самым имитируя входные сигналы. Затем проверять «тестируемую модель» на правильность распознавания комбинации этих данных. Если она оказывается несовместимой (нет узнавания), можно инициировать действия для получения дополнительной информации. Если модель достаточно совместима (порог), то делается корректировка весовых коэффициентов под данную комбинацию.  Следовательно, в процессе обучения интеллектуальная система должна помнить как минимум две «модели» и набор данных (символов) к ним относящихся:  новую (cформированную сверху->вниз) и существующую.
    Немного о горизонтальных связях.
Допустим, система строится на базе универсальных нейронов и ряда вспомогательных подсистем, с помощью которых реализуются  различные функциональные особенности.  Развитие  системы происходит на основе степеней свободы нейронов, топологически имеющих вид  «по горизонтали» (на одном уровне) и «по вертикали» (ниже и выше).
    Третья степень свободы – это изменение состояний нейронов во времени. Однако поведение группы нейронов (и моделей) может подчиняться и другим (групповым) правилам как в результате их самоорганизации, так и воздействия специализированных подсистемам или единицам. Например, последние могут периодически (ритмично) инициировать  изменения в различных группах элементов.
    Для соответствия скорости изменениям среды во временной области (третьей степени свободы элемента) можно заложить некий механизм «старения» в соответствии с которым происходит уменьшение во времени порогов «неактивных» нейронов (аналог забывания). Тогда внешние события (информация) заставят эти нейроны и подсистемы (области) в какой-то момент времени начать переобучаться. Также нужна возможность уменьшать сам временной интервал для ускорения обучения в быстроменяющихся ситуациях, или уметь подстраиваться под частоту однотипных событий во времени.
    С другой стороны, такие элементы, как долговременная память, не должны деградировать со временем. Что указывает на необходимость иметь два или более типов системообразующих элементов с различными временными характеристиками или один со сложностью покрывающую  все требуемые варианты.


Роман Корабельщиков

    Василий Андреевич. Раз уж вы коснулись физики. Вот такой фантастический вариант:
 
    В процессе раздумий )) возникли ассоциации способов организации ИР чем-то напоминающих цепочки ДНК в которой информация не только кодируется в последовательном виде, но и используется по мере необходимости с различными вариантами, зависящими от текущего состояния. Возможно, что в будущем некоторые будущие представители ИР будут представлять из себя длинные цепочки, упакованные кольцеобразно в Носитель или вообще образованные вихревыми замкнутыми в кольцо полями.

Роман Корабельщиков

   И еще для разминки.
   Интересно было бы  рассмотреть популяцию живых существ как набор обучающихся элементов типа нейронов с изменяющейся внутренней и внешней средой. В этом случае выживаемость всего лишь способ формирования выше упомянутого временного фактора.