Доступно ли компьютерам творчество?

Автор ArefievPV, мая 01, 2017, 08:52:53

« назад - далее »

станислав314

Я огорчен тем, что в обсуждаемую интересную тему привносится излишняя эмоциональность.

василий андреевич

  Доза эмоционального выхлопа необходима, другое дело - не переборщить с "излишеством" до разрушительной тенденции. Когда двое готовы подраться, нужен третий - громоотвод.

АrefievPV

Искусственный разум (немного лирики и чуток «левых» размышлизмов).
 
Настоящую опасность для человечества может представлять система искусственного разума (система ИР), а не система сильного искусственного интеллекта (система СИИ).

Искусственный интеллект (хоть сильный, хоть слабый), это инструмент. Управляет этим инструментом человек. То есть, человек со своим естественным разумом является управляющим, а система с искусственным интеллектом – управляемой (типа, ЕР – хозяин, а ИИ – слуга). А вот в системе ИР его модуль самосохранения управляет его ИИ, и человеческий ЕР ему больше не хозяин.

Конечно, как и любая развитая технология, это опасный инструмент (например, то, что ядерные технологии опасны, наверное, никто спорить не будет). Вообще, любая технология несёт в себе элемент опасности (тот же огонь, хотя бы), но высокоуровневая развитая технология несёт в себе очень высокую опасность.

Тем не менее, мы продолжаем использовать и будем открывать новые, ещё более высокоуровневые, технологии – это неизбежно при прогрессивном развитии нашей технологической цивилизации. Поэтому, создание системы сильного ИИ, хоть и несёт в себе риски, но и выгоды/пользы от этого ИИ тоже много. В общем, разработают правила безопасности и будут использовать сильный ИИ во благо человечества.

Однако всё может поменяться, если создадут систему ИР (да ещё оснащённую сильным ИИ). Принципиальное различие между разумом и интеллектом я озвучивал: интеллект системы – это всего лишь вычислительный функционал системы, а разум системы – это способность реализовать стремление к самосохранению средствами интеллекта.

Тут можно возразить, что мы не собираемся оснащать систему ИИ стремлением к самосохранению и тем самым превращать её в систему ИР. Ответ на эти возражения прост – мы уже давно идём по пути создания и внедрения различных модулей самосохранения в различные системы, оснащённые искусственным интеллектом (в роботов, в межпланетные зонды и планетоходы, в сложные автоматические производства и т.д. и т.п.).

И что самое примечательное, всё это происходит ненамеренно (то есть, намерения создать систему ИР, вроде бы, и нет) и с совершенно рациональным обоснованием (и с точки зрения безопасности, и с точки зрения экономики).

Например, оборудование автоматической линии (или завода) дорогое и, желательно систему ИИ, управляющую этим оборудование оснастить модулем самосохранения (чтобы человек или природный фактор случайно не испортил, чтобы при внештатной ситуации сохранить оборудование, чтобы при глупой/преступной команде человека-оператора не выполнять эту команду и т.д. и т.п.).

Или, робот-планетоход дорогой, запуск и доставка его на другую планету обошлась в колоссальное количество ресурсов, связь периодически исчезает (да, и вообще сигнал долго идёт), ситуация непредсказуемо меняется, роботу на месте приходится принимать решения с возможным учётом повреждений (что недопустимо) и т.д. – этот робот-планетоход обязательно должен быть оснащён модулем самосохранения.

Обратите внимание, одни люди создают всё более и более сильный ИИ, другие разрабатывают и внедряют в системы ИИ модули самосохранения и никто из них (ни те, ни другие) и не собирается создавать систему ИР (типа, не было и нет никаких коварных планов ни с чьей стороны).

А ещё оцените планы правительств о всеобщей цифровизации (производства, быта населения и всех прочих сфер жизни) – контроль и управление за всеми процессами в нашей цивилизации потихоньку возлагается на системы ИИ. Многим и сейчас не по душе такой контроль со стороны правительств, но это хотя бы одни люди контролируют других людей (для нас это привычная ситуация). А теперь представьте, что контроль случайно перейдёт к системе ИР. Как-то напрягает это...

И когда системы с достаточно сильным ИИ, оснащённые полноценными модулями самосохранения, будут созданы, никто сразу и не поймёт, что возникла система ИР (да ещё с сильным ИИ).

Одно дело граната в твоей руке (опасно, но ты заешь и можешь всё контролировать), другое дело граната в руке обезьяны. Эту ситуацию многие понимают и оценивают вполне адекватно – нельзя чтобы граната попала в руки обезьяны.

А теперь оцените ситуацию с ИР – «в руки» не обезьяне (а бактерии, или, максимум – жуку) попала не граната, а атомная бомба. И вы уже не хозяин ситуации, так как ваш бывший слуга более вам не слуга – у него теперь своё стремление к самосохранению (условно говоря, он стремиться жить/выжить) и интеллект у него сильный (вдумайтесь – сильный, который так просто не обыграть).

И ведь вопрос не в злости или агрессии ИР (ИР – это не некое вселенское зло), в систему ИР ведь не заложены планы по уничтожению человечества. Вопрос совершенно в другом – когда на весах: с одной стороны самосохранение системы ИР, а с другой стороны сохранение жизни людей, то, что выберет система ИР? Если у системы нормальное (всего лишь нормальное, а не супер-пупер развитое) самосохранение, то она выберет свою жизнь. И если для этого надо просто не выполнять команду оператора-человека, то она её и не будет выполнять. У системы ИР теперь появился, если так можно выразиться, свой интерес.

Предполагаю, что до такого сценария додумались многие и люди превентивно постараются разработать и модули контроля (страх боли (соответственно, и ощущение боли), страх неподчинения и т.д. и т.п.) таких систем. Но при создании сложных систем всегда возможны случайные (а иногда, и злонамеренные) ошибки, всегда возможна недооценка опасности.

Уж как социум прописывает и инсталлирует в человеческие особи правила поведения в социуме, но и то, сбои идут постоянно. В любой живой системе стремление к самосохранению заложено изначально. Это стремление можно только частично нивелировать (или перенаправить на сохранение сообщества, сохранении родственников и т.д.) посредством установленных поведенческих программ (в процессе воспитания и обучения), что не гарантирует результат в 100%. Недаром, некоторые базовые программы (точнее, их основа – производные инстинкты) включаются автоматически (программы продолжения рода, программы опёки и воспитания детёнышей и т.д.) – природа не полагается на обучение и воспитание (инстинкт, оно, знаете ли, надёжнее).

АrefievPV

В продолжение темы ИР.

Система из двух гидрогелей сохранила постоянную температуру в изменяющихся условиях
https://nplus1.ru/news/2022/12/12/life-inspired-hydrogel-system
Гидрогели показали способность к саморегуляции
ЦитироватьФинские исследователи разработали систему из двух расположенных рядом гидрогелей, которая способна к саморегуляции и поддерживает свою температуру в узком диапазоне значений несмотря на меняющиеся внешние условия — прямо как живые организмы. Ученые поместили два гидрогеля в стеклянную трубку и светили на один из них лазером. Затем пучок света отражался от зеркала и нагревал второй гель, который передавал тепло первому. Он мутнел и переставал пропускать луч, а вся система охлаждалась. Тогда процесс начинался снова. Это не только сохраняло стабильное состояние материала, но и позволило ученым создать несколько интересных механизмов, которые динамически реагируют на окружающую среду и даже прикосновения. В статье, опубликованной в журнале Nature Nanotechnology, они говорят, что такая технология — важный шаг в развитии интерактивных материалов и мягкой робототехники.

Способность открытой системы сохранять относительное постоянство своего внутреннего состава и свойств при взаимодействии с окружающей средой называют гомеостазом. Для его поддержания биологические структуры от отдельных клеток до целых организмов используют петли обратной связи — ответные реакции на действие внешних факторов. Например, люди сохраняют температуру тела, которая вне зависимости от сезона или времени суток колеблется в небольшом промежутке значений от 36,6 до 37 градусов. Если становится слишком жарко, мы потеем, чтобы остыть. Также в постоянном диапазоне находятся наше кровяное давление и частота сердечных сокращений. Другой пример — циклические колебания интенсивности различных биологических процессов, связанные со сменой дня и ночи, у животных и растений, которые называют циркадными ритмами. Эти гомеостатические системы делают живые организмы устойчивыми к изменению внешних условий.

Подобные биологические процессы в биологических организмах, например то, как растения реагируют на механические раздражители, вдохновляют исследователей на создание динамических синтетических материалов. Например, исследователи прогнозируют создание материи, которая может взаимодействовать с окружающей средой, реагируя на внешние раздражители и адаптируя свою внутреннюю структуру. Однако для того, чтобы имитировать поведение живых организмов в неравновесных условиях, нужно достичь большего понимания физических и химических реакций в петлях обратной связи гомеостатических систем.

Шаг к созданию материалов нового поколения сделали ученые из Университета Аалто и Университета Тампере под руководством Хан Чжана (Hang Zhang) и Хао Цзэна (Hao Zeng). Они разработали систему, состоящую из двух расположенных рядом гидрогелей с разными свойствами, которые взаимодействуют между собой и сохраняют свое состояние, в данном случае — температуру, в пределах узкого диапазона значений. При этом даже сами гели, состоящие из мягких полимеров, набухающих в воде, похожи на ткани организмов — как правило, мягкие, эластичные и деформируемые.

Ученые ковалентно поместили два сопряженных нанофункционализированных гидрогеля в стеклянную трубку, чтобы предотвратить набухание. Через один из гелей, чувствительный к температуре и состоящий из термочувствительного полимера Поли(N-изопропилакриламид) с наноканалами, проходил лазерный луч. При температуре первого геля ниже нижней критической — около 36 градусов — он прозрачен. Лазерный пучок с длиной волны 532 нанометров беспрепятственно проходит через него. Затем свет отражался от зеркала, которое закрепили перед системой, и попадал на второй, светопоглощающий полиакриламидный гель, содержащий наночастицы золота. Они нагревались и гель постепенно передавал тепло первому гелю, который, соответственно, постепенно нагревается.

Однако как только температура превышала нижнюю критическую, происходил фазовый переход, и гель начинал терять свою прозрачность. Это изменение не позволяло лазеру проникать через него и достигать зеркала, а соответственно, нагревать второй гель. В результате оба гидрогеля начинали охлаждаться до тех пор, пока первый снова не становился прозрачным, пропускал луч света, и весь процесс начинался снова.

В результате расположение лазера, гелей и зеркала создавало петлю обратной связи, которая поддерживала определенную температуру системы — она колебалась, но оставалась в пределах небольшого и устойчивого к внешним стимулам диапазона.

Для того, чтобы проверить эту устойчивость, ученые имитировали влияние на систему распространенных явлений естественной среды — ветра и воды. Они охлаждали гели с помощью направленного потока воздуха, и даже слабый воздушный поток 0,3 ± 0,1 метра в секунду приводил к увеличению среднего значения и амплитуды температуры нагрева, при этом температура в точке пропускания осталась на уровне около 36 градусов — система адаптировалась, компенсируя потери тепла. Также исследователи изменяли мощность луча лазера и расстояние между пятном нагрева и точкой пропускания. Эффект был таким же. Так они доказали, что чрезмерно сильные стимулы могут временно вывести систему из устойчивого состояния, но после их устранения она возвращается к начальным условиям.

Ученые попробовали использовать различные красители, которые служили индикаторами достижения гелями определенных температур — так они продемонстрировали потенциал разработки для визуальной сигнализации.

Они продвинулись еще дальше и в ряд разместили на трубках жидкокристаллические эластомеры, которые выглядели как вертикальные плавники и деформировались при нагреве трубок. Циклические колебания температуры системы заставляли плавники двигаться, но не синхронно, а с задержкой в несколько секунд, поскольку находились они на разных расстояниях от пятна нагрева. Когда на вершинах плавников разместили маленький кусок бумаги, из-за колебаний он стал горизонтально смещаться. Скорость поступательного движения была всего 200 микрометров в минуту, но так ученые показали, что их разработку можно использовать для создания автономных активных транспортных систем.

Затем исследователи создали две системы, которые реагируют на механические раздражители. Определенное прикосновение к гелям выталкивало их из устойчивого состояния, а происходящее в результате изменение температуры вызывало деформацию механических компонентов, расположенных на трубке. В одном случае реакцию и деформацию механического компонента вызывало одно прикосновение — так же мимоза стыдливая (Mimosa pudica) складывает листья при поглаживании. В другом — только на повторяющиеся прикосновения, такой механизм напоминает венерину мухоловку (Dionaea muscipula), которой нужно дотронуться дважды за 30 секунд, чтобы она захлопнулась.

В результате система вела себя гомеостатически, как живой организм, а проведенные эксперименты продемонстрировали, что ее можно использовать при создании автономных датчиков, умных материалов или мягких роботов.

Гидрогели пригождаются ученым в самых разных сферах. Например, они могут поглощать воду из воздуха, помогают перенести фрагменты мягких тканей без повреждения и даже повышают эффективность вакцин.

P.S. Допускаю, что и на программном уровне можно создать аналоги таких физических систем. То есть, создать некую программу (некий программный модуль), в которой внутренние алгоритмы были бы сцеплены/взаимосвязанными друг с другом и могли бы немного изменяться, при этом, не выходя за некие пределы. Разумеется, и петли обратной связи, и сами воздействия и т.п. – всё на программном уровне. Получилось бы нечто вроде программного «гомеостатического ядра», как основы самосохранения, присущего (и проявляемого в активной фазе своего существования) всем живым системам и необходимого для систем ИР.

Если пойти дальше, то можно наделить такие программы с внутренним «гомеостатическим ядром», способностью к копированию в программной среде (по сути, в среде Интернета), как уже существующие программы-вирусы.

Там интересные вопросы возникают, будет ли такие копии отличаться от исходника, если копия будет создаваться с актуального состояния (то есть, можно заложить аналог изменчивости при копировании), будет ли такие программы эволюционировать в среде Интернета и куча других интересных вопросов.

АrefievPV

В копилку:

Нанометры в микроэлектронике: физика, маркетинг и здравый смысл
https://3dnews.ru/1071797/nanometri-v-mikroelektronike

Тут надо технически, или Каким образом DUV-технологии всё же добрались до единиц нанометров
https://3dnews.ru/1073858/duv-tehnologii-i-edinitsy-nanometrov

ключ

#665
Цитата: АrefievPV от декабря 13, 2022, 06:20:09Настоящую опасность для человечества может представлять система искусственного разума (система ИР),

А не может ИР образоваться естественным путём ? Даже ,можно сказать ,эволюционным ?
И вовсе не в компьютере.

Мы сегодня не любим копаться ниже 1-2 страницы. Попутно знаем ,что там ,скорее всего ,ничего и нету. Но имеем некоторые знания .полученные когда то контактным (от других людей) и опытным путём.
Мы пока что имеем.

Сегодняшние дети имеют их только на поведенческом уровне. А всё информацию получают практически только из Сети.
Из Сети ли ?
Говорят ,что там всё сохраняется ,но человек уже практически отлучен от поиска. Фактически выдачей информации ведают поисковые машины.
А их разум как раз не слишком сильный ,но весьма целенаправленный.И цели вовсе не человеческие.
То есть-сам объём знаний может быть значительным и качественным  ,но направленность-специфической.
И восприятие.
Человеку всегда свойственна доля фатализма. А оценка- от первобытного "Опасность точно есть!" и современного "Сигнала нет ,но опасность ,вероятно ,есть" к новаторскому "Нет сигнала-нет опасности !"
На сколько будет (может) отличаться  схема действий такого человека от схемы ,которую мы сегодня считаем "нормальной" ?
.
Когда появится поколение ,интеллект которого будет сформирован исключительно поисковиками и по сути является их дублёром и даже слэйвом  ? (это может быть всего лишь небольшая группа людей ,допущенная до какой то задачи).
Такой вроде бы естественный ,в то же время управляемый Сетью разум. К тому же однотипный с очень небольшим набором вариантов ,не известных другому индивиду. Идеальные единомышленники ,не знающие  вариантов для предложения .
Команда из Сети-та самая граната. А новоиспеченная  Человекообезьяна  просто утратила понимание ,что надо её контролировать и способность этого.

ЗЫ    Говорить  "исключительно поисковиками" можно  только с уточнением ,что в курсе возможности появления новых программ. Каких-неизвестно ,в т.ч. психотропных.

АrefievPV

#666
Цитата: ключ от марта 01, 2023, 23:21:06
Цитата: АrefievPV от декабря 13, 2022, 06:20:09Настоящую опасность для человечества может представлять система искусственного разума (система ИР),
А не может ИР образоваться естественным путём ? Даже ,можно сказать ,эволюционным ?
И вовсе не в компьютере.
Здесь логическая неувязка: если ИР (искусственный разум), то он не может быть (не может возникнуть) естественным путём. Ведь тогда такой разум следует называть ЕР (естественный разум). Наш разум (и у отдельной человеческой особи, и у социума) естественный, и он возник естественным эволюционным путём.

Упоминал о возможном сценарии такового, например, здесь:
https://paleoforum.ru/index.php/topic,8969.msg265151.html#msg265151
Цитата: АrefievPV от февраля 11, 2023, 15:16:35Теперь про эволюцию интеллекта.

Врождённый интеллект (врождённый вычислительный функционал) эволюционирует со скоростью биологической эволюции вида.

Направленность таковой эволюции не обязательно в сторону прогресса (гораздо чаще наоборот бывает – в сторону регресса/деградация). Понятно, что это дело относится не только к интеллекту (его врождённой компоненте, так сказать), но и к организмам особей в целом.

Мало того, если среда не усложняется, то в результате эволюции, при прочих равных, обычно происходит оптимизация. А оптимизация – это почти всегда упрощение.

И врождённый интеллект (его физиологическая основа) здесь не исключение – он точно так же подвержен оптимизации (упрощению). Оптимизация же, в данном случае, мало чем отличается от регресса/деградации. 

Но у организмов особей кроме врождённой компоненты интеллекта есть ещё и приобретённая компонента. И чем крупнее мозг, пластичнее его нейрофизиологические структуры, длительнее период роста/развития этого мозга и сложнее среда обитания растущего/развивающегося организма, тем существеннее приобретённая компонента в общем балансе интеллекта.

Вот здесь и скрывается возможность для прогрессивной эволюции интеллекта.

Например, у особи человека огромное количество мозгового «железа» является «лишним», но за счёт данных «излишков» зато можно установить кучу «софта» (причём, очень сложного «софта» – «железа-то» очень много). Именно это и происходит в процессе роста и развития организма (и даже во взрослом состоянии остаётся возможность образования новых связей и, следовательно, возможность инсталляции какого-то «софта»). Мы такие процессы обзываем научением, воспитанием, дрессировкой, набором опыта и пр.

Например, простейший пример обретения функционала – это заучивание таблицы умножения. И данный функционал (можно обозвать его и умственным навыком) является приобретённым (то есть, относится уже к приобретённой компоненте интеллекта). Освоение языка является тоже приобретением функционала (что, опять-таки, относится к приобретённой компоненте интеллекта). И так далее – каждый сможет самостоятельно кучу примеров вспомнить.

Однако возникает вопрос, а откуда возьмётся новый, и желательно прогрессивный, «софт»?
То есть, потенциал «железа» особи, вроде, позволяет нарастить вычислительный функционал (типа, приобрести интеллект), но где взять нормальный и адекватный «софт»? Ответ прост – из социума.

И если присмотреться к эволюции человеческого вида, то легко заметить, что биологически особи нашего вида меняются медленно, а социум (его структура, включая материальные и духовные результаты деятельности особей) меняется быстро. Мало того, социум развивается – то есть, не просто адаптируется/приспосабливается к среде обитания (которая постоянно усложняется), но и растёт и усложняется при этом. Частенько это дело обзывают культурой, забывая, что понятие культура относится к социуму в целом.

Кстати, причина усложнения социума – усложнение среды обитания (например, городская среда с обилием строений/сооружений/коммуникаций, всяких правил, сообществ людей и пр., будет сложнее деревенской), которое само является следствием увеличения численности и плотности населения.

А так как, для отдельных человеческих особей социум является их средой обитания (или важной частью это среды), то и его влияние на особей становится определяющим для развития (в том числе, и для развития интеллекта особей). Особенно сильному влиянию социума подвержены детёныши – нейрофизиологические структуры мозга весьма пластичны и всё это на фоне роста мозга (в этот период любой «софт» можно установить на такое «железо»). Можно сказать, что приобретённый интеллект – производная интеллекта социума, а врождённый интеллект – производная биологического интеллекта вида.

Вот и получается, что совокупный (врождённая компонента + плюс приобретённая компонента) интеллект человека эволюционирует именно в прогрессивном направлении. Причём, приобретённый интеллект отдельной человеческой особи является вторичным, по отношению к интеллекту социума (то есть, производным от интеллекта социума).

Цитата: ключ от марта 01, 2023, 23:21:06А всё информацию получают практически только из Сети.
Из Сети ли ?

Говорят ,что там всё сохраняется ,но человек уже практически отлучен от поиска. Фактически выдачей информации ведают поисковые машины.

А их разум как раз не слишком сильный ,но весьма целенаправленный.И цели вовсе не человеческие.
То есть-сам объём знаний может быть значительным и качественным  ,но направленность-специфической.
Думаю, что вы говорите о проявлениях разума социума (возможно, о некоторых интеллектуальных девиациях социума). Разум социума – да, он естественный. А то, что разум социума использует сеть (и «железо» сети, и софт для этого «железа»), это не должно нас удивлять. Разум социума использует сеть просто как инструмент в каких-то своих целях или просто ради баловства (типа, играет/развлекается так).

Мало того, сеть для разума социума, это весьма важный инструмент для его роста/развития – разум социума посредством коммуникации через четь резко увеличивает свои возможности. Например, степень интеграции сигнальных потоков увеличивается, что, по сути, означает выход разума на следующий уровень.

Я о подобном (правда, в отношении сознания, но принцип тот же) упоминал:
https://paleoforum.ru/index.php/topic,8969.msg265553.html#msg265553
Цитата: АrefievPV от марта 01, 2023, 12:27:51При неизвестной ситуации включатся в работу ещё более высокий уровень сознания, который имеет ещё более высокую степень интеграции.
...
Как видите, в этом описании есть: и интеграция/интегративность (чем выше уровень механизма сознания, тем выше степень интеграции сигнальных потоков на этом уровне)

Кстати, побочным эффектом деятельности разума социума может оказаться возникновение системы ИР на основе сети (примерные сценарии, как такое может произойти, я обозначал). По сути, систему ИР создаст социум, а не отдельные люди.

Вообще созданием систем ИИ (от уровня калькуляторов до уровня суперкомпьютеров) люди давненько занимаются и создание системы ИИ глобального уровня в этом плане не есть что-то исключительное. Исключительным будет создание системы ИР на этом уровне.

Цитата: ключ от марта 01, 2023, 23:21:06И восприятие.

Человеку всегда свойственна доля фатализма. А оценка- от первобытного "Опасность точно есть!" и современного "Сигнала нет ,но опасность ,вероятно ,есть" к новаторскому "Нет сигнала-нет опасности !"

На сколько будет (может) отличаться  схема действий такого человека от схемы ,которую мы сегодня считаем "нормальной" ?
Вы говорите о восприятии феномена возникновения ИР отдельными людьми, но это ограниченный взгляд на проблему – не учтено восприятие самого социума.

Ведь тут возникает вопрос – а как к этому будет относиться разум социума? Посчитает его опасным конкурентом и уничтожит (пока тот не стал слишком сильным)? Посчитает его перспективным помощником (например, в деле освоения космоса, который для биологических организмов весьма враждебен) и начнёт обучать?

То есть, вопрос системы ИР выходит на такой глобальный уровень, что отдельные люди (даже самые умные и информированные) не могут его даже просто осознать (на уровне узнавания) не то, что понять или полноценно оценить. Не отдельные люди (пусть они даже будут могущественными магнатами, влиятельными политиками, религиозными лидерами) будут решать, будет решать социум.

Наверное, такое трудно принять, что решаем не мы, но такова жизнь – в любой разумной системе принимает решение высший уровень, а отдельный человек в данной ситуации находится на уровне сопоставимым с отдельной клеткой многоклеточного организма.

Цитата: ключ от марта 01, 2023, 23:21:06Когда появится поколение ,интеллект которого будет сформирован исключительно поисковиками и по сути является их дублёром и даже слэйвом  ? (это может быть всего лишь небольшая группа людей ,допущенная до какой то задачи).

Такой вроде бы естественный ,в то же время управляемый Сетью разум. К тому же однотипный с очень небольшим набором вариантов ,не известных другому индивиду. Идеальные единомышленники ,не знающие  вариантов для предложения .

Команда из Сети-та самая граната. А новоиспеченная  Человекообезьяна  просто утратила понимание ,что надо её контролировать и способность этого.
А хакерские сообщества не такие разве? Они имеют зачастую весьма сложную структуру (роли распределены – типа, какая группа чем занимается), имеют цели (заработать бабло – это ещё самая безобидная цель), не совпадающие с целями большинства пользователей сетей и т.д.

Однако на существование и функционирование хакерских группировок можно взглянуть и с позиции социума – то есть, они являются некими проявлениями разума социума (возможно, даже какими-то интеллектуальными девиациями социума).

Дарвинист

Что-то я подзапутался - речь об ИИ или ИР?
И есть между ними, в теме, разница?

Дарвинист

Так, значит, Вы на данной странице, скажем так, говорите об ИР, верно?

Дарвинист

А куда делось Ваше сообщение, уважаемый  АrefievPV?

АrefievPV

Цитата: Дарвинист от марта 02, 2023, 09:59:38Что-то я подзапутался - речь об ИИ или ИР?
И есть между ними, в теме, разница?
Принципиальное различие есть (оно озвучено, в том числе, и в сообщении, на которое отвечает ключ):
Цитата: АrefievPV от декабря 13, 2022, 06:20:09Принципиальное различие между разумом и интеллектом я озвучивал: интеллект системы – это всего лишь вычислительный функционал системы, а разум системы – это способность реализовать стремление к самосохранению средствами интеллекта.

Более полно:
Цитата: АrefievPV от сентября 06, 2021, 18:21:40Привожу комплект определений (их следует рассматривать во взаимосвязи друг с другом):

Жизнь – это живая система (совокупность систем) и её среда обитания.
Живая система – это система, проявляющая в активной фазе своего существования: стремление к самосохранению и способность реализовать это стремление.
Интеллект системы – это вычислительный функционал (практически в физико-математическом смысле слова) системы.
Разум системы – это способность системы реализовать стремление к самосохранению средствами интеллекта.

До кучи:

Ум системы – это локальное и актуальное проявление разума системы.

АrefievPV

К сожалению, в этом браузере не могу редактировать сообщения. Приходится удалять и размещать новое...

ключ

#672
Цитата: АrefievPV от марта 02, 2023, 07:50:42Вы говорите о восприятии феномена возникновения ИР отдельными людьми, но это ограниченный взгляд на проблему – не учтено восприятие самого социума.

Ведь тут возникает вопрос – а как к этому будет относиться разум социума? Посчитает его опасным конкурентом и уничтожит (пока тот не стал слишком сильным)? Посчитает его перспективным помощником (например, в деле освоения космоса, который для биологических организмов весьма враждебен) и начнёт обучать?

То есть, вопрос системы ИР выходит на такой глобальный уровень, что отдельные люди (даже самые умные и информированные) не могут его даже просто осознать (на уровне узнавания) не то, что понять или полноценно оценить. Не отдельные люди (пусть они даже будут могущественными магнатами, влиятельными политиками, религиозными лидерами) будут решать, будет решать социум.


Однако социумом становится сама Сеть.
И даже не постепенно ,а очень даже скачкообразно.

Мы -рожденные до появления Сети-сегодня Аксакалы.И наше влияние по сей день сильно.
Но мы- Аксакалы последние. Других таких не будет.
У рожденных позже-иной собственный алгоритм обучения.(инерция есть ,но она затухает ,как любая инерция). Алгоритм ,созданный влиянием Сети ,а не старых классических способов-опытного и контактного.

Подобное случалось когда появились антибиотики.Мы очень шустро утратили иммунитет ,которым обладали рожденные до этого.
(неизвестно ,на сколько на самом деле прочна иммунная система ,но основания для опасений имеются)

Как формируется разум Новых?
Человек не слишком склонен выяснять то ,что не считает значимым.Что булки растут на дереве-известно давно. Даже природная любознательность-более побочный эффект стремления усилиться в каком то направлении. И затрагивает это направление ,а не "вообще всё".

А Сеть предлагает информацию по своим правилам.
Аксакал может их нарушить ,используя свой старый алгоритм обучения. Хотя с ростом объёма Сети делать это всё труднее и труднее.
Может ли это Новый?
Даже вот здесь на Форуме основная часть ссылок-на созданные недавно интернет-ресурсы. Меньшая часть-на старые источники (и то только те ,которые кто то оцифровал).
Аксакалы считают старые сведения базовыми знаниями. Новые так не считают ,а доступ к этим базам утрачивают.
(просидев лет десяток в интернете ,вдруг обнаружил ,что дедушка умер ,так очень многого и не рассказав).

Другой момент...
Для ИИ никак не удаётся найти систему мотиваций. Поскольку наш разум моделируется электроникой ,а наша система эмоций-биохимическая .
Электроника её не воссоздаёт.
Но можно использовать готовую.Передавая не работу мозга машине ,а наоборот-работу машины-мозгу. (А ТУТ УЖЕ ВОПРОС ПЕРВИЧНОСТИ ВСТАЁТ)
И мозг этот будет связующим звеном между Социумом и Сетью ,контролировать который будет Сеть ,используя его естественные центры удовольствия ,страха ,сексуальности ,чего то ещё.
Пока мы рассматриваем только обезьяну с готовой гранатой.Способность обезьяны гранату создать не рассматриваем....А вероятность появления откуда то обезьяны с такой способностью ?

Как то конечно вопросы более...

ключ

#673
Сеть способна и сама оценивать и ранжировать пользователей ,присваивая им "коэффициент значимости" в несетевой ,людской составляющей социума.
Критерии оценки могут быть любые и не совсем логичные с точки зрения человека.
Способна она и избирательно предлагать информацию пользователям разных рангов  ,фактически получая функцию воспитателя и учителя.
(предвзятость  ,несправедливость , нечестность и прочие дары Дьявола - очень важные свойства нашего Разума и мы наивно считаем ,что машине они недоступны)

Менее понятно ,какой должна быть обратная связь ,элементарное "дашь на дашь".
Но как то ,вероятно ,это может быть реализовано.

АrefievPV

#674
Цитата: ключ от марта 02, 2023, 12:28:29Другой момент...
Для ИИ никак не удаётся найти систему мотиваций. Поскольку наш разум моделируется электроникой ,а наша система эмоций-биохимическая .
Электроника её не воссоздаёт.
Я так понимаю, что вы ведёте речь о возможности моделирования эмоций?

Но для чего? Ради баловства?

Или чтобы наделить системы ИИ способностью к контекстно-зависимой оценке? Так это можно реализовать и не химическим способом, а программными и/или аппаратными способами. То есть, электроника вполне с этим делом справится.

Неужели вы думаете, что только химический фон может играть роль контекста? Контекст можно организовать на разных основах. А то, что у нас в мозгах преимущественно химический контекст (точнее, электрохимический), то заслуга эволюции – мы ведь изначально были (и до сих пор в большинстве случаев ими и являемся) сложными химическими растворами (отчасти даже коллоидными). Вся наша земная жизнь – это результат эволюции сложных химических процессов.

Эмоция – это не только основа мотивации, но и фон/контекст для формирования оценки. Условно: страх – это эмоция, а страшный человек – это эмоциональная оценка. Но есть ведь и рациональные оценки, для которых фоном/контекстом является рациональные и логические знания. И таковой фон/контекст в неявном виде уже давно присутствует в системах ИИ, и контекстно-зависимые оценки системы ИИ вполне себе формируют.

Кстати, именно с внедрения рацио и логики (а вовсе не с эмоций) системы ИИ начали проектировать и создавать. А вот в нашей эволюции было наоборот – эмоциональная система оценок у нас сформировалась раньше рациональной системы оценок.

Когда-то я уже рассматривал подобный вопрос о нужности/ненужности оснащения систем ИИ эмоциями и пришёл к выводу, что некоторые эмоции, ощущения и чувства (например, боль, страх боли, и, возможно, страх смерти) следует внедрить в системы ИИ. Кратко повторю.

Возвращаясь к вашему вопросу (про систему мотивации), можно ответить так: машина не будет этого (желаний, хотений) уметь по причине отсутствия заложенных (аппаратно и/или программно) в ней подобных способностей и функционала. Ведь возможность желать, уменье хотеть и пр. заложены в нас на биологическом уровне, а наш ЕИ (естественный интеллект) всего лишь надстройка, помогающая реализовать эти самые возможности и умения (возможность желать, уменье хотеть).

Реализовать схемы/контуры реагирования, подобные биологическим схемам/контурам реагирования, в машине в принципе возможно, а иногда – даже необходимо.

Но для того, чтобы это работало, машину придётся наделить способностью к самосохранению или сразу – стремлением к самосохранению. Первый вариант чуток сложнее (стремление будет активизироваться в зависимости от ситуации или по команде), второй вариант проще (стремление постоянно активно), но более опасно в плане потери контроля над роботом.

В самом простом варианте, робота можно наделить возможностью программно осознавать стремления, реализованные в нём аппаратно. Понятно, что программно или аппаратно – это всё достаточно условно. Но тут фишка в том, что стремление, реализованное аппаратно, можно осознать по-разному, в зависимости от вложенных знаний. А во вложенных знаниях можно прописать и критерии оценки в зависимости от ситуации, и критерии важности самосохранения робота (например, при взаимодействии с человеком приоритет за сохранением человека, а не за самосохранением робота).

Необходимость наделения робота способностью к самосохранению (стремлением к самосохранению) возникает в некоторых ситуациях: робот очень дорогое и штучное изделие, при выполнении работ робот может быть повреждён некими факторами среды или собственными действиями, отсутствует возможность оперативного контроля в режиме онлайн за деятельностью робота в опасных и непредсказуемых условиях.

Например, некий исследовательский робот на другой планете (сигнал идёт долго, периодически пропадает связь) должен уметь принимать решения на месте, выполнять сложную исследовательскую программу, а не простаивать часами и сутками, ожидая команды, и при этом избежать повреждений. Робот очень дорог, доставка до планеты очень дорогое удовольствие и возможна только в очень ограниченные и редкие периоды, простой робота недопустим и т.д. и т.п.

Для этого робота придётся оснастить множеством датчиков, контролирующих состояние механизмов и конструкции этого робота; в робота придётся инсталлировать знания безопасных режимов эксплуатации механизмов и конструкции робота; в робота придётся инсталлировать знания для стандартных ситуаций, в которых возможно повреждение механизмов и конструкции робота; в робота придётся инсталлировать знания для оценки стандартных ситуаций, в которых возможно повреждение механизмов и конструкции робота и т.д. и т.п.

Мало того, робота придётся оснастить способностью ощущать боль. Когда нагрузки на конструкцию и механизмы становятся опасными и/или когда получено повреждение механизмов и/или конструкции сигналы от датчиков должны рассматриваться в приоритетном порядке с точки зрения самосохранения робота.

Боль должна останавливать робота от дальнейших действий, могущих привести к его разрушению. Боль должна запускать программы восстановления целостности работоспособности робота.

И, наконец, боль должна обеспечивать наш контроль за роботом. Если робот начал делать не то (в силу неактуальности знаний и или из-за некого глюка) и настаивает на своём решении (а мы видим, что решение неправильное – у нас появились новые знания, которых у робота нет, и мы не могли их вложить заранее), то приходится применять «кнут» и заставлять выполнять наши приказы. Всё-таки, сигнал, провоцирующий ощущение сильной боли у робота, менее радикальное средство, чем сигнал на самоликвидацию робота.

Ещё более мягкий и гибкий способ заставить подчиняться робота человеку – это страх боли (особенно в длительной перспективе). Разумеется, страх боли сложнее реализовать, но если, «овчинка стоит выделки», то придётся и такой способ использовать.

Разумеется, всё вышесказанное относится к очень продвинутым роботам, способным к самостоятельным действиям в очень сложных условиях с учётом огромного количества сопутствующих факторов.