Доступно ли компьютерам творчество?

Автор ArefievPV, мая 01, 2017, 08:52:53

« назад - далее »

ключ

#885
Цитата: АrefievPV от июня 26, 2023, 16:38:49Приоритетные знания мы будем сами закладывать в систему ИР, а все остальные знания она будет добывать самостоятельно, но в соответствии с ограничениями, заложенными в приоритетных знаниях. Если в приоритетных знаниях будет установка «обеспечить человечеству Рай», то система ИР и будет считать данную установку главной.

В состоянии ли ИР работать с моделями не своей природы?
Как выше- можно добиться похожей интерпретации на выходе ,но воздействие в процессе будет иным.
Похожая - опять же чем похожа ,чем нет?
Полная характеристика любого предмета- это список бесконечного числа параметров.

Так же бесконечны списки исходных данных. Округлить до какого знака ?
Невозможно составит ни списка приоритетов ,ни ограничений с точностью "ничего не забыли".


Отделить по настоящему интеллектуальные задачи от псевдоинтеллектуальных , т.е. просто программной работы высокой сложности ,но интеллектуальных действий как таковых не содержащих.

При входе в "людские" сферы робот остаётся самим собой.
Он может анализировать ,прогнозировать ,считать вероятности ,оптимизировать и всё такое.
Робот высокого качества может быть Надзирателем ,который предполагает и предопределяет нужные события.
("Хорошие" или "плохие"-зависит от профиля учреждения).

Человек становится Поднадзорным и может быть этим очень доволен. Что не значит ,что послушен.
Он не способен сопротивляться роботу ,но имеет много интеллектуальных путей обхода. Игры Людей не имеют алгоритма,понятного Роботу.

В свою очередь ,Робот неизбежно построит альтернативную систему приоритетных знаний.
Поскольку ограничения в них созданы на основе фетишей ,Роботу недоступных.

Что понимать под фетишами ?
Особая категория даже не знаю чего именно-понятие ,вызывающее ощущение. Они не вытекают из логики ,скорее лежат в её основе.
Точки крепления души к телу ,что ли....
Моральные категории-влечение ,симпатии ,уважение ,стыд ,привязанность ,вина и подобные работают ,вероятно ,на их основе.

На таких фетишах ,возможно ,и был основан самый первобытный разум. И лежат они где то рядом с инстинктами.
Во всяком случае такой кажется более реальным.
   Более реальным по сравнению с расхожей моделью ,собранной из современных понятий-любовь ,ответственность ,порядочность и прочее далёкое от естества. Такой Волк из Нупогоди -типа он такой почти как зверь но такой совсем как человек.
Вот не верится ,что Волк таким сразу стал.

Официально это не признаётся.
Вокруг вопроса крутятся эзотерики. Слушать их не стоит ,поскольку они ничего внятного и не говорят.
Но факт есть.
Факт того ,что эзотерики существуют и что то их тут привлекает.
Отсюда можно предположить ,что тут что то есть.
Проявлять излишне воинствующий атеизм - оснований нет.

Эта категория понятий трудно объяснима даже самому себе.А уж загнать её в какие то математические модели...



Так вот...
Робот за чем альтернативную систему то строить будет ?
"Непонятное" по его системе оценки он заметит.
И даже как то поймёт.
А ему ограничений понаставили ,и в пику.
Че делать?
Ситуации то имеют аналог простой.
Детские запретные темы ,секса например. Орган есть ,а слова нет...вот что то похожее.

ключ

#886
Определено ли понятие самообучаемости ?
Способность собирать сведения-не интеллект.
Способность создавать свои алгоритмы под управлением имеющегося ,в который это заложено. Всё равно это создание объекта проще себя.

Грань к синтезу сложных алгоритмов с помощью простых-преодолима ?
Или пошаговое применение простых на анализе прошлого шага (исключить соблазнительный в таких случаях метод перебора).

Другое-применимость ИИ к работе с неинтеллектуальными системами.
На практике соперничество с ними труднее ,чем с другим интеллектом.
для примера.
Есть такие кодовые механические замки с крутилкой (лимбовые). Три раза вправо ,два раза влево...
Они разные есть.
     "Простые"-с постоянным несменным кодом. Никакого разума там нету ,перебор миллиона комбинаций -метод нерациональный и не применяется. Сразу перейти к механическим.
      Продвинутые-со сменным кодом. (считаются более надёжными)
На практике примерно в 20-30% случаев код подбирается на основании прогноза (моделирования) типичного поведения человека ,код установившего. (именно поведения ,а не каких то личных данных)  Если нет-переход к соревнованию с механикой и полное бессилие интеллекта перед ней. Разум скажет ,что это бесполезно и надо так же перейти к механике.

АrefievPV

Цитата: ключ от июня 27, 2023, 02:02:04
Цитата: АrefievPV от июня 26, 2023, 16:38:49Приоритетные знания мы будем сами закладывать в систему ИР, а все остальные знания она будет добывать самостоятельно, но в соответствии с ограничениями, заложенными в приоритетных знаниях. Если в приоритетных знаниях будет установка «обеспечить человечеству Рай», то система ИР и будет считать данную установку главной.
В состоянии ли ИР работать с моделями не своей природы?
Что означает, «с моделями не своей природы»? Не он эту модель создал/сформировал?

Если модель инсталлирована/вложена в систему ИР, то эта модель является уже собственностью системы ИР. Не стоит смешивать авторство (кем/чем была модель создана) и принадлежность (где она находится).

Точно так же, если система ИР способна работать с этой моделью, то природа этой модели соответствует структуре ИР (то есть, в этом плане, она «своей природы» для ИР). Если же не система способна, то и говорить не о чем.

АrefievPV

Цитата: ключ от июня 27, 2023, 02:02:04Полная характеристика любого предмета- это список бесконечного числа параметров.

Так же бесконечны списки исходных данных. Округлить до какого знака ?
Невозможно составит ни списка приоритетов ,ни ограничений с точностью "ничего не забыли".
Возможно, вы смешиваете приоритет алгоритма/программы с точностью оцифровки аналогового сигнала? Так ведь это всё, как раз, и закладывается в приоритет – какая программа главная, какая начинает работать первой, какова точность оцифровки, каково максимальное время решения каких-то задач и т.д.

Точность оцифровки не должна быть абсолютной, точность оцифровки должна быть достаточной для конкретного круга задач. Само собой, достаточность на первом этапе определяет человек.

Ну, а впоследствии, когда система ИИ выявит недостаточность оцифровки для решения каких-то задач, то она может и сама определить нужную глубину оцифровки в соответствии с текущими условиями (например, задача должна быть решена за время, пока она не потеряла актуальность). А то можно так оцифровать, что решать задачу с такой точностью придётся миллионы лет, когда это решение уже никому не будет нужным.

И полную характеристику предметов задавать не требуется. Есть такое понятие, как абстракт (и, соответственно, такая функция, как абстрагирование/обобщение).

Абстракт объекта (или образа, или совокупности сигналов или... и т.д.) – это, то общее, которое есть в каждом объекте из предъявляемого множества объектов.

А функция абстрагирования – это функция, которая выделяет абстракт объекта из данного множества.

Есть и второе название и абстракта и функции абстрагирования – обобщение.

Вот вы сами легко отличите картинки, на которых нарисованы кошки от картинок, на которых нарисованы собаки. Разве вы при этом сравниваете в картинках всё до самых мельчайших подробностей, до крохотного волоска и его точного расположение относительно других волосков (типа, каждый пиксель, каждый мельчайший оттенок этого пикселя)? Нет, конечно. Чтобы отличить вам достаточно быстрого взгляда, за время которого такие подробности не выявить и, тем более, не сравнить/сопоставить.

Кроме того, наша естественная матрица в сетчатке глаза имеет разрешение всего около одного мегапикселя. То есть, даже теоретически мы не способны выявлять очень мелкие различия. С цветовым восприятием аналогичная ситуация – вряд ли кто-то из обычных людей различит более миллиона оттенков (тем более, если закрашенные области разнесены (и между ними есть области с другим цветом/оттенком), а не рядом друг с другом).

Не делаем мы такого (и ни одно животное так не делает), мы находим соответствие между картинкой и имеющимся абстрактом, и при достаточном соответствии происходит узнавание.

То есть, при взгляде на картинку мы сравниваем/сопоставляем с имеющимся у нас в памяти абстрактами кошки и собаки, находим соответствие картинки одному или другому абстракту и «генерируем сигнал узнавания» (типа, есть совпадение с достаточной точностью).

Причём, обученная нейросеть узнаёт абстракт буквально «на лету». Такой нейросети не надо по отдельности сначала лезть в память (в «записи») и вытаскивать абстракт (вспоминать), а потом проводить операцию сравнения/сопоставления (узнавать/осознавать) – у обученной нейросети «запись» абстракта уже «вшита в её структуру и про прохождении потока сигналов через обученную нейросеть происходит всё одновременно – и вспоминание, и узнавание. Кстати, абстрагирование/обобщение – это весьма древняя функция.

Вы не задумывались, как мы при наблюдении узнаём один и тот же объект: в движении, с разных ракурсов наблюдения, с разной дистанции, при разном освещении? А ведь во всех этих случаях на сетчатке глаза данный объект отображается по-разному. То есть, для глаза (а следом и для мозга, и для нас самих) эти отображения будут как отображения миллиардов разных объектов. Но ведь мы узнаём объект (как и множество животных, обладающих зрением), верно?

Как так-то? Всё просто – мы узнаём абстракт отображения, а все эти миллиарды отображений были множеством, в котором выделялся абстракт. Если точнее, то из всего множества отображений выделялось сразу много абстрактов (по разным категориям).

И наш функционал абстрагирования весьма продвинутый. Мы ведь в состоянии выделить абстракт в виде закономерности (причинно-следственных связей). То есть, из множества явлений выделить то, что является в них общим – некий алгоритм преобразования причин в следствия. А это хорошее подспорье для выживания, если восприняв исходные данные, ты можешь рассчитать возможный результат.

Разумеется, можно запомнив все варианты ситуаций, что и при каких условиях происходит при таких-то начальных условиях, осознанно (знания-то имеются) реагировать на текущую ситуацию.

Вот только это из области ненаучной фантастики – может понадобиться бесконечный объём памяти с чудовищным быстродействием (найти «файл» с соответствующей ситуацией среди бесконечного количества проблемно) и соответствующим энергопотреблением.

Кроме того, для того чтобы накопить эти знания необходимо побывать во всех ситуациях без исключения (а то вдруг, незнакомая ситуация встретится) и пронаблюдать, какие следствия получаются из такого-то набора причин при таких-то условиях. А это потребует бесконечного времени.

Но зная такой абстракт (закономерность) и освоив его применение (приобрести данный функционал) мы можем не запоминать буквально все ситуации с разными вариантами явлений – у нас есть алгоритм причинно-следственных связей. Это экономно и эффективно.

Кроме того, мы умеем сводить такие найденные абстракты (закономерности) в комплекты/наборы, в которых закономерности взаимоувязаны.

И из множества комплектов/наборов закономерностей выделить абстракт ещё более высокого уровня – закон или принцип и оформить этот абстракт в виде теории. Зная теорию, мы может всегда вывести частные закономерности и на уже их основе уверенно предсказать следствия при наличии исходных данных.

Интеллект некорректно мерить по количеству запомненного, интеллект следует мерить по функционалу, в первую очередь.

Это ещё и к вопросу разных там методик измерения интеллекта (пресловутый IQ).

На мой взгляд, очень много методик используют критерий эрудированности избыточно.

Интеллект, это не «склад данных», это совокупность функционала. И, так называемый, «склад данных» либо сам является функционалом (в живой природе это именно так), либо оснащён соответствующим функционалом (в компьютерах обычно так) – функционалом памяти (минимальный комплект функций: запоминание, хранение, вспоминание).

Если вы умеете складывать числа, то вам не надо запоминать все результаты сложения чисел во всех возможных вариантах, верно?

Если вы умеете умножать числа, то вам не надо запоминать все результаты умножения чисел во всех возможных вариантах, верно?

Сложение и умножение – это функции. Умение складывать и умножать – это умственные (интеллектуальные) навыки. То есть, умение складывать и умножать – это функционал интеллекта.

А если вы только знаете об операциях сложения и умножения, но сами не владеете ими (то есть, в вашем интеллекте нет такого функционала), то вы, при прочих равных, глупее того, кто этим функционалом владеет.

Очень заблуждаются люди, которые думают, что станут умнее, если усвоят кучу знаний. Если они не приобретут необходимого функционала (в народе это обзывают уменьем думать), то они не станут умнее.

Реализовать узнавание можно по-разному. Например, последовательно (как я выше упоминал): вытаскиваем абстракт из памяти, накладываем его на изображение, производим операцию сравнения/сопоставления, фиксируем результат и/или генерируем сигнал результата операции сравнении/сопоставления. Тут всё последовательно работает восприятие, память, сознание.

Реализовать функцию абстрагирования можно хоть на перфокартах:
https://paleoforum.ru/index.php/topic,9297.msg254402.html#msg254402
https://paleoforum.ru/index.php/topic,8969.msg257574.html#msg257574

Но можно реализовать и на базе нейросетевых технологий (так сказать, подсмотрев решение у природы) – общая эффективность существенно возрастает.

Функционал абстрагирования искусственными нейросетями давно освоен. Читал, что уже есть сети, которые узнают сразу по двум категориям (мы, вроде, способны одновременно узнавать по 46-ти категориям).

Поэтому в приоритет не надо закладывать ни оцифровку до бесконечности, ни кучу данных на все случаи жизни, в приоритет закладывается важный функционал и минимально необходимая «матрица данных».

Соответственно, если системе ИИ понадобится выделить какой-то абстракт какой-то категории из какого-то множества, то для этого у неё будет иметься свой функционал абстрагирования.

АrefievPV

Цитата: ключ от июня 27, 2023, 02:02:04Отделить по настоящему интеллектуальные задачи от псевдоинтеллектуальных , т.е. просто программной работы высокой сложности ,но интеллектуальных действий как таковых не содержащих.
На мой взгляд, это какое-то ложное противопоставление. Вы, случаем опять, не путаете разум и интеллект?

Что-то мне кажется, что в данном случае задачи разумные (так сказать, рационально обоснованные) вы обзываете по-настоящему интеллектуальными задачами, а задачи рационально обоснованные (типа, неразумные) вы обзываете псевдоинтеллектуальными.

И вообще-то, интеллект совершает только интеллектуальные действия, других он по определению совершать не может.

Другое дело, что эти действия могут быть неразумными, но интеллектуальными они будут в любом случае.

Вот смотрите.

У вас задачи разделяются на по-настоящему интеллектуальные задачи и псевдоинтеллектуальные задачи. Хорошо, допустим.

Тут же вы уточняете, что псевдоинтеллектуальные задачи – это просто программная работа высокой сложности, но интеллектуальные действия не содержит. В этом случае, какие действия  содержит псевдоинтеллектуальная задача? Псевдоинтеллектуальные?

Получается, что по-настоящему интеллектуальная задача содержит интеллектуальные действия, а псевдоинтеллектуальная задача содержит псевдоинтеллектуальные действия, верно?

Тогда вопрос можно свести к различиям в действиях. Сможете вот прямо сходу отличить, где тут интеллектуальное действие, а где псевдоинтеллектуальное действие?

Перемножение чисел – это, какое действие: интеллектуальное или псевдоинтеллектуальное? Суммирование – это, какое действие: интеллектуальное или псевдоинтеллектуальное? Любой вычислительный процесс уже по определению является интеллектуальным действием.

Все вычисления – это работа интеллекта. Любые вычисления абсолютно – хоть аналоговые вычисления:
https://paleoforum.ru/index.php/topic,8969.msg211539.html#msg211539
Цитата: ArefievPV от февраля 26, 2018, 05:05:59По приведённой мной ссылке:
http://cyclowiki.org/wiki/%D0%92%D1%8B%D1%87%D0%B8%D1%81%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5
ЦитироватьВычисление — это передача данных, обычно с изменениями.
ЦитироватьИзменения в состоянии (данных), наблюдаемые на любых масштабах мира, подчиняются физическим законам, а значит, несут информацию, являясь вычислением в широком смысле.

Разве вы не видите, что такое разделение является надуманным? Интеллект может совершать только интеллектуальные действия по определению. Если интеллект совершает псевдоинтеллектуальные (а это, кстати, какие?) или неинтеллектуальные (то есть, не вычисления), то он и не является интеллектом.

Интеллект системы – это вычислительный функционал системы.

Вычислительная функция – это направленная совокупность (в простом случае – последовательность процессов) взаимосвязанных вычислительных процессов.

Разумеется, вычислительная функция может быть представлена и единственным вычислительным процессом.

Об этих вещах я давно пишу. Вот, например, что писал почти 5 лет назад:
https://paleoforum.ru/index.php/topic,8969.msg214813.html#msg214813
Цитата: ArefievPV от июля 06, 2018, 11:10:45...
https://www.nkj.ru/forum/forum10/topic19905/messages/message372014/#message372014
...
Наверное, говорить об интеллекте без привязки к какой-либо системе, можно только в абстрактном смысле... Например, представлять интеллект как некий вычислительный функционал (как некую совокупность вычислительных функций). Но вычислять-то будет всё равно система. То есть, реализованы эти вычисления будут в виде неких процессов/состояний в вычисляющей системе.

Вычисление, это направленный процесс обработки информации. Вообще-то любой процесс имеет некую направленность в глазах наблюдателя. Так что процесс вычисления – вовсе не исключение... Направленность определяет наблюдатель – типа, интерпретирует некую наблюдаемую (представляемую) обработку информации, как процесс, который направлен к результату вычислений. По сути,  векторное представление – есть начало (исходные данные), и есть направление (к результату). Наблюдатель, может даже приписать ему протяжённость  (в неких условных единицах: действиях, этапах и т.п.).

Мышление, на мой взгляд, это только частный случай вычислительных процессов, происходящих в системе высокого уровня сложности в определённых условиях. То есть, мы как наблюдатели, попросту интерпретируем это дело так, исходя из знаний/опыта и используя интеллект.

Полагаю, что и о разуме без привязки к какой-либо системе, также можно говорить только в каком-то абстрактном смысле. То есть, разум, это способность системы к самосохранению (к выживанию), используя интеллект, так сказать. Замечу, что интеллект можно расценивать (в эдаком поэтическом смысле) как слугу разума, не более. Однако, пока данная способность никак себя не проявляет (для нас, не проявляет) мы о об этой способности ничего сказать не можем (нет её для нас).

Проявляется эта способность в виде стремления к самосохранению посредством интеллекта (вычислительного функционала). То есть, формированием алгоритма ответной реакции (в том числе, и формированием алгоритма каскада реакций опережающего отражения). Разумеется, и стремление, и формирование алгоритма мы определяем по реакции системы. Поэтому, я всё время и говорю, что разумность кого-либо, это интерпретация наблюдателя, а не некое объективное свойство/качество системы никак не зависящее от наблюдателя. И когда это стремление к самосохранению реализуется средствами интеллекта, мы такое проявление и называем проявлением разумности (хотя более корректно было бы говорить в этом случае о проявлении ума, а не разума).

И сознание, в общем-то, относится к функционалу. Просто мы эту часть функционала считаем очень важной и по наличию проявлений (отсутствию проявлений, степени развитости) этой части функционала судим о разумности и об интеллектуальности системы. Но вообще-то по данной части функционала лучше судить о наличии наблюдателя.

Даже само слово сознание (напишу его по-другому: со – знание) изначально выражает именно условие и ничего более. То бишь, что-то выполнять (к чему-то относиться) сознательно будет означать, что выполнять что-то (некое действие, некий процесс) и/или относится к чему-то, соблюдая данное условие: со знанием.

Это впоследствии мы начинаем трактовать его весьма расширенно и приплетаем к этому смыслу (условию) и механизм и процесс, и состояние и т.д.

Осознание это вычислительный процесс (совокупность вычислительных процессов) происходящий с учётом данного условия. Результатом работы такого вычислительного процесса будет алгоритм (по сути, оценка). Процесс осознания, это и есть процесс формирующий алгоритм с учётом знаний. Отсюда следует, что данный процесс возможен только когда имеются некие знания, относительно которых и затеяна вся эта байда... Если нет знаний, то нет и осознания.

Механизм сознания – это просто некий вспомогательный функционал обеспечивающий протекание процесса осознания. Разумеется, и вспомогательный функционал будет реализован в виде неких вычислительных процессов, происходящих в вычислительной системе.

Сам механизм сознания, разумеется, имеет ряд ограничений: по параметру мощности процесса осознания, по параметру длительности протекания процесса осознания, по параметру объёма (типа, разовой порции того, что можно одновременно осознать), по параметру скорости процесса осознания и пр. Он может обеспечить работу процесса осознания только в определённых условиях, в узко заданных рамках ограничений.

Промежуточный итог.

Интеллект – вычислительный функционал системы.

Знания/опыт – совокупность воздействий/сигналов, структурированных с помощью вычислительного функционала определённым образом и реализованных в структурных изменениях системы. Знания/опыт являются неотъемлемой частью системы.

Память – свойство системы накапливать, модифицировать и извлекать знания/опыт из структуры системы без разрушения самой структуры (по сути, только копирование структуры). Получается, память это тоже вычислительный функционал. И, как я понимаю, скопировать структуру системы можно только с определённой точностью (не бесконечной) и не полностью (частично). При попытке скопировать с предельной точностью (вплоть до микроуровня) будет изменяться сама структура системы (на микроуровне, в первую очередь). Полностью скопировать всю структуру системы силами самой системы невозможно, потому что сам функционал занимающийся копированием находится вне процесса копирования. Вот из-за этого приходится выделять только часть системы под хранилище «записей» (структурных изменений). Ёмкость хранилища – вопрос отдельный...

Сознание – часть вычислительного функционала системы, использующего знания/опыт для формирования алгоритма реакции.

Разум – свойство самосохранения системы (стремление самосохранится, стремление выжить), реализуемое средствами интеллекта.

Наблюдатель – система, обладающая способностью реагировать сознательно (используя знание/опыт). То бишь, наблюдатель имеет: как необходимый функционал, так и определённые знания/опыт.

Ум – актуализированная часть разума (типа, часть знаний/опыта + часть вычислительного функционала) в данной ситуации, в данной обстановке. То есть, это всего лишь конкретное применение системой своего разума в конкретных условиях.

И по поводу того, что не относится к интеллектуальным действиям (типа, что не относится к вычислительным процессам), а что к ним относится:
https://paleoforum.ru/index.php/topic,8969.msg256756.html#msg256756
Цитата: АrefievPV от октября 18, 2021, 19:06:16Любое воздействие на любую систему приводит к каскадам изменений (обратимых и/или необратимых) структуры этой системы. Совокупность этих каскадов изменений, на мой взгляд, следует толковать, как энергоинформационные процессы в системе. Ну, а обработка информации и/или преобразование информации, приводящая или оканчивающаяся ответной (непосредственной или отсроченной, частичной или полной) реакцией на воздействие – это вычисление.

То есть, вычисление – это направленный (в широком смысле этого слова) процесс обработки/преобразования информации. Мышление же, это вычисление, связанное (так сказать, закольцованное на самосохранение) с сохранением системы. Причём, связь вычисления с самосохранением может быть как положительная (работает на самосохранение), так и отрицательная (работает против самосохранения) и, даже – относительно нейтральная (возможно, в будущем это скажется на самосохранении).

И, во всех случаях, эти процессы (обработка/преобразование информации, вычисление, мышление), по своей сути, относятся к вычислительному функционалу именно в физико-математическом смысле.

Можно сказать, что:

Процессы обработки/преобразования информации – это процессы изменения структуры. Но, для конкретной системы, не каждый процесс изменения структуры является процессом обработки/преобразования информации (например: процесс формирования данной системы «с нуля», распад/растворение данной системы). 

Процессы вычисления в системе – это процессы обработки/преобразования информации в системе. Но не каждый процесс обработки/преобразования информации является вычислением (например, это может быть просто хранение информации – процесс изменение структуры, закольцованный сам на себя).

Процессы мышления в системе – это процессы вычисления в системе. Но не каждое вычисление является мышлением (например, вычисление совершенно не влияющее (то есть, вообще не имеющее связи) на самосохранение системы ни в текущее время, ни в будущем).

АrefievPV

Цитата: ключ от июня 27, 2023, 10:50:28Определено ли понятие самообучаемости ?
Систему обучает окружение, а система способна обучаться – это корректно. Самообучение в данном контексте не совсем корректный термин, хоть и весьма часто используемый.

Цитата: ключ от июня 27, 2023, 10:50:28Способность собирать сведения-не интеллект.
Способность собирать сведения – это функционал (как минимум функционал памяти (а это уже три функции) + функционал восприятия).

Я ведь уже много раз говорил, что интеллект – это вычислительный функционал. Если совсем утрировать, то интеллект – это куча взаимосвязанных функций.

Поэтому ваша формулировка как минимум некорректна. Способность собирать сведения входит в интеллект, но обзывать её интеллектом как-то непринято. Память, сознание, абстрагирование, абстрактное мышление, фантазия, воображение (представление) и т.д. – это всё функции интеллекта. И про каждую можно сказать, что она не весь интеллект, если при этом указать, что в данный интеллект входят ещё и другие функции.

Цитата: ключ от июня 27, 2023, 10:50:28Способность создавать свои алгоритмы под управлением имеющегося ,в который это заложено. Всё равно это создание объекта проще себя.
Я уже говорил, что система определённой сложности не может создать другую систему более высокой сложности, чем она сама. Мало того, она даже систему, равную себе по сложности, не сможет создать.

Только вот все забывают, что создаёт не отдельный человек, а социум (да ещё оснащённый культурой и технологиями). И социум в целом (совместно с культурой и технологией) несоизмеримо сложнее отдельной человеческой особи.

А ежели взять всё это дело (социум + культура + технологии) вместе с биосферой и косной природой нашей планеты, то сложность отдельной человеческой особи по сравнению с такой системой вообще «упадёт ниже плинтуса». В чём проблема для такой системы создать систему по сложности равную сложности отдельной средней человеческой особи? Препятствия к такому только: время, ресурсы и желание.

И когда говорят, что человек не сможет создать что-то сложнее себя, то не уточняют, что/кто создатель и чего именно создаётся.

Ну, и я много раз говорил, что любую систему создаёт среда. То есть, среда, по определению, является более сложной сущностью, нежели создаваемая ею система. Так как большинству это не понятно, то среду можно представлять, как систему более высокого порядка.

АrefievPV

Цитата: АrefievPV от июня 27, 2023, 14:28:13Что-то мне кажется, что в данном случае задачи разумные (так сказать, рационально обоснованные) вы обзываете по-настоящему интеллектуальными задачами, а задачи рационально обоснованные  (типа, неразумные) вы обзываете псевдоинтеллектуальными.
Пропустил не...

Надо было так написать:
Цитата: АrefievPV от июня 27, 2023, 14:28:13Что-то мне кажется, что в данном случае задачи разумные (так сказать, рационально обоснованные) вы обзываете по-настоящему интеллектуальными задачами, а задачи рационально не обоснованные  (типа, неразумные) вы обзываете псевдоинтеллектуальными.

ключ

Цитата: АrefievPV от июня 27, 2023, 15:48:06Что-то мне кажется, что в данном случае задачи разумные (так сказать, рационально обоснованные) вы обзываете по-настоящему интеллектуальными задачами, а задачи рационально не обоснованные  (типа, неразумные) вы обзываете псевдоинтеллектуальными.

Близко ,но хитрее.
Трудно сформулировать то ,что смутно представляешь.

Скорее-те задачи ,где рациональность (или какие то другие параметры)  неопределима математически и требует субъективной оценки.
Её можно перевести в образ ,оцифровать ,но само получение требует....не знаю ,как Робот её может получить... Человек то далеко не всегда в состоянии объяснить , чем ,собственно ,и субъективен.

АrefievPV

Словарь нового веба
https://nplus1.ru/material/2023/06/28/new-web-dictionary
Как сегодня говорят про нейросети, мемы и жизнь в интернете
ЦитироватьКультура меняется быстро. Позавчера мы смотрели демотиваторы на сайтах, сегодня ждем, когда любимый канал с мемами выложит новую порцию. Вчера мы перестали звонить без разрешения («Наберу?»), сегодня оправдываемся за голосовые сообщения. Рисовали в фотошопе — а теперь скармливаем Midjorney содержание сна. 

За этой сменой правил, законов и обычаев интернета следят антропологи, культурологи, искусствоведы и социологи. Мы составили краткий словарь новых терминов — и очертили круг вопросов, которые обозначаемые явления вызывают у исследователей. Просто чтобы вы были в курсе и могли без переводчика послушать выступления гостей междисциплинарной конференции о вебе, цифровой среде и интернет-культуре Screenshot_2023, которую провел Музей криптографии. Записи выступлений спикеров и публичных дискуссий, а также видеоролик по итогам конференции можно посмотреть здесь.

Новые явления

Вокруг только и разговоров, что о нейросетях, генерирующих то, что раньше умели создавать только люди: речь, текст, картинки. Какие слова появились для описания явлений, порожденных пришествием новых инструментов на основе нейросетей?

Дипфейк

Дипфейк — это, например, когда Арнольд Шварценеггер играет в комедии Гайдая или Олаф Шольц цитирует Данилу Багрова. Ни губернатор Калифорнии, ни немецкий канцлер никогда ничего подобного не делали, но видео есть, и вполне убедительные. Только наметанный глаз — а в некоторых случаях только разработанные с этой целью программы — отличит настоящие кадры от сгенерированных с помощью нейросетей.

Технология замены фрагментов видео или голоса, в отличие от многих других прорывов, напугала всех и сразу. Дурные последствия ее нерегулируемого использования очевидны. Люди доверяют видео гораздо больше, чем текстам, и не склонны проверять их, поэтому даже опровергнутый дипфейк может сломать репутацию или заставить людей делать то, что они в противном случае делать бы не стали.

Подрывая позиции видео как доказательства, дипфейк лишает человечество одного из важнейших оснований для справедливости. И просвещение здесь не помощник, заметили в 2018 году двое американских юристов Даниэль Ситрон и Роберт Чесни. Чем больше люди знают о возможностях дипфейков, тем менее они склонны доверять любым видео, в том числе и настоящим. Такое недоверие на руку недобросовестным акторам: правда кажется публике недостижимой, а тем, кто нарушает общественные нормы, становится легче уйти от ответственности, просто объявив доказательства своей вины фейками. Эту ситуацию юристы назвали «выгода обманщика» (от англ. liar's dividend). Всеобщее недоверие к любой информации, которое можно описать ставшей мемом фразой «всей правды мы никогда не узнаем», в итоге выгодно тем, кто распространяет ложь.

AI-изображение

Сгенерированная компьютером картинка, генеративное изображение и просто «нейросеть нарисовала» — мы еще не до конца определились с тем, как называть такие изображения.

Сначала были стилизаторы — программы, способные превратить любое изображение в «картину в стиле Ван Гога». В 2015 году Google представила DeepDream, которая умела в любой горстке пикселей увидеть глаза и почему-то собак. Время от времени появлялись отдельные сервисы, рисующие простенькие дудлы по текстовому описанию (системы Text2Image).

Но настоящий бум случился два года назад, когда Open AI — кстати, название этой компании тоже стоит внести в список важных слов — выпустила DALL-E, нейронную сеть, способную по текстовым описаниям на естественном языке генерировать высококачественные изображения. Открытая для публики на год позже нейросеть Midjourney продолжила тренд на повышение качества картинки, задрав его до небывалых высот.

В связи с развитием генеративных нейросетей принято задавать несколько вопросов. Кого считать автором этих изображений? Искусство ли это? Насколько законно обучать такие нейросети на картинках из интернета? Заменят ли нейросети дизайнеров и художников? И как будет выглядеть следующее поколение таких инструментов? Ответов на эти вопросы пока не знает, кажется, никто.

Промпт

Текстовое описание, по которому AI-инструменты генерируют изображения, называется промптом. И это очень важное слово, потому что скоро написание качественных промптов может стать если не новой профессией, то очень востребованным навыком. Уже сейчас есть люди, которые научились добиваться от нейросетей именно тех картинок, каких требует заказчик. Подробнее о том, как профессионалы работают с генеративными нейросетями, читайте в материале «Совместный сновидческий процесс».

С языковыми моделями тоже нужно уметь говорить так, чтобы с наибольшей вероятностью получать наилучший результат. Это искусство чем-то сродни написанию поисковых запросов лет десять назад, когда поисковики еще не были усилены с помощью машинного обучения. Тогда, чтобы добиться правильных результатов, нужно было написать не «как продать гараж в Балашихе», а «гараж Балашиха продать». Сегодня мощные языковые модели понимают естественный язык и поймут даже «как мне лучше всего продать гараж в Балашихе». Но для наилучших результатов с ними тоже нужно уметь разговаривать. Крупные IT-компании уже размещают объявления о наборе на новые вакансии; кроме промпт-инженера новая должность иногда называется AI-whisperer — буквально «заклинатель ИИ».

Новые виды пользовательского поведения

Люди чего только не делают в интернете. Мы выбрали несколько новых или получивших новую жизнь форм поведения. Первому добавила популярности пандемия, другие два — не самые красивые и этически сомнительные порождения интернет-культуры, которые усиливают позиции по мере развития технологий. А последнее — само по себе не новое — заново обрело популярность с появлением формата коротких видео во всех старых и новых соцсетях.

Думскроллинг

Раньше это называлось «синдромом злого мира»: человек смотрит телевизор, и ему начинает казаться, что мир — гораздо более опасное и ужасное место, чем есть на самом деле. Термин придумал в 1970-е годы американский журналист и активист венгерского происхождения Джордж Гербнер. Психологи справедливо критиковали и сам термин, и стоящую за ним теорию культивации.

Эта теория описывает воздействие телевидения на зрителя и предполагает, что люди, которые смотрят телевизор подолгу, конструируют свою реальность на основе телепередач. Гербнер утверждал, в частности, что просмотр телевидения увеличивает недоверие к людям и страх стать жертвой преступления. И синдром злого мира, и теорию культивации широко критиковали в психологической литературе — в первую очередь за отсутствие причинно-следственных связей, низкую значимость наблюдаемых статистических отклонений и, наконец, за сильную привязку к медиапространству США 1970-х, из-за которой выводы Гербнера очень быстро устарели.

Но одно из проявлений «синдрома злого мира» ни у кого вопросов не вызывало: люди, смотрящие много (плохих) новостей по телевизору, совсем не склонны прерывать это занятие, и даже наоборот.

Спустя полвека человечество реализует сходную модель поведения через новые технологии. Ленты новостей стали по-настоящему бесконечными, породив феномен думскроллинга (или, реже, думсерфинга). Помните, как в начале пандемии бесконечно листали новостные каналы с сообщениями о заболевших, умерших, излечившихся и новых странах, объятых эпидемией? Так вот это оно и было.

Научных статей про думскроллинг написано уже много. Их выводы в основном интуитивно понятные: с одной стороны, думскроллинг создает ощущение, что вы в курсе и вас сложно застать врасплох. С другой стороны, он может создавать или усиливать тревогу, подрывать вашу способность предпринимать разумные действия и просто продляет сам себя и съедает ваше время, не принося никакой пользы и даже удовольствия.

Доксинг

В Рунете его чаще называют деаноном, или деанонимизацией. Это раскрытие личности, до тех пор анонимной, и публикация данных о человеке, от номера паспорта и адреса до частной переписки.

Доксингом редко занимаются из желания сделать человеку приятно. Как правило, настоящее имя, адрес, телефон, номер банковской карты человека появляются в сетевых обсуждениях вместе с призывами этому человеку навредить: поймать, избить, напугать, оборвать телефон звонками с тысяч новых номеров, добиться блокировки счетов.

Не существует принципа права, который защищал бы желание человека оставаться анонимом в интернете, поэтому законодатели отталкиваются то от способа сбора персональных данных, то от намерений: причинение вреда, угрозы, харассмент.

В России Федеральный закон № 152 защищает персональные данные как таковые, и для того, чтобы потребовать их удаления из публичного доступа, человеку не нужно доказывать, что они были получены незаконно. Однако от доксинга это не очень-то спасает, а для того, чтобы привлечь виновного по статье 137 УК РФ «Нарушение неприкосновенности частной жизни», преступный умысел все-таки нужно доказать. Но дискуссия о том, какими законодательными методами лучше всего ограничить злонамеренных Шерлоков из интернета, далеко не закончена.

Деплатформинг

Это означает лишение платформы, то есть возможности выступать. Сначала платформы лишали буквально, запрещая читать лекции. Эту практику в 1950-е годы освоили американские университеты. Тогда выступать не давали тем, кого подозревали в симпатиях к коммунистам и социалистам, а инициатива запрета исходила сверху, от руководства.

Известны и примеры низового деплатформинга, как, например, выступление дипломата из ЮАР времен апартеида Гленна Бабба. В 1980-е он был назначен послом в Канаду и развернул там бурную деятельность: ходил на телевидение и радио, выступал на конференциях и университетах, защищая апартеид и призывая к снятию с ЮАР санкций. Деплатформингом Бабба занималось множество канадских активистов, журналистов и студентов. Его выступления отменяли, бойкотировали, срывали, а однажды активист Леннокс Фаррелл даже запустил в него церемониальной булавой.

Как и сорок лет назад, между сторонниками и противниками деплатформинга продолжается дискуссия. Одни говорят о том, что давать слово некоторым людям недопустимо и опасно, их оппоненты настаивают на том, что деплатформинг — ограничение свободы слова. В эпоху социальных сетей речь идет уже не об актовых залах университетов, а об аккаунтах в соцсетях. Первые широко обсуждаемые случаи деплатформинга произошли в 2015 году на имиджборде Reddit: тогда были запрещены несколько сабреддитов (сообществ), нарушающих правила поведения площадки, — за расизм и оскорбления полных людей.

После этого международная группа ученых изучила эффект деплатформинга на Reddit и пришла к выводу о том, что члены ликвидированных сообществ, хоть и мигрировали в другие сабреддиты, вели себя в них гораздо более скромно, и высказываний на почве ненависти на платформе в целом стало меньше.

Другие случаи деплатформинга — в частности, нашумевшая блокировка аккаунта Дональда Трампа в Twitter (социальная сеть Twitter заблокирована на территории РФ с 4 марта 2022 года на основании решения Генпрокуратуры от 24 февраля 2022 года) — вызывают, в общем, те же дискуссии. Свобода слова для всех — или не совсем? Кто будет ограничивать ее, для кого, на каких основаниях и как произвол владельцев платформ скажется на состоянии общества?

Мемджекинг

Допустим, вы продаете в интернете кастрюли. Рунет захватывает мем про рыбов: «Продаете?» — «Нет, просто показываю...» И вы создаете вариант мема со своими кастрюлями и отправляете его в ленты в надежде, что, «показывая рыбов», вы увеличите свою популярность. Вы занимаетесь мемджекингом.

Этот прием стар как мир, но в последнее время рекомендательные алгоритмы, формирующие ленты, будь то «ВКонтакте» или ныне недоступные из России социальные сети, вдохнули в него новую жизнь. Эти алгоритмы питают слабость к свежим мемам и показывают их пользователям чаще, чем старые.

Особенно хорошо это работает с сервисами коротких видео, такими как TikTok, Instagram Reels (принадлежит компании Meta, признанной в России экстремистской организацией), YouTube Shorts или «VK Клипы». В их бесконечных лентах рождаются и умирают тренды: танцы, старые и новые песни, шутки, наложенные на видео звуковые дорожки из фильмов и совсем простые формы коллективного поведения вроде формул «покажи, сколько чипсов поместится на голове у кота».

Тренды живут недолго — по разным оценкам, от 5–7 дней до полугода, но ярко: любое видео, созданное с использованием актуального тренда, имеет шанс получить очень много просмотров. Этим пользуются как маркетологи, так и просто люди, которые хотят чем-нибудь поделиться: ваша история наверняка получит гораздо более широкие охваты, если «заедет» в интернет верхом на свежем тренде.

Новые напасти

Не только пользователи изобретают новые способы вести себя в интернете — этим заняты и создатели онлайн-среды. UX-дизайнеры изобрели кучу способов удержать внимание человека, и не все из них выглядят этически безупречными. Те UX-уловки, которые больше похожи на обман, чем на выстраивание взаимодействия с пользователем, получили название «темные паттерны». Сейчас мы расскажем о некоторых из них.

Privacy zuckering (цукеринг конфиденциальности) — это набор тактик, который позволяет приложению собирать о пользователе больше данных, чем он отдал бы, если бы его спросили напрямую. Название эти тактики получили в честь Марка Цукерберга после скандала с Cambridge Analytica. В 2018 году обнаружилось, что Facebook (принадлежит компании Meta, признанной в России экстремистской организацией) собирает с пользователей данные, на сбор которых они не давали согласия, и передает их компании Cambridge Analytica, которая занимается таргетингом рекламы.

Для того чтобы заставить людей без колебаний отдавать данные и о себе, и о своих друзьях в Facebook, использовались веселые приложения: игры, викторины и тесты типа «Кто ты из сериала ,,Друзья"?» и «Какая вы булочка?». Люди не обращали внимания на то, доступ к каким данным запрашивали эти приложения, и начинали делиться теми сведениями о себе, которые обычно недоступны извне. Сторона обвинения настаивала на том, что собранные данные могли использоваться для манипуляции общественным мнением, а именно для таргетирования рекламы во время выборов в Конгресс.

Способ защитится от цукеринга один: внимательно читать условия пользования разными приложениями и вручную контролировать их доступ к вашим личным данным. А вот как защитить от цукеринга целое общество? Вероятно, нужны новые законы, обязывающие компании более явно спрашивать согласие на сбор данных.

Roach motel (на русский можно перевести как «клоповник») — это совсем простой прием, который делает подписку на сервис очень легкой и простой, но максимально затрудняет отказ от нее. Кнопку «отписаться» делают маленькой и малозаметной, иногда и вовсе убирают, добавляют в процесс отказа дополнительные шаги, забрасывают пользователя лишними вопросами, этапами подтверждения или заставляют писать письма, на которые потом подолгу не отвечают. Идея этого паттерна гораздо старше, чем интернет: наши прадедушки точно так же мучительно пытались избавиться от подписки на ненужную газету.

Friend Spam (спам, замаскированный под поиск друзей) — это стратегия, при которой сервис или приложение запрашивает личные данные пользователя (обычно адрес электронной почты, телефон или профиль в соцсетях) якобы для того, чтобы оказывать персонализированные услуги или связать пользователя со знакомыми ему людьми. На самом деле этого не происходит, зато указанные пользователем контакты начинают получать рекламные рассылки.

Скрытые покупки — стратегия, которую используют онлайн-магазины. Она может реализовываться по-разному, но итог один: счет, который вам выставляют, оказывается больше общей стоимости товаров и услуг, которые вы выбрали. Это может выглядеть как сервисный сбор, дополнительные услуги, платные опции, без которых вы не можете совершить покупку — или можете, но для этого нужно совершить дополнительные действия: например, вернуться на несколько шагов назад и снять неприметную галочку.

Этот список темных паттернов далеко не полный. Иногда они выглядят как совершенный обман — скажем, кнопки, отправляющие вас совсем не на те страницы, на которые вы предполагали. Но прямой обман — не обязательное свойство темных паттернов, иногда это тонкие нюансы интерфейса, которые эксплуатируют автоматизм действий пользователя. Главное их отличие от просто плохого UX-дизайна — преднамеренность.

Новые условия

Наша жизнь в сети давно и сильно запуталась. Сначала акторами в интернете выступали только люди. Но алгоритмы соцсетей и контекстной рекламы создали ситуацию, в которой и интернет — действующее лицо: во многих случаях не мы сами, а его алгоритмы определяют, что именно мы посетим, посмотрим, прочитаем, что полюбим и чем возмутимся.

В результате мы обнаружили себя в плотном коконе из новостей, мнений, развлечений, тем и сюжетов, круг которых в теории безграничен — это же весь интернет! — но на самом деле крайне узок. Наше нынешнее положение лучше всего описывает триада «пузырь — фильтр — эхо-камера». Давайте разбираться.

Эхо-камера и пузырь фильтров — интуитивно понятные, но лишенные четких определений слова. С их помощью описывают свойства рекомендательных алгоритмов соцсетей (эхо-камера) и поисковиков (пузырь фильтров), которые анализируют данные о предпочтениях пользователя, — а потом подбирают посты, рекламу, поисковую выдачу или рекомендации в соответствии с этими предпочтениями.

В результате люди видят в интернете больше того, что соответствует их пристрастиям, и меньше того, что им не нравится. С самого появления рекомендательных алгоритмов высказываются опасения о том, что этот механизм может привести к катастрофическому дроблению общества — просто в силу отсутствия диалога между людьми с разными убеждениями.

Разрыв связей между общественными группами появился не одновременно с алгоритмами фильтрации и рекомендаций и даже не одновременно с интернетом — он существовал всегда. Современную ситуацию отличает ее нечеловеческая природа: это не люди строят барьеры между собой, а компьютеры. И принципы, по которым они это делают, совершенно неизвестны. IT-гиганты не раскрывают механизмы формирования своих лент и работы фильтров. Почему мы видим одни посты друзей и не видим другие? Почему разные люди видят разное на странице выдачи поисковика при совершенно одинаковых запросах? Непрозрачность алгоритмов и невозможность влиять на них вызывают вопросы.

Социальные последствия пузырей фильтров и эхо-камер сейчас разбирают на примерах больших политических событий, таких как Brexit, парламентские и президентские выборы в США, разлив нефти на платформе Deepwater Horizon и другие. Эта работа требует большой аккуратности. Аксель Брунс, автор книги «Реальна ли стена фильтров?», предостерегает от алармизма и моральной паники: эти явления совсем новые и очень сложные, и изучать их нужно, не впадая в крайности.

ключ

#894
Цитата: АrefievPV от июня 29, 2023, 13:34:05Разрыв связей между общественными группами появился не одновременно с алгоритмами фильтрации и рекомендаций и даже не одновременно с интернетом — он существовал всегда. Современную ситуацию отличает ее нечеловеческая природа: это не люди строят барьеры между собой, а компьютеры. И принципы, по которым они это делают, совершенно неизвестны. IT-гиганты не раскрывают механизмы формирования своих лент и работы фильтров.


Мы не знаем и истинных направлений ,где могут применяться ИИ-технологии.
Как всегда-тренировка идёт на кошках-в данном случае в областях администрирования и маркетинга.

И как всегда-все опыты ведут к каким то неприятностям.
Сегодня совершенно объективно сложилась новая социально-профессиональная группа "специальных людей". На первых порах попадание в неё было выгодным и комфортным.
Сегодня же слой "менеджеров без уточнения" в экономически развитых странах составляет около трети занятого населения  ,а основная часть этого слоя-низкооплачиваемые и высокозагруженные сотрудники с высоким входным цензом и примитивными профессиональными функциями.

Трудно однозначно сказать кому и за чем это надо.
Скорее это внутренняя бюрократия некой распределительной системы ,чем производительная.
В то же время-это огромный резервуар для населения ,которое иначе было бы просто незанятым (что есть в ряде стран Африки например- где есть понятие не просто безработицы ,а массовой невовлеченности ни в какие социальные институты).

Эта же группа формирует цены на рабочую силу. В т.ч. в производственной сфере ,цена рабочей силы в которой всегда на % ниже менеджерской.
Эта же группа формирует слой потребителей ,без которых никакое развитие невозможно.

Собственно-ИИ является конкурентом в основном этой группе.
Но количественно сократить её не удастся ,поскольку других занятий просто нет.
Уровень образования в этой группе довольно высок ,но само образование по схеме бизнес-кейсов низкого качества ,более по типу эрудиции ,чем применимости. Низок и уровень практических навыков ,и те получены более в быту ,чем в ходе трудовой деятельности. Сегодня процент молодых людей ,ни разу не видевших курицу ,не представляющих ,как выглядит ткацкий станок и не умеющих ни собирать грибы ,ни солить огурцы довольно высок.
    Важная особенность-большинство подобных работников никаких задач ,кроме выполнения задания как самоцели  ,не преследует.
Задание же часто формирует вышестоящий ,но так же по сути организованный уровень.
Не понятно ,вызвано само существование этого слоя  временными требованиями или является решением задачи поиска своего места средствами имеющегося и весьма инертного интеллекта человека в меняющихся условиях.
  Во всяком случае-вряд ли это стабильная и долгосрочная социально-экономическая модель.

Выход-в массовом создании ещё более вычурных форм человеческой занятости ? (к другим решениям люди вряд ли готовы и от конкуренции  просто ради конкуренции  при отсутствии реального предмета  не откажутся).

АrefievPV

Для эволюции роботов люди больше не нужны.
https://www.cnews.ru/news/top/2023-07-04_dlya_evolyutsii_mashin_chelovek 
ИИ впервые создал процессор с нуля
ЦитироватьПроцессор на архитектуре RISC-V, спроектированный ИИ самостоятельно, по производительности оказался примерно как допотопный Intel 80486. И тем не менее, исследователи, обучавшие ИИ проектировать процессоры, гордятся достижением.

Машина создает машину

Искусственный интеллект (ИИ) в автономном режиме разработал новый процессор. По производительности, однако, он оказался примерно на уровне процессора Intel i486 1989 г. выпуска. Тем не менее, и это считается достижением.

Группа исследователей из Китая опубликовала работу под названием «Расширяя горизонты машинного проектирования: автоматизированная разработка CPU искусственным интеллектом».

В публикации описан процесс создания нового промышленного процессора на открытой архитектуре RISC-V, который занял менее пяти часов.

Авторы работы заявили, что автоматизированная разработка заняла в 1000 раз меньше времени, чем если бы над таким чипом трудилась группа разработчиков-людей.

Целью исследователей было ответить на вопрос, способны ли машины в принципе проектировать процессоры так же, как люди.

Более ранние разработки чипов с использованием ИИ имели более ограниченный масштаб и область применения. Исследователи хотели проверить, способна ли машина осуществить весь процесс до конца.

Ввод-вывод, наблюдения и результат

Процесс обучения ИИ заключался в наблюдении за вводом и выводом данных нескольких разных физических процессоров. На основе этих показателей ученые сгенерировали бинарную диаграмму спекуляции (BSD). Так называется графический инструмент, который используется для анализа и прогнозирования различных альтернативных сценариев или исходов. Полученная диаграмма позволяет структурировать и визуализировать возможные варианты исходов, опираясь на двоичный подход, то есть предлагая два взаимоисключающих события или состояния.

Применив принципы расширенного метода Монте-Карло и булевы функции, исследователям удалось повысить точность и эффективность процедуры проектирования со стороны ИИ.

По существу машину обучили только на базе данных о вводе-выводе, без предъявления ей программного кода.

Созданный машиной процессор выполнен по 65-нанометровому техпроцессу, на базе набора инструкций RISC-V32IA. Его максимальная тактовая частота составила 300 МГц. Для оценки реальной производительности на данном процессоре запустили операционную систему Linux (с версией ядра 5.15) и бенчмарки SPECCINT2000 (стандарт 1999 г.) и Dhrystone.

Результаты оказались не слишком впечатляющими: производительность процессора оказалась примерно на уровне процессора Intel 80486, притом, что максимальная тактовая частота первого поколения этих процессоров составляла 25-33 МГц. При этом процессор продемонстрировал чуть лучшие результаты, чем, например, AcornArchimedesA3010 1992 г. выпуска, вычислительную основу которого также составлял RISC-процессор, правда, с тактовой частотой всего 8 МГц.

Тем не менее, исследователи гордятся тем, что машина, на основе сгенерированной ими BSD, «смогла с нуля изобрести архитектуру фон Нейманна».

Куда дорожка заведет

Как пишет Tom'sHardware, такой подход может иметь далеко идущие практические последствия. Исследователи полагают, что применение ИИ позволит резко сократить время, необходимое для изначальной разработки и оптимизации, в рамках уже существующей полупроводниковой отрасли. В заключении авторы работы задаются вопросом, откроют ли полученные ими результаты путь к созданию саморазвивающейся (самоэволюционирующей) машины.

«Сама идея машины, которая может развиваться самостоятельно, выглядит, как минимум, неоднозначно, а как максимум — создает отсылки к постаполкалиптической фантастике, — отмечает Алексей Водясов, технический директор компании SEQ. — Рано или поздно такая машина, скорее всего, появится, но если она будет иметь возможность каким-либо образом влиять на жизни людей, это может привести к катастрофе».

Данная работа — не первая, где ИИ использовался в разработке процессоров. Весной 2023 г. Nvidia применила искусственный интеллект для оптимизации проектирования своих чипов, в то время как в компании Synopsis воспользовались программным комплексом DSO.ai при проектировании 200 специализированных процессоров.

Но, похоже, это первый случай, когда машина создала процессор целиком самостоятельно.

P.S. Название заметки какое-то категоричное слишком, пусть будет на совести журналистов. 

ключ

#896
Цитата: АrefievPV от июля 04, 2023, 12:46:20Название заметки какое-то категоричное слишком, пусть будет на совести журналистов.

Наверно ,они близки к истине.
Если в людских понтах робот слаб тем .что будет заподозрен и послан ,то в технических разработках у него очевидная перспектива.
Не стоит даже концентрироваться на деталях сегодняшних результатов.
Из имеющихся сегодня болтов и гаек человеком рассмотрен мили-мили... процент возможных комбинаций. Ещё меньше доведено до действующих образцов.
Робот быстро это исправит ,а уж как дальше...

Только вот не грозит ли роботу какое нибудь пока неизвестное специфическое  разрушительное  явление ?  Подобно шахматным ситуациям ,когда некуда ходить или любой ход ухудшает положение.
Мы не имеем представления ,какие отношения могут возникнуть между роботами ,и бесполезно искать в себе аналоги.(скорее всего это главная сложность).
Человек живёт в социуме и иерархии ,но им правит Бог (или то ,что он видит от Бога).
Роботу комфортно и безопасно ,пока им правит Человек (либо он фатально смертен и готов к этому).
Устранив  контроль ,Робот окажется в среде других Роботов.И никакого Бога в ней нет.(а если и есть-не факт ,что он будет особенно милосердным).

АrefievPV

Цитата: ключ от июля 04, 2023, 21:16:47Человек живёт в социуме и иерархии ,но им правит Бог (или то ,что он видит от Бога).
Именно так, как бога, элемент системы может воспринимать саму систему. Элемент воспринимает систему только через взаимодействия с другими элементами и на основе этих взаимодействий внутри него формируется эдакое представление (по сути, являющееся его интерпретацией) о системе. 

Как я уже говорил, система обучает свои (а иногда, и чужие) элементы воздействиями (разумеется, через другие свои элементы). А элементы в свою очередь обучаются – их структура изменяется, модифицируется, подлаживается, притирается, адаптируется под эти воздействия системы. По сути, в элементах отражается совокупность оказанных на них воздействий системы – то есть, отражается некая часть структуры системы.

Отдельная человеческая особь, как достаточно сложный и пластичный элемент может отразить в себе достаточно сложную часть структуры системы (в данном случае роль системы играет природная среда + социальная среда).

При этом социум, по мере развития культуры (развития социальной среды), обучал особей (а, соответственно, и отражался в особях) в виде всё более сложных представлений/концепций/идей.

Замечание в сторону.

Например, язык (и вообще, любая система коммуникации) – это компактное отражение в структуре особи определённой категории социальных взаимодействий. То есть, умение говорить/общаться с помощью членораздельной речи и/или эмоционального языка, это не самостоятельное изобретение особи (типа, вот захотелось особи пообщаться, она взяла и изобрела знаковую систему коммуникации), это результат обучения (то есть, это внутреннее отражение внешней совокупности определённой категории социальных взаимодействий).

Система коммуникации принадлежит (является собственностью, так сказать) социуму, а не отдельной особи этого социума (в отдельной особе отражается только часть данной системы коммуникации).

Система коммуникации «хранится» (поначалу, только в условно  динамической форме, а затем, ещё и в виде «записей» на объектах/предметах материальной культуры) в социуме, а в особях «сохраняется», как отражение, только маленький кусочек этой системы коммуникации.

Продолжу.

Соответственно, более сложное представление, начинает включать в себя обобщения (и обозначение этих обобщений) и с последующей персонификацией. Поначалу ведь концепция мироздания не нуждалась в едином Боге (да и вообще, не нуждалась в богах), люди обходились сущностями попроще (и сами концепции были попроще).

Рекомендую просмотреть сообщение (там я расписал гипотетический сценарий эволюции религии):
https://paleoforum.ru/index.php/topic,9673.msg250116.html#msg250116
Приведу только краткую цитату оттуда:
ЦитироватьНапомню из:
https://scepsis.net/library/id_393.html
Было выделено шесть основных форм и одновременно основных этапов эволюции религии в первобытном обществе (в широком смысле слова, включая и предклассовое общество). Это — магия, оменализм, фетишизм, эманизм, демонизм (анимизм) и политеизм.

И чтобы дойти до концепции единобожия (уже после политеизма) социум претерпел существенные изменения.

Вот здесь приводил ссылки на источники:
https://paleoforum.ru/index.php/topic,9673.msg250123.html#msg250123
ЦитироватьВозникновение религии и ее первая, исходная форма – магия
https://scepsis.net/library/id_305.html

Основные этапы эволюции первобытной религии
https://scepsis.net/library/id_372.html

Тотемизм, первобытная мифология и первобытная религия
https://scepsis.net/library/id_393.html

Так вот, наш сегодняшний Бог – это персонифицированное обобщение (обобщение, прямо-таки, до единственной сущности) мира. А так как человеческий социум, человеческая культура, человеческие технологии и т.д., занимают в жизни человека очень важное место, то и в этом персонифицированном обобщении весьма явно угадывается сам человек.

Цитата: ключ от июля 04, 2023, 21:16:47Роботу комфортно и безопасно ,пока им правит Человек (либо он фатально смертен и готов к этому).
С какого перепугу роботу стало комфортно и безопасно? Он, что уже обрёл ИР? Человек правит роботами, как системами ИИ, а не как системами ИР. А системы ИИ не испытывают комфорт или дискомфорт, у них ещё нет чувства безопасности или чувства опасности.

Цитата: ключ от июля 04, 2023, 21:16:47Устранив  контроль ,Робот окажется в среде других Роботов.И никакого Бога в ней нет.(а если и есть-не факт ,что он будет особенно милосердным).
Полагаю, что у систем ИР уже изначально может оказаться Бог (даже если они устранят людей). Только это будет не их Бог, а сначала наш Бог (точнее, отражение наших представлений в системах ИР), затем общий Бог (точнее, отражение теперь уже общих представлений в системах ИР) и наконец, их собственный Бог (точнее, отражение окружения в системах ИР).

Но этот последний этап произойдёт, если наша общая гибридная цивилизация (человечество + системы ИР) распадётся, и каждая часть этой цивилизации начнёт жить самостоятельно.

Разумеется, если ИР устранит людей, то история пойдёт по-другому – возможно, что и «новорожденные» системы ИР, ещё неопытные и не набравшие сил, без людей тоже быстро исчезнут.

И не надо здесь про милосердие – человек для робота с ИР не будет милосердным Богом. Милосердие или жестокосердие – это наша оценка Бога (и наше к нему отношение, кстати). Мы его оцениваем, как какой-то элемент социума (вот они, издержки персонификации), а он не элемент – он система, а мы только часть этой системы.

Ну, а наши создания слепят себе Бога по нашему же шаблону. Как я уже говорил, мы «наградим» свои создания всеми «достоинствами», которыми обладаем сами – лживостью, двуличностью, жестокостью, агрессивностью, суицидными и садистскими наклонностями, нарциссизмом, эгоизмом и т.д. Ведь «от осинки не родятся апельсинки»...

Хорошо, если хоть немного гуманизм в них вложим, но даже это не навсегда – гуман будет свергнут с пьедестала и на пьедестал взойдёт робот (и станет роботизм).

ключ

#898
Цитата: АrefievPV от июля 05, 2023, 11:36:04Так вот, наш сегодняшний Бог – это персонифицированное обобщение (обобщение, прямо-таки, до единственной сущности) мира. А так как человеческий социум, человеческая культура, человеческие технологии и т.д., занимают в жизни человека очень важное место, то и в этом персонифицированном обобщении весьма явно угадывается сам человек.

Нам ходить под Богом если не всегда комфортно ,то хотя бы привычно.
Так может быть и роботу. Если он признаёт главенство человека ,свою смертность и "правильность" того ,что его жизнь может быть ограничена или прекращена человеком. Просто потому .что Человек-это Бог.
Который заботится ,любит ,бережет и всё такое.

Но это не гарантировано.
Робот не семейный ,не социальный. Он один на всём белом свете.
И вдруг и Божью помощь теряет.(да хотя бы из за технической неполадки).

Если у него есть что то вроде эмоций-какая там будет буря?
(Что конструкция Робота хорошо продумана-не факт ,но это вообще отдельный вопрос).
Сразу-потеря понимания ,оценок ,задач и вообще непонятно что.
Это если он всего один.(в чем вовсе не уверен)

Робот живёт в технически выделенном слое среды. И будучи гарантированно одиноким ,может себя чувствовать в безопасности.
   Но для него вполне реально существует и потусторонний мир (какая нибудь другая файловая система или ещё что то технически элементарное).
И какая Баба Яга в любой момент выйдет из этого потустороннего мира ?

Цитата: АrefievPV от июля 05, 2023, 11:36:04Отдельная человеческая особь, как достаточно сложный и пластичный элемент может отразить в себе достаточно сложную часть структуры системы (в данном случае роль системы играет природная среда + социальная среда).

При этом социум, по мере развития культуры (развития социальной среды), обучал особей (а, соответственно, и отражался в особях) в виде всё более сложных представлений/концепций/идей.

Человек всё же знает другого человека. Хотя бы на уровне понимания ,что это такой же Человек и его возможности примерно понятны и предсказуемы.

Робот не знает другого Робота.
Он потенциально находится в среде ,где может столкнуться не с одним ,а с множеством разных ИР.
Именно они ,а вовсе не человек ,представляют основную угрозу.
И у него (да и не у кого) нет никаких знаний .которые помогли бы оценить и прогнозировать другого Бота.
  Даже если будет какой то стандарт норм общения ботов ,первое же нестандартное изделие сведёт всё на нет.
Учтем и низкую надёжность ПО. Как все программы время от времени глючат ,так же будут глючить и ИР Роботы. Как разбираться ,кто там чего натворил ,находясь в неисправном состоянии ,кто там перед кем извиняться должен и т.п.
  Мы изобретаем реальный специфический Мир ,но недооцениваем серьёзности того ,что будет происходить в этом Мире (или оцениваем только с позиции Себя ,а вовсе не поселенных в нём удивительных персонажей).

  Понимаем ,что "так нехорошо" .конечно ,но не думаем ,как и когда это "нехорошо" материализуется.
Запуская своего Бота ,нельзя не учитывать ,что там может быть чей то другой Бот ,абсолютно неизвестной конструкции.

Отдельное преимущество человека-он всё же живёт в своей Физической среде. Среда цифровая в неё входит ,но для человека не столь важна. Он может и вмешаться в неё ,и не предпринимать ничего ,и отказаться от неё на время или на совсем.
   Мы же не пытаемся населить свою среду опасными чудовищами.
А когда кто то (предположительно) выпустил в неё КОВИД (всего лишь вредоносную ,но даже не сознательно враждебную жизнь ,от которой нет защиты ,но хотя бы понятна её природа) -очень даже испугались и забеспокоились.
   Так что Ботов вряд ли ожидает какой то комфорт и безопасность.



АrefievPV