Доступно ли компьютерам творчество?

Автор ArefievPV, мая 01, 2017, 08:52:53

« назад - далее »

василий андреевич

Цитата: Дарвинист от марта 24, 2024, 02:33:16Другой вопрос: что есть "сеть" вообще?
Не подобие ли она некоторому вязкому полю,
Тогда придется начинать с "пересмотра" Броуновского движения в вязкой среде. Массивная частица (пыльца) не может быть толкаема "стечением обстоятельств-векторов-факторов". А вот если пыльца - осциллятор, потенциал которого растет за счет хаотических ударов легких частиц, как рост вибрационной частоты, то неизбежен этап растраты накопленного потенциала в кинетику движения с релаксацией потенции.
  Релаксирующие траектории множества тяжелых частиц - это сеть. Добавив "информационная" сеть, будем искать узловые точки, в которых релаксирующие колебания сложатся, как резонанс, то есть, как тот новый вибрационный потенциал, символичный адекватной декодировке. Или, код и декодер нашли уже не случайно свою "половинку по любви".
  И творчества, как рождения того алгоритма, которого нет в объеме взаимодействий - нет. Нужен элемент из "четвертого" измерения, который оценит вспыхивающие и гаснущие узловые точки работающих-вычисляющих компов, как полезные для себя-любимого.

  Встройка человека в эти узловые точки - практически порабощение двух спецов из разных вселенных друг другом. Но всегда(?) остается "неспециализированная" масса, способная прочертить творческий алгоритм между теми узловыми точками в той среде, где этого алгоритма взаимодействия ранее не было.
  Как человек без калькулятора сможет выбрать траекторию через нужные именно ему точки? Назовем таковой выбор гармоническим правилом, или правилом наименьшего действия, а то и правилом золотого сечения.

АrefievPV

Робот-пылесос научили ходить по ступенькам
https://nplus1.ru/news/2024/03/25/ascender
И чистить их
Цитировать

Компания Migo Robotics разработала робопылесос, который способен спускаться и подниматься по лестницам, попутно очищая ступеньки. Робот оснащен модулем пылесоса и шваброй для влажной уборки. За навигацию отвечают лидар, HD-камера и ToF-сенсоры, а встроенные алгоритмы распознавания образов могут определить более 100 типов объектов. Одного заряда хватает, чтобы провести уборку на площади 500 квадратных метров, сообщает New Atlas. Подробная информация об устройстве доступна на Kickstarter.


ключ

Цитата: Дарвинист от марта 24, 2024, 02:33:16Другой вопрос: что есть "сеть" вообще?
Не подобие ли она некоторому вязкому полю, в котором "вязнут" те же, в данном случае,

Вероятно ,пространство ,в котором возможен ответ Ааааа? (стандартный ответ на любой запрос) на запрос Эээээ! (вежливое обращение к незнакомому человеку).

АrefievPV

«Галлюцинации» искусственного интеллекта стали новой угрозой. Китайские корпорации уже попались
https://safe.cnews.ru/news/top/2024-04-01_ii_podskazyvaet_programmistam
Эксперимент исследователя по информационной безопасности выявил критическую уязвимость в процессе разработки программного обеспечения - возможность генеративного искусственного интеллекта (ИИ) внедрять поддельные пакеты в реальный код. Крупные компании, Alibaba, Tencent и Baidu, включили несуществующий пакет в свою документацию.
ЦитироватьНесуществующая библиотека

Бар Ланьядо (Bar Lanyado) из ИБ-компании Lasso Security создал несуществующую библиотеку (пакет) для Python под названием huggingface-cli. Библиотеки представляют собой набор готовых функций, классов и объектов для решения задач разработчиков. Он заметил, что модели генеративного искусственного интеллекта (ИИ) неоднократно «галлюцинировали» (термин исследователя) это имя библиотеки при запросах пользователей, то есть советовали их. Чтобы проверить, как это отразится на реальном мире, Ланьядо разместил фальшивый пакет в индексе пакетов Python (PyPI).

Компания Alibaba включила несуществующий пакет в свою документацию. В инструкции к GraphTranslator от Alibaba ошибочно указано pip install huggingface-cli как метод установки легитимного инструмента от Hugging Face. К счастью, творение Ланьядо оказалось безвредным, но потенциальные последствия его использования не радуют специалистов по информационной безопасности (ИБ).

По словам Ланьядо, злоумышленник может использовать придуманное ИИ название для вредоносного пакета, загруженного в какой-нибудь репозиторий, в надежде, что другие смогут загрузить вредоносное ПО.

В результате, huggingface-cli получил более 15 тыс. подлинных загрузок за те три месяца, что он был доступен. Кроме того, исследователь провел поиск на GitHub, чтобы определить, использовался ли этот пакет в репозиториях других компаний. Результаты показали, что несколько крупных компаний либо используют, либо рекомендуют этот пакет в своих репозиториях. Например, инструкции по установке этого пакета можно найти в README репозитория, посвященного исследованиям, проводимым компанией Alibaba. На начало апреля 2024 г., эта техника не была использована в реальной атаке на компании.

Новая угроза для разработчиков

Этот случай указал на новую возможность взлома для хакеров. ИИ может рекомендовать программистов несуществующие пакеты, созданные и замаскированные под необходимые инструменты для разработки злоумышленниками. Таким образом вредоносы могут проникнуть на устройства тысяч разработчиков.

Идея заключается в том, что кто-то недобросовестный может обратиться к моделям за советом по коду, а после записать придуманные пакеты, которые системы ИИ неоднократно рекомендуют. Затем внедрить эти зависимости, чтобы другие программисты, используя те же модели и получая те же предложения, в итоге использовали эти библиотеки, которые могут быть отравлены вредоносным ПО. Хакеры могут загрузить вредоносные пакеты с такими же именами в соответствующие реестры, и с этого момента им остается только ждать, пока люди загрузят эти пакеты.

У «галлюцинаций» могут быть разные причины, например, обучение систем ИИ на неточных или недостаточных данных. Возможны и недочеты в алгоритмах, которые заставляют ИИ обобщать данные неправильно и учитывать фейкововую информацию. ИТ-разработчикам стоит помнить о том, что «галлюцинации» возможны, и важные данные, полученные от ИИ, следует перепроверять.

Цель эксперимента

Готовность моделей ИИ уверенно ссылаться на несуществующие судебные дела сегодня хорошо известна и вызывает немалое смущение у адвокатов, не знающих об этой тенденции. И, как оказалось, генеративные модели ИИ будут делать то же самое с программными пакетами.

Именно это и решила проверить компания Lasso Security. Вооружившись тысячами вопросов «как сделать», Бар Ланьядо опросил четыре модели ИИ (GPT-3.5-Turbo, GPT-4, Gemini Pro aka Bard и Cohere Command) на предмет задач программирования на пяти различных языках программирования (Python, Node.js, Go, .Net и Ruby), каждая из которых имеет свою собственную систему упаковки.

Оказывается, часть имен, которые эти чат-боты извлекают, сохраняется, причем в разных моделях. А постоянство - повторение вымышленного имени - это ключ к превращению причуды ИИ в функциональную атаку. Злоумышленнику нужно, чтобы модель ИИ повторяла названия галлюцинированных пакетов в своих ответах пользователям, чтобы вредоносные программы, созданные под этими именами, были найдены и загружены.

Ланьядо выбрал случайным образом 20 вопросов для галлюцинаций с нулевым результатом и задал их по 100 раз каждой модели. Его целью было оценить, как часто название галлюцинирующего пакета остается неизменным. Результаты его теста показали, что названия сохраняются достаточно часто, чтобы это было функциональным вектором атаки, хотя и не всегда, а в некоторых упаковочных экосистемах чаще, чем в других.

По словам Ланьядо, в GPT-4 24,2% ответов на вопросы приводили к появлению галлюцинаций, из которых 19,6% были повторяющимися. В таблице, предоставленной изданию The Register, приведена более подробная разбивка ответов на GPT-4. В GPT-3.5 22,2% ответов на вопросы вызывали галлюцинации, а 13,6% повторялись. Для Gemini 64,5% вопросов вызывали выдуманные имена, из которых 14% повторялись. А в Cohere 29,1% галлюцинаций и 24,2% повторов.

Несмотря на это, экосистемы упаковки в Go и .Net построены таким образом, что ограничивают возможности эксплуатации, отказывая злоумышленникам в доступе к определенным путям и именам.

Галлюцинации ИИ

В своем блоге от 6 июня 2023 г. исследователи Vulcan Cyber рассказали о новой технике распространения вредоносных пакетов, которую они назвали «галлюцинацией пакетов ИИ». Эта техника связана с тем, что ChatGPT и другие генеративные платформы ИИ иногда отвечают на запросы пользователей галлюцинациями в виде источников, ссылок, блогов и статистики.

Большие языковые модели (Large Language Models), такие как ChatGPT, могут генерировать такие галлюцинации - URL, ссылки и даже целые библиотеки кода и функции, которых на самом деле не существует. По словам исследователей, ChatGPT даже генерирует сомнительные исправления для CVE и может предлагать ссылки на несуществующие библиотеки кода.

Директор по исследованиям в области информационной безопасности Tanium Мелисса Бишопинг (Melissa Bischoping) рассказала о том, что компаниям никогда не следует загружать и исполнять код, который они не понимают и не проверяли - например, репозитории GitHub с открытым исходным кодом.

АrefievPV

Ученые считают, что ИИ может притворяться более глупым, чем есть на самом деле
https://naked-science.ru/community/948487
Новое исследование показало, что продвинутые модели ИИ могут притворяться глупее, чем они есть на самом деле, и это может иметь серьезные последствия, поскольку они продолжают активно развиваться.

ЦитироватьВ статье, опубликованной в журнале PLOS One, исследователи из Берлинского университета имени Гумбольдта обнаружили при тестировании большой языковой модели (LLM) по так называемым критериям теории разума, что ИИ не только может имитировать этапы изучения языка, наблюдаемые у детей, но и выражает нечто похожее на умственные способности, связанные с этими стадиями развития.

Опираясь на теорию разума, ориентированную на детей, ведущий автор исследования Анна Маклова и ее коллеги из Карлова университета в Праге попытались определить, могут ли такие модели ИИ, как GPT-4 от OpenAI, «притворяться менее способными, чем они есть на самом деле».

Чтобы это выяснить, исследовательская группа поручила моделям вести себя как дети в возрасте от одного до шести лет, давая ответы на вопросы. Пройдя более чем 1000 испытаний и когнитивных тестов, «смоделированные детские личности» действительно развивались почти так же, как дети указанного возраста, и в итоге продемонстрировали, что модели могут притворяться менее умными, чем они есть.

В интервью изданию PsyPost Анна Маклова объяснила, что эти результаты могут помочь развитию общего искусственного интеллекта (AGI), который способен мыслить и действовать как человек.

P.S. Ссылки в дополнение:

Модель психического состояния человека
https://ru.wikipedia.org/wiki/%D0%9C%D0%BE%D0%B4%D0%B5%D0%BB%D1%8C_%D0%BF%D1%81%D0%B8%D1%85%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B3%D0%BE_%D1%81%D0%BE%D1%81%D1%82%D0%BE%D1%8F%D0%BD%D0%B8%D1%8F_%D1%87%D0%B5%D0%BB%D0%BE%D0%B2%D0%B5%D0%BA%D0%B0

Теория разума оказалась подвластна двухлетним детям
https://nplus1.ru/news/2016/11/08/theoryofmind

Теория разума
https://postnauka.org/faq/94281

АrefievPV

Грядет революция в ИИ: создана новая архитектура нейросетей
https://naked-science.ru/community/954608
Исследователи из ведущих американских институтов представили новую архитектуру нейронной сети Kolmogorov-Arnold Networks (KAN). Она стала альтернативой многослойным перцептронам (MLP) — принципу, разработанному еще в 1957 году.
Цитировать
Нейронная сеть Kolmogorov-Arnold Networks (KAN) / © Ziming Liu
 
В отличие от перцептрона (MLP), представляющего упрощенную модель биологической нейронной сети, где в центр поставлена математическая модель восприятия информации мозгом, KAN основана на глубоких математических принципах. А именно — на аппроксимационной теореме советских математиков А. Н. Колмогорова и В. И. Арнольда, или теореме суперпозиции.

Исследователи отметили, что KAN, в отличие от MLP, может обрабатывать новую информацию без катастрофического забывания. Модель постоянно находится в актуальном состоянии, не полагаясь на какую-либо базу данных или переобучение.

KAN выдает ответы во много раз лучше и точнее привычных моделей, однако его обучение требует больших вычислительных мощностей. Новая архитектура может открыть возможности для дальнейшего совершенствования глубокого обучения ИИ.

АrefievPV

Может ли машина мыслить? (к/ф «Кто за стеной?», СССР, 1977)


ЦитироватьКороткометражный фильм «Кто за стеной?»
Режиссер/сценарий: Семен Райтбурт.
В ролях: А. Грачев, И. Калиновская, Е. Лазарев, Ф. Иванов В. Власов, А. Котов.
---
«Центрнаучфильм», СССР, 1977.

АrefievPV

На Астрофоруме запостил парочку сообщений (понятно, что народ моего мнения не разделяет), думаю, здесь они будут в тему.

Был вопрос про ИИ (создан он или нет), потом перескочили на искусство (может ли ИИ создавать произведения искусства).

https://astronomy.ru/forum/index.php/topic,130794.msg6062906.html#msg6062906

Цитироватьivanij пишет:
И всё это фальшь. Эрзац.
ЦитироватьRattus пишет:
Чёткие и ясные критерии Истинного Искусства будут Вами явлены Миру?
Цитироватьivanij  пишет:
Они уже давно сформулированы.
ЦитироватьСерый Страж пишет:
Что считать искусством (произведением искусства), а что – нет, зависит от наших представлений и предпочтений (грубо говоря, от системы отсчёта наблюдателя).

Если у какой-то группы людей схожие представления и предпочтения в отношении какой-то деятельности (и результатов этой деятельности), то они будут интерпретировать эту деятельность (и результаты этой деятельности) примерно одинаково (схожим образом). Понятно, что у разных групп людей взгляд на эту деятельность (и результаты этой деятельности) может быть разным.

Аналогично дело обстоит и с искусством – разные группы людей могут придерживаться разных взглядов на то, что является искусством, а что – нет.

Например, многие люди считают «квадрат Малевича» произведением искусства.

Кто-то считает искусством и унитаз в обрамлении ржавой арматуры.

Кто-то вообще придерживается точки зрения, что искусством может являться только то, что создано человеком (то есть, по критерию авторства) и отвечает определённым критериям (эти критерии, в свою очередь, тоже могут быть разными у разных групп людей).

Но обычно в качестве основного критерия обозначают свойство/способность искусства воздействовать на нашу психику, минуя (игнорируя) критическое восприятие (типа, воздействие искусства преодолевает контроль рацио). Ну, а далее идёт уже дополнительная конкретизация – какие эмоции вызывает (положительные или отрицательные), какие представления активирует (моральные или аморальные) и т.д. и т.п.

То есть, произведения искусства вызывают в нас какие-то эмоции и чувства, наводят нас на какие-то мысленные аналогии, активируют в нас какие-то представления и т.д. Кстати, творения природы (типа, там вид на осенний лес) тоже ведь вызывают в нас эмоции, чувства и т.д.

И если некий результат работы системы ИИ вызывает у нас схожие психические состояния и процессы, то при надлежащем оформлении и заранее обозначенной категории этого результата (типа, что вот это рисунок), мы будем считать его произведением искусства. А кто/что был/было творцом – вопрос вторичный (например, творения природы мы ведь тоже зачастую приравниваем к произведениям искусства и даже пытаемся их скопировать).

https://astronomy.ru/forum/index.php/topic,130794.msg6064156.html#msg6064156

ЦитироватьСерый Страж пишет:
Например, многие люди считают «квадрат Малевича» произведением искусства.
Цитироватьivanij пишет:
В этом частном случае заложено весьма глубокое содержание.
ЦитироватьСерый Страж пишет:
В том-то и дело, что всё это «глубокое содержание» формируется у наблюдателя, в самом «квадрате Малевича» нет никакого «глубокого содержания».  «Глубокое содержание», это ведь информация (в виде мнения, оценки, представления и т.д.), которая возникает в приёмнике (иначе говоря, в наблюдателе, в зрителе).

Как я и сказал:
ЦитироватьСерый Страж пишет:
Что считать искусством (произведением искусства), а что – нет, зависит от наших представлений и предпочтений (грубо говоря, от системы отсчёта наблюдателя).

Цитироватьivanij пишет:
Особенно важно рассматривать его в контексте данной темы. Малевич, возможно, сам того не осознавая (а, может, наоборот, заранее предполагал, что будет означать этот самый квадрат) показал предельный случай тупикового пути авангарда того времени. К чему может привести формальный подход к живописи (в частности). Он вывесил перед художниками своего рода "кирпич", наподобие того, что вывешивают "гаишники" на дорогах, как запретительный знак вского движения в данном направлении.
ЦитироватьСерый Страж пишет:
Мы можем долго гадать, осознавал он или нет (и что он предполагал), когда создавал свой «квадрат».

И вообще, следует разделять авторство (с коим тоже куча непоняток) и «пользовательство». Пользователи как раз и решают, что есть искусство. А вот  с авторством ситуация немного сложнее.

Например, художник может перенести красивый природный пейзаж на полотно и получится произведение искусства. Да, художник на холст может привнести что-то своё, но даже если он просто максимально точно скопирует видимый им красивый пейзаж, то всё равно, многие будут считать нарисованное произведением искусства. Однако по критерию авторства в роли творца этого пейзажа выступает природа, а художник, по сути, только реплику с творения природы сделал.

Мало того, это красивый природный пейзаж можно просто сфотографировать и получившаяся качественная цветная фотография пейзажа тоже многими людьми будет расцениваться, как произведение искусства. В этом случае, роль человека в создании данного произведения искусства вообще минимальна – пейзаж создала природа, фотоаппарат запечатлел этот пейзаж, а человек-фотограф, что, только наводил объектив да кнопочку нажимал?

Ещё некоторые люди считают, что создавать объекты искусства (произведения) способен только тот, кто сам испытывает эмоции и чувства. Здесь люди жёстко увязывают «производителя искусства» (автора) и «потребителя искусства» (зрителя). Они как бы переносят на автора свои свойства/качества – дескать, раз уж мы, просто ценители, можем испытывать эмоции, то уж автор-то их обязательно испытывает.

А как же природные творения/создания, которые люди успешно копируют и выдают за свои произведения – природа тоже испытывает эмоции и чувства? Или, результаты природных процессов нельзя называть произведениями, поскольку это слово предназначено только для тех объектов, которые создаёт человек?

Поэтому, система ИИ может создать произведение искусства, даже не испытывая эмоций и чувств. Тут главное чтобы зрители решили, что созданное является произведением искусства. А будет ли сама система ИИ считать созданное ею произведением искусства – вопрос десятый.

Цитироватьivanij пишет:
А использовать в качестве послания ВЦ что-то такое, почему бы и нет? Кстати, такие предложения уже были.
ЦитироватьСерый Страж пишет:
А как расценят ВЦ эти послания? Не мы сами, а именно представители ВЦ? Повторю: информация (а тем более, смысл сообщения) возникает в приёмнике. (замечание в скобках: по большому счёту, даже данные возникают в приёмнике)

В качестве послания следует использовать то, что с наибольшей вероятностью будет интерпретировано наблюдателями ВЦ сходным с нами образом. Что это может быть? На самом деле, вопрос этот не так прост, как кажется.

Например, мы считаем, что какая-то последовательность простых чисел, это явный признак разумности, и наблюдатели ВЦ по-нашему мнению должны считать также. А вдруг они по-другому считают? Почему представители ВЦ обязательно должны думать, считать, интерпретировать, как мы? Почему мы всех меряем по себе? Вопросы риторические – просто нам наш махровый антропоцентризм опять глаза застилает и по-другому думать не даёт...  :(

АrefievPV

Продублирую сюда цитату из своего сообщения, но сначала небольшая преамбула.

Разум, желания, эмоции, чувства и т.д., в системах ИИ реализуются просто (функционал абстрагирования реализован не так давно, а функционал сознания уже давно реализован). Разумеется, просто, принципиально, а не технически и/или экономически. То есть, что надо сделать – понятно, а вот как и какими средствами это сделать – не очень понятно и трудно реализуемо.

Будет ли это имитацией стремления к самосохранению? С одной стороны – да, будет. Но с другой стороны это ведь можно расценивать и по-другому – это просто искусственная копия/реплика сути некоторых природных явлений. Разумеется, реплика именно сути явления, а не формы явления.

Например, полёт самолёта на дозвуковых скоростях не очень сильно отличается от полёта птицы, а вот конструкция самолёта (двигатели, внутренняя структура, управление, топливо и т.д. и т.п.) отличаются кардинально. То есть, суть явления «полёт аппарата тяжелее воздуха» мы повторили (реплицировали, так сказать), а вот форму реализации придумали свою (правда, если разбираться, то там выявится тоже куча заимствований у природы).

Цитата: АrefievPV от мая 16, 2024, 17:29:47Когда существует огромный разрыв в качестве и количестве между явлениями, то очень трудно установить между ними связи и выявить нечто общее, которое в них присутствует.
Наша изначальная предвзятость и косность мышления здорово мешают таким установлениям связей и выявлению общего.
 
Начну с функционала сознания.
 
Вот как, например, увидеть общее между самосознаним человека и работой простого одномодального датчика? А ведь общее имеется, попробую это показать.
 
Очень часто люди смешивают понятия сознание и самосознание – то есть, смешивают некое состояние (например, состояния в сознании) с рефлексией этого состояния (осознания этого состояния в сознании).
 
В биологии до этого (достаточно высокого) уровня рефлексии (самосознания) есть уровни пониже – уровень самоощущения и уровень самочувствия. При всём при этом не следует забывать, что в биологии мультимодальность актов/процессов осознания (совокупность которых, когда они работают одновременно мы и обзываем состоянием) присутствует изначально.
 
Слова сознание, самосознание, самочувствие, самоощущение обозначают состояние (а с добавление само- обозначают ещё и рефлексию), но состояние можно описать и как совокупность одновременно работающего функционала (как совокупность одновременно работающих функций). И если переходить теперь к конкретным функциям, то для сознания, это будет акт/процесс осознание, а для всех прочих можно просто убрать добавление само-.
 
Для того чтобы разобраться (и не запутаться), что такое осознание, следует выделить элементарную функцию, сводимую к простой операции в какой-то одной модальности.
 
Сначала повторю свой комплект определения, связанных с сознанием:
 
Суть сознания – это условие «со знанием».
Суть механизма сознания – это реализация данного условия «со знанием».
Суть реализации – это процесс осознания (то есть, сравнение/сопоставление со знанием).
Суть состояния в сознании – это наличие процесса осознания.
 
Осознание, это функция интеллекта, которая на любом уровне сводится к простой операции: сравнение/сопоставление осознаваемого с имеющимися знаниями. Понятно, что при этой операции будет генерироваться некий сигнал о результате сравнения/сопоставления (если ничего не генерируется, то и операции как таковой нет).
 
Разумеется, чтобы выявить извне работу такой функции в системе, необходимо чтобы этот сгенерированный сигнал, отразился в какой-то внешней реакции системы.
 
Реализует функцию осознания (и это чётко выявляется извне) простейший одномодальный датчик-сигнализатор:
– уловив сигнал определённой модальности, интенсивности, длины волны и пр. (это уже зависит от сенсора, как преобразует внешнее входящее воздействие и что он пропускает внутрь),
– производится операция сравнения/сопоставления с имеющимися у датчика знаниями (например, «врождёнными» или настраиваемыми уставками),
– в результате чего генерируется сигнал, запускающий или отключающий какие-то исполнительные механизмы (ревун, электропривод, какую-то сигнализацию и т.д.).
 
Если переводить на язык психологии, то датчик способен обратить внимание и узнать (обычно обращение внимания происходит непосредственно в сенсоре, а узнавание уже на матрице уставок).
 
Но при этом состояние в сознании у датчика есть только в момент проведении операции сравнения/сопоставления сигнала с уставками, в другое время нет в датчике никакого сознания. То есть, состояние в сознании возникает периодически и на краткий миг. Мало того, всё его состояние в сознании, как совокупность работающего функционала, состоит всего лишь из одной функции одной модальности.
 
Для того чтобы искусственная система была постоянно в состоянии сознания процесс осознания должен идти постоянно. Такую систему уже не корректно будет обзывать датчиком, тут больше подходит слово монитор (типа, тот, который мониторит, наблюдает, следит). Монитор может быть одномодальным и мультимодальным, с одним датчиком и с множеством датчиков.
 
Доработать функционал монитора с уровня простого наблюдения до уровня отслеживания, когда поток наблюдаемого проходит через ряд вторичных датчиков, которые и генерируют сигналы, управляющие исполнительными механизмами. То есть монитором наблюдается всё, что попадает в его первичные датчики, но реагирует монитор только на то, что узнали (на что обратили внимание) вторичные датчики.
 
Понятно, что монитор никаким там самосознанием не обладает. Ещё раз: монитор сознанием обладает (и даже не периодически, а в постоянном режиме), а вот рефлексией этого состояния – самосознанием – не обладает вообще (даже периодически на краткий миг).

Далее. У датчика функции, относящиеся к функционалу сознания (который, напомню, входит в функционал интеллекта), внимание и узнавания – совмещены. Датчик сразу/одновременно и, как бы, обращает внимание, и узнаёт. А вот монитор обладает уже более продвинутым функционалом сознания – он может, не только обращать внимание и узнавать, но и наблюдать, и даже отслеживать. Само собой, доработать монитор до уровня оценщика не представляет технических трудностей, но такую систему уже, наверное, следует обзывать контролёром.
 
(замечание в скобках: обращение или концентрация внимания, узнавание, отслеживание, оценка и т.д. – всё это относится к функционалу сознания даже с точки зрения психологии)
 
Про многоуровневость механизма сознания я неоднократно пояснял, ещё раз пока не буду (тем более, пару-тройку уровней выше рассмотрел на примере датчиков и мониторов).
 
Разумеется, искусственные системы мы создаём, руководствуясь своими потребностями, желаниями, целями. В настоящее время в обществе есть запрос на создание искусственного разума (систем ИР) и на создание систем ИИ, обладающих эмоциями и способных испытывать чувства.
 
Но обыватели зачастую не понимают, чем разум отличается от интеллекта (отличается, именно не по форме, а по сути), а научное сообщество в своей массе руководствуется настолько искажёнными представлениями об этих явлениях, что пояснить таковые отличия обывателям оно просто не в состоянии. Предполагаю, что учёные и сами не видят различий между разумом и интеллектом, разумом и сознанием, разумом и способностью испытывать эмоции.
 
Магистральный путь в области ИИ, который подразумевает, что наращивание вычислительной мощности систем ИИ неизбежно должен привести к созданию уже систем ИР, является принципиально тупиковым – триллионы калькуляторов, связанных в единую систему ИИ не превратятся в систему ИР.
 
Даже наличие функционала предсказания и/или прогноза в системе ИИ не делает её автоматически системой ИР. Этот функционал только помогает систем самохраниться/выжить, но его наличие само по себе, не делает эту систему живой и/или разумной.
 
Я уже много раз пояснял отличие разума системы от интеллекта системы – интеллект, это вычислительный функционал системы, а разум системы, это способность реализовать своё стремление к самосохранению с помощью своего интеллекта. Как видите, ключевая разница между интеллектом и разумом сводится к наличию у системы стремления к самосохранению. Ну, а про стремление и про гомеостаз я пояснял выше.
 
Соответственно, и связь между жизнью и разумом непосредственная – и того, и другого у системы нет, если она не проявляет стремления к самосохранению. Отсюда следует, что все живые системы в той или иной степени разумны.
 
Напомню свой комплект определений связанных с жизнью и разумом:
 
Жизнь – это живая система (совокупность систем) и её среда обитания.
Живая система – это система, проявляющая в активной фазе своего существования: стремление к самосохранению и способность реализовать это стремление.
Интеллект системы – это вычислительный функционал (практически в физико-математическом смысле слова) системы.
Разум системы – это способность системы реализовать стремление к самосохранению средствами интеллекта.
 
До кучи:
 
Ум системы – это локальное и актуальное проявление разума системы.
 
И ещё. Чтобы создать хотя бы плохонькую имитацию системы ИР необходимо в систему ИИ внедрить программно и/или аппаратно некий «закольцованный» внутренний процесс (программу) хотя бы самого высокого уровня (это намного легче, чем выстраивать иерархию уровней гомеостаза). Этот «закольцованный» процесс (программа) будет самоподдерживающийся и самовоспроизводящийся внутри ИИ, и он для ИИ будет главным – его целостность для ИИ должна быть в приоритете. В итого получим: ИИ + реализация гомеостаза = ИР (точнее, в данном случае, имитация ИР).
 
Однако большинство не устроит такая имитация, тогда можно предложить другой путь – возникновение ИР естественным путём – сначала создание программно-аппаратной среды, в которой будут формироваться такие вот «закольцованные» программы, а затем в процессе ЕО останутся только самые живучие «закольцованные» программы, которые внедрились, привязались, оседлали другие программы, помогающие им выживать, распространяться и размножаться.
 
Но этот путь сложен, долог, непредсказуем... Правда, если мы так уж сильно хотим создать ИР, то следует идти именно им. Учитывая первую идею (я вначале подробно пояснял), сначала должна сформироваться среда, в которой сформируется и будет существовать, распространяться, размножаться и эволюционировать (если среда будет изменяться) ИР. То есть, не систему ИР надо создавать, а среду её существования.

АrefievPV

OpenAI представила мультимодальную генеративную модель GPT-4o
https://nplus1.ru/news/2024/05/15/gpt-4o
Она умеет разговаривать, видеть, и имитирует эмоции
ЦитироватьКомпания OpenAI представила мультимодальную генеративную модель GPT-4o, которая может работать с текстом, аудио и изображениями, включая видео. Модель может общаться с пользователем голосом и поддерживает 50 языков. Она может имитировать различные интонации, шепот, пение, смех. При этом модель работает гораздо быстрее предшествующей версии — время задержки ответа в голосовом режиме составляет в среднем около 0,3 секунды, что сравнимо с временем реакции человека. Также модель может видеть, получая и интерпретируя изображение с камеры в реальном времени. Трансляция презентации велась на YouTube.

Первая генеративная языковая модель уровня GPT-4 была представлена компанией OpenAI в марте 2023 года. В отличие от более ранней версии GPT-3.5, которая могла работать только с текстовой информацией, GPT-4 впервые получила способность принимать в качестве входных данных также и изображения. Кроме этого, в том же году состоялся релиз приложения на основе чат-бота ChatGPT с возможностью распознавания речи и синтеза голоса, что позволяло пользователям разговаривать с моделью и использовать ее в роли голосового ассистента.

В понедельник 13 мая 2024 года во время прямой трансляции на YouTube состоялась презентация новой версии GPT-4, которая получила обозначение GPT-4o (символ «о» в конце означает «omni»). Теперь модель принимает в качестве входных данных любую комбинацию текста, звука и изображения, включая видео. При этом она работает гораздо быстрее своей предшественницы, в том числе и во время голосового общения. Генерация ответа происходит со средней задержкой всего лишь 320 миллисекунд, что сравнимо со временем реакции человека в разговоре.

Время задержки ответа прошлой версии при общении голосом составляло 5,4 секунды. Связано это с тем, что раньше голосовой режим задействовал целый конвейер из трех отдельных моделей. Сначала речь переводилась в текст. Он затем поступал на вход GPT-3.5 или GPT-4, а генерированный моделью текстовый ответ снова преобразовывался в аудио с помощью другой модели, синтезирующей речь. Преобразование данных в текст приводило к потере части важной информации: фоновых звуков, тона голоса собеседника и его эмоций. GPT-4o лишена этого недостатка, так как в ней все типы информации, включая текст, аудио и изображение обрабатываются с помощью одной и той же нейросети.

Новая модель не только работает значительно быстрее, но может распознавать интонации и эмоции собеседника, а также умеет сама изменять силу, тембр, высоту и эмоциональную окраску синтезируемого голоса. Модель может говорить с сарказмом, шептать, смеяться и даже петь, что было продемонстрировано во время презентации, в которой ChatGPT c GPT-4o, имитировал голос робота, а в другом видео модель просили спеть колыбельную. Кстати, речь GPT-4o можно перебивать без последствий — модель в беседе ведет себя почти так же естественно, как и человек, воспринимает дополнительную информацию и продолжает диалог, сохраняя контекст происходящего.

Другая особенность GPT-4o — распознавание изображения, включая видео в реальном времени. По сути, модель может буквально видеть и интерпретировать происходящее в кадре. Во время презентации, например, ChatGPT правильно определил эмоции сотрудника OpenAI по видео с фронтальной камеры смартфона. В другой демонстрации сотрудник OpenAI рассмешил модель GPT-4o, представ перед ней с панамой на голове с вопросом о том, может ли он отправиться в таком виде на важное собеседование.

Также модель может отличать разных людей в кадре, запоминать их имена и интерпретировать действия. Эта особенность показана в видео, где два сотрудника компании играют в «камень, ножницы, бумага» перед включенной камерой и просят модель, которая наблюдает за ними, выступить в роли судьи. Еще одно из возможных применений — использование голосового ассистента в роли голосового переводчика, так как модель способна переводить с одного языка на другой в реальном времени.

Контекстное окно GPT-4o составляет 128 тысяч токенов (часть слова в несколько символов), а количество поддерживаемых языков достигает 50. Более того, OpenAI откроет ее и для бесплатного использования в чат-боте ChatGPT, однако с ограничениями на количество запросов за определенное время. Доступ к возможностям новой модели будет открываться итеративно. Текстовая генерация, например, стала доступна в день презентации, в то время как обработка аудио и видео будут добавлены позднее.

Кроме демонстрации возможностей GPT-4o, на презентации также было анонсировано приложение для операционной системы macOS. С его помощью пользователи смогут получать помощь от модели прямо внутри операционной системы, демонстрируя ей экран и выделяя нужную информацию. В качестве примера, сотрудники предложили модели проанализировать исходный код и график с данными, с чем она успешно справилась.

Несколько месяцев назад компания OpenAI представила генеративную модель для создания видео под названием Sora. Она способна генерировать по текстовому описанию видеоролики высокого качества с малым количеством артефактов продолжительностью до одной минуты. Изображение в них сохраняет правильную перспективу, а объекты согласованно перемещаются в пространстве сцены относительно движущейся камеры.

АrefievPV

В нейронную сеть удалось встроить функцию торможения
https://neuronovosti.ru/v-nejronnuyu-set-udalos-vstroit-funktsiyu-tormozheniya/
Ученые встроили в биофизическую модель нейронной сети мемристор — устройство, которое имитирует синапс, то есть контакт между нервными клетками головного мозга. Мемристор позволяет воспроизвести изменения в работе синапса, которые происходят в естественных условиях при обучении и запоминании информации. Благодаря этому устройство поможет приблизить механизмы работы искусственного интеллекта к тому, как работает наш мозг, и позволит в будущем быстрее проводить сложные вычисления, в том числе при реализации подобных моделей в нейроморфных чипах. Результаты исследования, поддержанного грантом РНФ, опубликованы в журнале Chaos, Solitons & Fractals.
ЦитироватьВ современной науке существует фундаментальный вопрос: как работает мозг и можно ли искусственно воспроизвести происходящие в нем информационные процессы? Чтобы ответить на него, ученые используют математическое моделирование. В частности, эффекты кратковременной памяти удалось воспроизвести в биофизической модели — модели реальной структуры мозга, — а также в сверточной нейронной сети. Чтобы использовать возможности таких систем для компьютерных вычислений, нужно, чтобы электронные компоненты могли имитировать работу разных клеток мозга.

К текущему моменту развитие материаловедения и микроэлектроники привело к созданию устройства под названием мемристор, способного изменять свое сопротивление в зависимости от протекающего через него электрического тока. Такой эффект схож с синаптической пластичностью — изменением способности синапса, то есть контакта между нервными клетками, передавать возбуждение от одного нейрона к другому. Синаптическая пластичность отвечает за способность человека учиться и отчасти обеспечивает формирование кратковременной памяти. Поэтому интеграция мемристивных устройств в биофизические модели позволит сделать их работу наиболее похожей на функционирование головного мозга.

Ученые из Московского физико-технического института (Москва), Университета Лобачевского (Нижний Новгород) и Южного федерального университета (Таганрог) встроили математическую модель мемристора в ранее разработанную биофизическую модель нейросети, моделирующей передачу тормозных сигналов между нервными клетками. Такие сигналы необходимы для поддержания баланса процессов возбуждения и торможения в мозге.

Исследователи заменили тормозную синаптическую пластичность в биофизической модели нейросети на мемристивную пластичность. Модель тормозной синаптической пластичности, хотя и имитирует биологический процесс, не может быть физически воплощена в виде устройства. Поэтому авторы на примере математических моделей проверили, можно ли внедрить в нейросеть мемристор и тем самым воспроизвести экспериментально наблюдаемый эффект регуляции процессов возбуждения и торможения живых нейронов. Оказалось, что замещение тормозной синаптической пластичности мемристором не сказывается на динамике модели и позволяет также воспроизводить эффекты, наблюдаемые в экспериментах на мозге, когда проверяется память или отклик нейронов.

Таким образом, на примере созданной модели исследователям удалось показать, что внедрить мемристор в сложные нейронные сети, имитирующие системы человеческого мозга, действительно возможно. Это важно в первую очередь для того, чтобы повысить эффективность нейроморфных вычислительных систем, то есть систем, действующих по аналогии с человеческим мозгом. В дальнейшем эти результаты можно будет использовать при разработке архитектуры реальной нейронной сети, воспроизводящей биологические функции, например, обладающей памятью.
Цитировать«Мы получили фундаментальный результат, позволяющий оценить функциональную значимость мемристоров для имитации информационных процессов мозга. Наша дальнейшая работа в данном направлении будет связана с интеграцией полученных результатов в архитектуры нейронных сетей и оценкой их эффективности на сложных нейроморфных задачах, например, математических вычислениях и имитации двигательной активности нейроморфного робота. Предполагается, что за счет более точной имитации информационных процессов в мозге расширятся как функциональные характеристики нейронной сети, так и ее энергоэффективность при реализации в нейроморфных чипах», — рассказывает участник проекта, поддержанного грантом РНФ, Сергей Стасенко, кандидат физико-математических наук, старший научный сотрудник Исследовательского центра в сфере искусственного интеллекта Университета Лобачевского.

АrefievPV

Сэм Альтман признался, что OpenAI не до конца понимает, как работает GPT
https://naked-science.ru/community/962042
Генеральный директор OpenAI Сэм Альтман, выступая на саммите Международного союза электросвязи (ITU) «ИИ во благо» в Женеве (Швейцария), не смог объяснить, как работает чат-бот с генеративным искусственным интеллектом GPT, созданный его же компанией.
Цитировать«Мы не понимаем, что происходит в мозгу людейна уровне нейронов, но знаем, что вы можете следовать некоторым правилам», — сказал Альтман.

Сравнивая GPT с мозгом человека, директор компании OpenAI объяснил, что, подобно человеческому мозгу, генеративная технология искусственного интеллекта, такая как GPT, создает новый контент на основе существующих наборов данных и, предположительно, может обучаться с течением времени. GPT, возможно, не обладает эмоциональным интеллектом или человеческим сознанием, поэтому трудно понять, как алгоритмы — и человеческий мозг — приходят к выводам, которые они делают.

«Если вы не понимаете, что происходит, разве это не аргумент в пользу того, чтобы не выпускать новые, более мощные модели?» — спросил ведущий мероприятия у Альтмана, который признался, что в OpenAI «не решили проблему интерпретируемости (понимание того, как системы ИИ и машинного обучения принимают решения. — Прим. ред.)».

Однако Альтман заявил, что OpenAI не нужно полностью понимать свой продукт, чтобы выпускать новые версии.
P.S. Не понял его объяснения, почему трудно понять (возможно, журналист не правильно написал)... Потому, что не обладает эмоциональным интеллектом и сознанием? Так мы зачастую и людей не понимаем, которые обладают эмоциональным интеллектом и сознанием, почему они принимают то или иное решение.

Но особенно меня умилил его ответ, что понимать свой продукт не надо, надо выпускать новые версии продукта. И хотя он говорит вроде бы не полном непонимании, а только о частичном непонимании (не нужно полностью понимать) – это лукавство.

Вообще-то для людей это свойственно – мы часто умудряемся (особенно, когда авторов-создателей много) создать такое, что не только не понимаем, как оно работает, но и не понимаем, как оно вообще так получилось.

Думаю, что пока под проект дают деньги, пока продукт пользуется спросом, пока проект приносит прибыль – выпуск новых версий продукта продолжится.

Шаройко Лилия

#1167
Самый новый на сегодняшний день стрим блогера под ником Ваганыч, полмиллиона подписчиков и число их  стабильно растет

Предлагаю оценить как явление в сети, начиная от самого факта существования именно такого вида блогера и заканчивая уровнем музыки и фактами существования рейтингов и чатров музыки нейросетей, топов этого масштабного действа, и ролью в нем человека.

У меня дома муж этим увлекается периодически, не очень часто, он описывает ситуацию так, что вначале Ваганыч показывал как работать с программами нейросетей создающих музыку, он и теперь это периодически делает, показывает настройки, описывает в целом общий функционал конкретных программ, делает обзор новинок программ, и показывает результат.

В начале он над ними капитально иронизировал(можно зайти на его канал и посмотреть что происходило несколько месяцев назад), но скорость улучшения результата растет, теперь часто он описывает ситуацию как высокий уровень значения человека в создании музыки, умение работать с тональностями, выбором инструментов и типами голосов и текстов ,  умение создавать запросы с пониманием того как именно работает нейросеть. В топах рулит попса, но она и среди человеческой музыки в топах так же рулит.

на 20:31 - джаз или блюз или смесь

25 - 26 названо сотонизм, но звук больше похож на осовремененные церковные хоралы готических соборов, текст на латыни, перевести его через Яндекс Ваганыч не смог



АrefievPV

ИИ за две недели с нуля спроектировал ракетный двигатель и он прошёл огневые испытания с первой попытки
https://3dnews.ru/1106988/sproektirovanniy-ii-s-nulya-raketniy-dvigatel-zarabotal-s-pervoy-popitki-na-razrabotku-ushlo-dve-nedeli

ЦитироватьМашинные алгоритмы уверенно отбирают у людей шансы на творческую работу. На днях в Великобритании был испытан первый в мире жидкостный ракетный двигатель, с нуля спроектированный искусственным интеллектом. На проектирование ушло менее двух недель после утверждения спецификаций. Ещё несколько дней потребовалось для 3D-печати двигателя. После сборки он запустился с первой попытки. ИИ выполнил годовую работу коллектива КБ на «отлично».

Больше всего времени заняла финишная обработка деталей и сборка двигателя, чем занимались сотрудники британского Университета Шеффилда. ИИ как бы намекнул, что человеку осталась лишь физическая работа, а творческую составляющую алгоритмы взяли на себя.

Проект разработки сложных инженерных конструкций с помощью искусственного интеллекта продвигает компания LEAP 71, работающая в Дубае (ОАЭ). Специалисты компании создали большую вычислительную модель Noyron с «компактным и надёжным геометрическим ядром» PicoGK, которое позволяет создавать очень сложные физические объекты. Тем самым Noyron способна проектировать конструкции, машины и механизмы для любой сферы использования, а не только для аэрокосмической отрасли, от детской игрушки до космического челнока. В процессе проектирования программы САПР ни разу не использовались.

Спроектированный нейросетью ракетный двигатель работает на паре керосин/жидкий кислород. Во время статических огневых испытаний на полигоне Airborne Engineering в Уэскотте, Великобритания, двигатель мощностью 5 кН (500 кг) подтвердил свои характеристики. Сначала он прогревался в течение 3,5 с, а затем вышел на полную мощность и проработал 12 с, в ходе чего развил тягу в 20 тыс. лошадиных сил. Этого достаточно, чтобы вооружить таким двигателем верхнюю ступень ракеты. Каждую новую модификацию двигателя модель Noyron может выдавать со скоростью менее 15 мин, проводя вычисления на обычном компьютере. Вам нужна линейка двигателей? Подождите чуток за дверью, вам скоро вынесут.

Компоненты двигателя изготавливались в Германии компанией AMCM из медного сплава CuCrZr методом аддитивной печати на принтере EOS M290. Чтобы медь не расплавилась, а в камере сгорания двигателя температура достигала 3000 °C, было использовано инновационное решение с подачей охлаждённого топлива (керосина) через систему встроенных в двигатель каналов диаметром 0,8 мм. Благодаря этому корпус двигателя нагревался всего до 250 °C. Сбой в охлаждении мгновенно превратил бы двигатель в лужицу меди, но система отработала надёжно. Также для впрыска топлива в камеру сгорания была использована коаксиальная вихревая форсунка, что считается самым передовым на сегодня решением.

Джозефин Лисснер (Josefine Lissner), аэрокосмический инженер и управляющий директор LEAP 71, сказала: «Это важная веха не только для нас, но и для всей отрасли. Теперь мы можем автоматически создавать функциональные ракетные двигатели и напрямую переходить к практической проверке. От окончательной спецификации до производства проектирование этого двигателя прошло менее 2 недель. В традиционной инженерии это стало бы задачей многих месяцев или даже лет. Каждая итерация нового двигателя занимает всего несколько минут. Инновации в области космических двигателей сложны и дорогостоящи. С помощью нашего подхода мы надеемся сделать космос более доступным для всех».


Компания LEAP 71 будет использовать данные испытаний для дальнейшего продвижения инженерной модели Noyron. Компания работает с ведущими аэрокосмическими компаниями США, Европы и Азии над коммерциализацией полученных таким образом ракетных двигателей. Но только этим сфера деятельности компании не ограничивается. Она создаёт или обещает создавать продукты в различных областях — от аэрокосмической промышленности и электромобилей до теплообменников и робототехники. Звучит зловеще, особенно в сочетании со способностью печатать детали на 3D-принтере. Но пока на финальном этапе работ есть человек с напильником, мы можем спать спокойно.

Источник: https://leap71.com/

Игорь Антонов

Цитата: АrefievPV от июня 25, 2024, 12:03:32человеку осталась лишь физическая работа, а творческую составляющую алгоритмы взяли на себя

Ох уж этот пиар...
Творческая составляющая - придумать алгоритмы.
А переключать по программе состояния кремниевых транзисторов - работа физическая.
PCAD ещё 35 лет тому назад "с нуля" разводил печатные платы. Но никто не догадывался назвать это "искусственным интеллектом".