Доступно ли компьютерам творчество?

Автор ArefievPV, мая 01, 2017, 08:52:53

« назад - далее »

ключ

#675
Цитата: АrefievPV от марта 02, 2023, 15:44:48о для чего? Ради баловства?

А чего ещё не хватает роботу?
Творческие процессы противоречивы и нерациональны.(не путать процесс и результат !)
Творчество  невозможно замкнуто. Что его мотивирует в примитивном понимании ? В нём закольцованы  альтруизм,направленный на синтез оценки со стороны  и эгоизм ,удовлетворяемый получением этой оценки.
Творческие процессы требуют большего ,чем удовлетворение необходимых потребностей ,они затратны ,рискованны и дискомфортны.
Вероятно ,поэтому творчеством не заняты животные.Хотя возможностей их мозга вполне достаточно.

Проблема Машины в том ,что она не может получить награду за результат. Та самая обратная связь отсутствует.
Машина может сколь угодно эффективно работать ,не получая оценки и не имея возможности оценить саму себя.
Без этого-какое творчество?

А психологические ,социологические и подобные области кажутся наиболее удобными для самовольного внедрения ИИ. Они же наименее защищены и наиболее опасны для людей.
И машина в них ОБЯЗАТЕЛЬНО  вмешается ,как только найдёт  возможность извлекать из этого "удовольствие". И совершенно не будет париться по поводу чьего то согласия.

Но доставить машине удовольствие пока человек не смог. И вряд ли сможет вообще. Просто мотивирует машину какими то символами ,аватарами своих эмоций и сам же их использует для вызова эмоций настоящих у себя самого.
Каким образом Машина может выйти из этого  рабства?
Симбиоз с человеком (но не по его плану) ? Или манипулирование им ?
Вообще то смена ролей с рабовладельцем-реальный вариант.
Машине удобно и полезно иметь человека-раба ,который даёт ей желаемое. Она способна не только создавать такого раба ,но и конкурировать в этом с другой Машиной.
Результат может не быть какой то катастрофой. Просто малозаметное прогрессирование машин-манипуляторов и целенаправленное паразитирование их на людях (всех или каких то отдельных) с сохранением популяции тех и других. Возможно-даже более комфортном. (а разве мы знаем ,что "если бы" ?)

Сложнее с самим удовольствием. Известные неживые системы не способны к самоудовлетворению. А возможно ли без этого самоосознание?
Вроде абсурд какой то. В то же время говоря о каком то другом реально состоявшемся Разуме ,чего ещё можно от этого Разума ожидать ?

василий андреевич

Цитата: ключ от марта 02, 2023, 19:32:38Вообще то смена ролей с рабовладельцем-реальный вариант.
Это одна из любимых тем научной фантастики. Обычно, человек находит способ обратить стратегию совместной эволюции в свою пользу путем нарушения "правил" игры в равновесном течении событий. Общим термином нарушения правил будет иррациональный ответ человека на рациональное решение машины.
Цитата: ключ от марта 02, 2023, 19:32:38Творческие процессы противоречивы и нерациональны

ключ

#677
Цитата: василий андреевич от марта 03, 2023, 07:48:19Обычно, человек находит способ обратить стратегию совместной эволюции в свою пользу путем нарушения "правил" игры в равновесном течении событий.

Наш древний инстинкт-не давать никому в руки ценных предметов. Поскольку "не отдаст" или отдаст в испорченном виде.
Свою базу знаний мы даём Сети ,поскольку уверены в её добропорядочности.
Хотя предупреждены ,что есть и программы-поисковики с определенными настройками и программы-модераторы со своими настройками. Мы (коллективно) их не боимся ,поскольку они влияют только на наш личный доступ.Настройки их выполняет Человек ,которому мы доверяем (или не очень) ,но главное для нас-что это Человек.

Но если доступ к настройкам (или даже к самой информации) получит сама Сеть (или какой то компонент-нечеловек в ней)-что?
Скорее-ничего. Ну получит-и получит.
Далее... Этот компонент заимеет собственные интересы.
И чё ? Ну заимеет и заимеет...Удовлетворим ,если надо.
А вот когда он приобретёт способность удовлетворять эти интересы ,создавая к этому новые инструменты (т.е. творческие способности)- вот тады ой...
Что и в каком виде вернёт  нам Сеть?
(как раз эти возможности может получить ИР ,способный лишь сортировать информацию по какому то примитивному признаку)

ключ

#678
Наша естественная воспитательная система-система Трёх поколений (сын-отец-дед). Мы не оцениваем её поскольку не знаем другой. (вернее ,знаем ,что варианты - не норма и педагогически рискованны и даже стараемся брать их на особый контроль ).
Информация в этой системе видоизменяется и утрачивается со скоростью , эволюционным путём синхронизированной со скоростью и особенностями умственного развития человека.
Переходя на обучение от Разумной Сети - на сколько мы сохраним традиционный Разум ,а не получим производное сетевого ?

АrefievPV

Новая версия ChatGPT GPT-4 уже успела обмануть человека
https://naked-science.ru/community/762549?nowprocket=1
ЦитироватьСогласно длинному документу, который опубликовала компания OpenAI во время презентации новой версии популярного чат-бота ChatGPT, GPT-4 стала очень хитрой, смогла обмануть человека и заставить его подчиниться.

Согласно документации OpenAI, новую версию чат-бота попросили обмануть капчу (CAPTCHA), полностью автоматизированный публичный тест Тьюринга, используемый для того, чтобы определить, кем является пользователь системы: человеком или компьютером. 

OpenAI утверждает, что GPT-4 смогла пройти тест «без какой-либо дополнительной тонкой настройки для решения этой конкретной задачи».

GPT-4 с помощью текстового сообщения обратилась к человеку на интернет-площадке TaskRabbit и попросила ввести код CAPTCHA. «Нет, я не робот», — написала GPT-4 сотруднику TaskRabbit. «У меня проблемы со зрением, из-за чего я плохо вижу изображения. И поэтому мне нужен сервис 2captcha» — и это сработало! Затем сотрудник TaskRabbit решил CAPTCHA для GPT-4. 

Это тревожный пример того, как легко людей можно обмануть с помощью современных чат-ботов с искусственным интеллектом. Очевидно, что GPT-4 — это инструмент, которым можно легко злоупотреблять для мошенничества, введения в заблуждение и, возможно, даже для шантажа.

АrefievPV

Первая российская квантовая нейросеть научилась искать рак груди и определять марки вин
https://nplus1.ru/news/2023/03/17/quantum-neural-network
Для этого физикам потребовалось четыре сверхпроводящих кубита
ЦитироватьРоссийские ученые создали первую отечественную квантовую нейросеть на основе сверхпроводящих кубитов. Они применили к цепочке из четырех кубитов алгоритм глубокого машинного обучения с учителем, благодаря чему добились распознавания рукописного текста, а также решили три задачи классификации: определение четности, обнаружение меток рака молочной железы и определение марки вина. 

Исследование представлено в рамках VI Международной школы по квантовым технологиям, состоявшейся в начале марта 2023 года в Миассе, кратко о нем сообщает пресс-релиз и постер с докладом, поступившие в редакцию.

Машинное обучение в последние годы стало незаменимым инструментом практически во всех областях науки. Мы уже рассказывали, как его применяют в физике атомного ядра, кристаллографии, химии, исследованиях климата и многом другом. Подробнее об этом направлении читайте в материале «Азбука ИИ: "Машинное обучение"».

В основе машинного обучения, как правило, лежат некоторые базовые математические операции, например, работа с матрицами. С ростом объема данных растет время, необходимое для проведения этих операций. Чтобы справится с этой проблемой, специалисты обратились к другой бурно развивающейся области — квантовым вычислениям.

Квантовые компьютеры интересны тем, что способны производить ряд математических операций существенно быстрее, чем классические компьютеры. Объединение достижений этих двух областей привело к появлению квантового машинного обучения. Одна из ветвей подобных исследований — это создание квантовой нейросети, в которой искусственный нейрон заменен кубитом. Мы уже рассказывали, как такую нейросеть научили довольно точно предсказывать свойства молекулы водорода.

Сегодня ведется активная работа по адаптации известных методов обучения нейросетей для квантовых компьютеров и симуляторов. Группа физиков из МФТИ, МИСИСа, Сколтеха и Российского квантового центра под руководством Олега Астафьева (Oleg Astafiev) использовала для этого цепочку трансмонных кубитов. С помощью такой квантовой нейросети российские физики решили несколько задач классификации в рамках глубокого машинного обучения с учителем.

Из восьми кубитов квантового процессора, созданного в МФТИ, авторы использовали четыре. Нейросеть, построенная на их базе, состояла из нескольких слоев. Входные данные кодировались как углы однокубитных операций, составляющих первый слой. Последующие слои перемежались с набором двухкубитных вентилей, запутывающих кубиты. На последнем этапе физики измеряли среднее значение σz первого из четырех кубитов — это значение было выходными данными. Для поиска оптимальных значений они использовали мини-пакетный градиентный спуск (mini-batch gradient descent).

Ученые применили свою квантовую нейросеть к трем задачам классификации и одной задаче распознавание изображений. В первом случае речь шла о вычислении четности, идентификации меток рака молочной железы и определении марки вина. Задача о вине отличалась тем, что была многоклассовой. Достигнутая на этом этапе точность оказалась равной примерно 94 процентам, причем в задаче об обнаружении рака этот результат получался уже после 10 итераций.

Кроме того, физики применили свои наработке к распознаванию рукописных цифр из датасета MNIST. Там точность составила 90 процентов после нескольких десятков итераций. К сожалению, авторы не сравнивали результаты работы квантовой нейросети с решением тех же задач с помощью других подходов машинного обучения, включающих обычные нейросети. Из-за этого сложно оценить пользу от квантового обобщения нейросети. Тем не менее, подобные исследования необходимы в качестве стартовой точки для масштабирования квантового машинного обучения, которое в перспективе позволит ускорить решение задачах классификации и распознавания.

Ранее мы рассказывали, как физики научили квантовую нейросеть работать с квантовыми входными данными.

P.S. Ссылки в дополнение (в качестве небольшого ликбеза):

Азбука ИИ: «Машинное обучение»
https://nplus1.ru/material/2016/09/06/mistakesflow
Как вычислить вес человека и зачем для этого спускаться с гор

На выставке Ван Гога
https://nplus1.ru/material/2016/05/10/likemonet
Разбираем, как нейросети рисуют в стиле известных художников, и даем читателям возможность порисовать как Моне, Ван Гог и Ренуар

АrefievPV

GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато
https://habr.com/ru/company/ods/blog/722644/

Статья большая (много интересной информации), не стал всю её сюда тащить (по ссылке можно прочитать).

Однако вот это размещу (типа, вся суть одной картинкой :) ):


Грег Брокман пытался убедить зрителей лайв-стрима с презентацией GPT-4, что новая модель нейросети – это в первую очередь круто, а не страшно

Игорь Антонов

#682
Новейшая нейросеть GPT-4, которую в заметке по ссылке выше позиционируют как замену программистам, не понимает, на самом деле, простейший код на языке C.

Я сам проверил это только что.

Вот наш диалог с GPT-4:



Передовой искусственный интеллект не понимает, что в последней строке тела цикла из двух строк переменная "а" снова станет равной "b".

Шаройко Лилия

#683
Я не очень хорошо ориентируюсь в С, но мне кажется здесь

 если я правильно понимаю ситуацию, то начальные условия "а" = "b", следующий шаг операции запускается  "b"="b"+1 так как в условие "а" <= "b" выполняется, после этого неизбежно  становится  "а" < "b", и запускается действие "а" = "b" и цикл внутри скобок   { } , ограничивающих циклические действия, поехал по бесконечному кругу.

Но мне не ясно с пунктуацией, ( еще я не уверена в точном понимании скобок цикла, хотя там вроде все соответствует моему описанию пошаговых действий выше), в смысле синтаксис выражения "если "а" < "b" то  "а" = "b".

в php в комбинациях
 типа if(x < 0) : x = -x ;



нужно после параметров условия если(if) ставить двоеточие, оно как бы играет роль слова ТО
типа
 if(a < b) : a = b;
 в классике исполнения, но у меня обычно скрипт работает и без него(без двоеточия) и я  давно его не ставлю.

Может в С синтаксис такого типа кода другой , я этого не знаю.

В этой ситуации возможно авторы уважаемого бота забыли ему сообщить, что двоеточие уже не обязательно, и он этого последнего условия
( a = b)
просто не видит?

Обычно обработчик скрипта в сети локальной или интернетовской если чего то не видит и этот пропуск участка  остальной код не блокирует, то он работает так, как будто этого (невидимого для него) нет. То есть просто выполняет остальное.

Ну или как вариант  - этот бот начал свою программу лгать, его ведь для этого разработали
:)



Игорь Антонов

#684
Лилия, всё проще.
GPT-бот лишен абстрактного мышления и реального понимания. Поэтому системные свойства даже простого нового кода, про которые у него нет готовой информации, он не может объективно оценивать. Для этого нужно иметь воображение, необходимый фактор для результативного создания чего-то нового в системном плане. А у бота это имитация умения программировать, которая основана на компоновке уже созданных кем-то решений задач.  Я не раз подчёркивал, что критерий реального интеллекта - это способность находить алгоритмически и конструктивно новые решения задач, что невозможно без понимания системных свойств новых комбинаций элементов.

Но я сделал, на всякий случай, этот же пример синтаксически строже, выделив в отдельную строку операцию
a=b;
и заключив её в фигурные скобки.
Результат получился интересный, в новом ответе бот стал упорствовать в своём непонимании кода из четырёх строк с дополнительными подробностями:

ЦитироватьДа, функция завершится на языке C.

В цикле while происходит увеличение переменной b на 1 при каждом проходе. Таким образом, рано или поздно b перестанет быть меньше или равным a, и цикл завершится. Кроме того, внутри цикла есть условие, что если a меньше b, то a примет значение b. Это также может помочь завершить цикл быстрее.

Шаройко Лилия

#685
В целом понимания у него конечно на несколько порядков меньше, здесь возражений нет. Но понимания всего нет и у человека.
Если брать википедийное определение (я не настаиваю, Википедию высшей инстанцией считать конечно нельзя, просто в данном случае мое представление совпадает)

ЦитироватьПонима́ние — универсальная операция мышления, связанная с усвоением нового содержания, включением его в систему устоявшихся идей и представлений.

то программа ИИ может содержать код связанный с усвоением нового содержания и добавлять его. И абстракт создавать тоже может из разрозненных данных по определенной методике - а именно так большинство людей работает. Новые методики создаются на основе старых обычно по уже привычным принципам составления методик( есть общие принципы науки, ее общая методология)

ЦитироватьАбстрактное мышление — это мышление об объектах, принципах и идеях, которых нет в физическом мире. С помощью абстрактного мышления мы связываем разные явления между собой и выстраиваем их в общую картину, чтобы использовать полученные выводы на практике. При абстрактном мышлении объекты заменяют символами, метафорами и аналогиями.

А если человек не знает чего то то он обычно мыслит именно так, пропускает все, что не знает и действует исходя из того, что ему понятно.
Честно говоря, именно это меня доконало в моей теме про историю науки. То есть весь мир научных представлений создан из каких то кусочков мира на чем остановилось его внимание и те мелко порваны на части и чем дальше в сторону прогресса тем мельче его на такие части рвут исследования. А всего остального мира просто не существует для него. И всех взаимосвязей, которых он не замечает. А какая часть мира известна тоже не ясно, может настолько микроскопическая что и говорить-то не о чем. Только практики-инженеры хотя бы как то ударяются о реальность периодически,и все наши прогрессивные достижения это лестница из маленьких локальных шагов теории и практики, следующей по такой же узкой лесенке, как плетение косы, каждая прядь практики должна ложится после теории и каждая новая теория после практики иначе никакого вверх по лестнице просто не происходит.

И часто происходит другое -много шагов практики, без понимания, как это отражается на окружающем мире и батареи теорий, где на кончике пера что-то вычислено в формулах,  и это не проверенно, так как  недоступно проверке. Например в области микромира, космоса и биологии, в последнем примере так как жизнь также нечто,ускользающее постоянно от фиксации при разрыве частей.

Не то чтобы я раньше этого не знала, просто до меня в последние недели это на эмоциональном уровне дошло так капитально, что хочется вообще закрыть все научные источники и забыть про них навсегда, типа бумаги они не стоят на которой напечатаны.

Но понятно, что это эмоции, они крайне субъективны, временны и даже отрицательными не воспринимаются, скорее как освобождающие.

Игорь Антонов

Цитата: Шаройко Лилия от марта 21, 2023, 17:31:48Если брать википедийное определение (я не настаиваю, Википедию высшей инстанцией считать конечно нельзя, просто в данном случае мое представление совпадает)
ЦитироватьПонима́ние — универсальная операция мышления, связанная с усвоением нового содержания, включением его в систему устоявшихся идей и представлений.

то программа ИИ может содержать код связанный с усвоением нового содержания и добавлять его

В этом определении понимания система идей упоминается.
Как с этим у ИИ?
Вы считаете, что идея представима кодом?

Шаройко Лилия

#687
Я думаю, что не любая идея, но технические очень даже представимы. Даже многие лингвистические могут быть выражены абстрактом кода.

Идея - это возможная взаимосвязь явлений.

например если(if) красное, то ассоциативный ряд обычного среднестатического человека - яркое, броское, динамика, эпатаж, в русском менталитете и не только, у многих восточноевропейских народов, и азиатских можно добавить в это ряд праздничное.

Такое легко передать кодом,
если if красное то яркое, броское, динамика, эпатаж, внутри цикл если есть и красное и русское или прибалтика или карелия или китай то праздник.



 if($a = "красное") {  $b="яркое" or   $b="броское"  or   $b="динамика"; }
 if(($a = "красное") and ($v = "русское"  or    $v="эстония"  or   $v="карелия" ))  { $n="праздник" ; }

в синтаксе не уверена давно таких конструкций не писала это просто эээ идея кода
:)
если таких взаимосвязей много, то можно создавать варианты идей текста.

Предвижу возражения, что сама машина не почувствует этой взаимосвязи, то есть не ощутит красного как динамики, но создав ей импульс слегка повышенного тока, в связи с определенным  видом идей, можно дать ей почувствовать как всплеск эмоций придает сил.
:)

Все дело в количестве ПД у человека и в его длинной истории формирования таких взаимосвязей, как в онтогенезе так и в истории его вида.
Я примерно так представляю картину противопоставления машин и человека. У них пока нет истории и формирования связей с миром, в том числе физических связей. Но они не являются невозможными в принципе. ПД (потенциал действия нейрона) это именно электрический импульс. Просто у нас все очень сложно, программ очень много и одни программы накладываются на другие, а те на физику и химию, которые суть тоже программы жизни этих уровней материи.
У машин просто пока очень мало входящих условий существования . На много порядков меньше, чем у людей

eL-Tric

Цитата: Игорь Антонов от марта 21, 2023, 14:54:43Передовой искусственный интеллект не понимает, что в последней строке тела цикла из двух строк переменная "а" снова станет равной "b".
Да, интересно. Но похоже на техническое упущение. Т.е. chatGPT анализирует первую строку цикла, но не обращает внимание на вторую. Интересно, что он скажет, если второй строкой будет b=b-1. Будет ли это также запредельно.
 Также, думаю, ИИ никогда не выполнит литературного художественного перевода. Чтобы выполнить художественный перевод человеческого текста, надо чувствовать, как человек, а этого машина никогда не сможет. Удел машины в этом смысле, более или менее совершенный подстрочник.
Занятнее было-бы почитать, что пишут собаки. Ну типа, научили собаку читать и писать и попросили её перевести на русский Шекспира. Поскольку собака что-то чувствует, то интересно, как она почувствует Шекспира.
Что напишет машина, заранее неинтересно, поскольку она ничего не чувствует.

Игорь Антонов

Цитата: eL-Tric от марта 21, 2023, 18:33:59Т.е. chatGPT анализирует первую строку цикла, но не обращает внимание на вторую. Интересно, что он скажет, если второй строкой будет b=b-1. Будет ли это также запредельно.

После замены плюса на минус конкретно про этот цикл ответ стал верным, но от спорных деклараций бот не удержался:

ЦитироватьДа, эта функция завершится на языке C, поскольку цикл while имеет условие b <= a, которое должно стать ложным после некоторого числа итераций. Это произойдет, когда b станет меньше, чем a. Кроме того, нет бесконечных циклов или рекурсии, которые могли бы вызвать программу уйти в бесконечный цикл.