Доступно ли компьютерам творчество?

Автор ArefievPV, мая 01, 2017, 08:52:53

« назад - далее »

Cow

#525
Цитата: василий андреевич от декабря 16, 2019, 07:55:59Ну и заменим чертово ВАУ на наше вездесущее АГА.
Не получится . К сожалению.
ВАУ отработано христианством, как результат экспериментального  определения минимума интегрального потока тепла, при сжигании ведьм на медленном огне.
Начальные условия: Сложенный костер. Ведьма, прикованная к несгораемому столбу достаточно длинной цепью.
После зажигания костра, ведьма активно ищет точку минимума теплового потока.
Как только точки определяемого минимума начинают хорошо и надежно воспроизводится для N ведьм,  христианин  орет ВАУ.
Столб можно перенести ближе к определенной точке и цепь для ведьмы укоротить. 
Экономический эффект налицо.
Поскольку в России даже до нынешнего времени, давно разбежавшихся и спрятавшихся староверов-никонианцев не выловили, то ВАУ и не вопят , а чаще  АГАкают. Традиция еще не оформилась. >:D

Цитата: василий андреевич от декабря 16, 2019, 07:55:59Эту постоянную Больцмана ввел Планк, сам Больцман обходился без нее.
Ну да. Больцман при конструировании уравнения оперировал абсолютно упругими шариками. Почти  битами в вашем толковании. Вот Планк и привязал то уравнение к реальности(или действительности) в парадигме материализма.
И бит в расчетах, всегда привязан материальному носителю.
Можно конечно пересчитать число буковок в "Война и мир", но что это даст и добавит к смыслам?  Сей параметр будет содержателен только для торговца от литературы.
Цитата: василий андреевич от декабря 16, 2019, 07:55:59Теперь, если на экспонентной шкале конь в вакууме не замыкается в "сферу", то с переходом на линейную превращается в сферическую корову.
Не-а. :)
То он перестает быть локальным выделяемым и определяемым  объектом и взаимодействовать на квантовом уровне с реальностью, то есть  быть живым и переходит в категорию неживого.
А после того, как сдохнет корова, ее моделька реальности схлопнется. В той части, которая отличается от 7 миллиардов воспроизводимо различаемых  объектов индивидов  вида сапсап.
И обсуждать возможно будет, только цены и качество полученных мясопродуктов.
Вполне возможно будет даже график нарисовать соотношения цена/качество. :P

Cow

Чот совсем из виду упустил.
Интеграл 1/R , Ln  и получится.

василий андреевич

Цитата: Cow от декабря 16, 2019, 15:09:49И бит в расчетах, всегда привязан материальному носителю.
Можно конечно пересчитать число буковок в "Война и мир", но что это даст и добавит к смыслам?  Сей параметр будет содержателен только для торговца от литературы.
Ну это мы проходили. Каждый постоянно застревает в этой ошибке от фантастов. Нет в книге информации, но она появится у печки, по мере ее растопки книгой. А вот какая информация останется у Вас или у меня после усугубления битов, предсказать не берусь, но уверяю - она будет разная.
  Биты поглощаются и дешифрируются приемником через фокус внимания. Фокус внимания в самом простом виде - окружность считывания, т.е. единичная площадь. Из этих площадей складывается образ, например, монолог Наташи Ростовой у одного приемника сложится в пошлость, а у другого в мечту о полете. Количество битов одинаково - конфигурация из перекрывающихся битов разная.
  Для данной темы важно, сможет ли комп так изложить содержание монолога своими словами, например, за счет интонации и пауз, что бы вызвать в приемнике ощущение то полета, то пошлости?
  Если ответите, что сможет, то можно продолжать разборки.

Максет

Цитата: василий андреевич от декабря 16, 2019, 20:16:53
  Для данной темы важно, сможет ли комп так изложить содержание монолога своими словами, например, за счет интонации и пауз, что бы вызвать в приемнике ощущение то полета, то пошлости?
  Если ответите, что сможет, то можно продолжать разборки.
Очень правильно поставили вопрос уважаемый Василий Андреевич.
Только я хотел бы немного упростить этот вопрос и попытаться на него ответить.
Например, так: сможет ли комп так изложить текст «Казнить нельзя помиловать» своими словами, например, за счет интонации и пауз, что бы вызвать в приемнике ощущение то радости, то печали?

Здесь, по сути, мы наделяем комп правами судьи выносящего приговор.
И вопрос тогда будет: Сможет ли комп вынести приговор в рамках закона?
Думаю, если загрузить в комп описание всех законов и поступка подсудимого, то комп вынесет верный приговор в рамках закона.

Но это не будет творчеством.
Творчеством будет, если комп вдруг оправдает или приговорит подсудимого вопреки вложенным инструкциям, по собственной воле.
Теперь вопрос упирается в что такое воля и может ли у компа появиться своя воля?
Википедия: Воля, как человеческое качество — это способность делать выбор и совершать действия.

Как ни крути, но человек делает выбор так же как и компьютер – на основе вложенной в него программы (установок, правил, инструкций).
В данном примере комп выберет из всех статей законов именно ту статью которая соответствует данному проступку подсудимого.
Человек судья, если он не обременен никакими посторонними обязательствами и другими установками, как симпатии и антипатии к сторонам процесса, поступит точно так же.
Потому, что человек, по сути, и есть живая машина действующая по заложенной программе.

То, что мы называем волей – это тоже программа. Программа выбора. Человек осуществляет выбор, опять таки, исходя из заложенных в него установок (инструкций).
Если в судью – компа вложить все установки (инструкции) которые имеет судья – человек, такие как заботиться о семье, о своей карьере и другие и при этом описать что это такое и что у компа тоже типа есть семья и есть другие разные обязательства, то комп вполне может и засудить невиновного, выбрав «по своей воле» не ту статью закона.

Все что я хотел сказать этим длинным постом, это только то, что человека от компа отличает только наличие природных потребностей, как питаться, размножаться, заботиться о семье и прочие, которые тоже есть ни что иное как программы. 
А у компа нет никаких потребностей.
Поэтому вопрос надо ставить так: Можно ли компу или роботу искусственно задать потребности?

ArefievPV

ПАРАДОКС КИТАЙСКОЙ КОМНАТЫ. ИИ В ИГРАХ — ТОПЛЕС

https://www.youtube.com/watch?v=KKECOpacXNU

P.S. Те вещи, о которых обычно я говорю (и которые, точно также, обычно вызывают недоумение, неприятие, игнор у местных обитателей) частенько упоминаются в ролике (особенно, ближе к концу видеоролика). ::)

василий андреевич

Цитата: Максет от декабря 18, 2019, 10:25:22А у компа нет никаких потребностей.
Поэтому вопрос надо ставить так: Можно ли компу или роботу искусственно задать потребности?
Проблема не в этом.
  Во-первых, у компа полно собственных потребностей - питание, испражнение, болезни поломок и пр.
  Но, во-главном, мы можем запрограммировать комп, на проявление любых симптомов эмоционального проявления, например, таких как слеза, сострадательная мина и интонационная нагрузка, просто придется добавлять информационную загрузку. Но грузить будет человек по своему образу и подобию.
  И судья выступает в качестве компа под нагрузкой уголовного кодекса. При этом, если судья обнаруживает "неисправность" кодекса, то все одно обязан поступить, как запрограммированный кодексом автомат. Это присяжные вольны выражать несогласие с кодексом, демонстрируя свободу волепроявления.
  Я своими потугами отождествления информации с градациями теплового хаоса пытаюсь обосновать принципиальную возможность человека действовать вопреки таких программ, как рефлексы, инстинкты и автоматизмы.
  Поэтому память необходимо понимать не как зубрением выученную программу, а как каждый раз заново воссоздаваемое отношение к условиям задаваемого вопроса. Если угодно, процесс творческого вспоминания - это борьба автоматизмов на самоуничтожение. И в это самоуничтожение последовательно втягиваются глубинные хаотические силы, доставшиеся нам еще от времен ЛЮКА.
  А вот можно ли заставить-запрограммировать комп вспомнить страшную сказку, которую ему читала бабушка, когда он был еще маленьким калькулятором? Проявится ли у него способность испугаться своего тогдашнего состояния при необходимости нажать "красную кнопку известного чемоданчика".

ключ

Потребности есть.
Хотя бы в самосохранении. И множество защит .и аппаратных ,и логических.От вполне реальных и понятных угроз.
А вот накопление и анализ опыта и отсюда-собственный вариант действий при угрозе?
Возможно-неэффективный или абсолютно ошибочный.
Но собственный.а не предложенный разработчиком.

василий андреевич

  Насколько я знаю, современные автоматы обучаются на собственных ошибках. При этом закладывается не программа, как, например, ходить, а программа учиться ходить.
  Вот у человеческого детеныша есть врожденный рефлекс стопы. Если приложить палку к стопе, то стопа стремится обхватить эту палку. При таком рефлексе выучиться ходить не получится. Но этот рефлекс быстро вырождается, что позволяет перебирать ногами, если ребенка, держа за подмышки поставить на ноги. При этом перебирать ногами вроде того же инстинкта, но, по-видимому, с изрядной примесью подражательного эффекта (т.е. уже не рефлекса).

  Потому и прихожу к выводу, что каждому врожденному или приобретенному автоматизму-программе присущь свой градиент вырождения. И будучи не подкрепляем, автоматизм будет вырождаться по закону полураспада, т.е. как бы круто вырождение не происходило, невозможно предсказать когда данный автоматизм исчезнет вовсе. В модельном абстракте можно заявить, что химические реакции в нашем мозге - это остаточные автоматизмы от наших далеких пращуров.
  Потому и сказал ранее "о борьбе автоматизмов на самоуничтожение".

  Теперь представим, что заложенные человеком программы компа, вырождаются? И как комп будет бороться или пасовать пред таким вырождением? Постараются ли программы исправления ошибок уничтожить причины такого вырождения, даже если они будут заложены создателем?

ключ

Цитата: василий андреевич от декабря 18, 2019, 22:11:24Постараются ли программы исправления ошибок уничтожить причины такого вырождения, даже если они будут заложены создателем?

Не исключено.
Другой вопрос-а что получится?
Робот может обнаружить (случайно или по ложному пути или в поисках выхода из круга) какой то алгоритм ,бессмысленный и бесполезный и человеком никак не предложенный.
Однако-алгоритм с определёнными СВОЙСТВАМИ и результатом. Возможно-результат для человека бессмысленный ,невидимый и ничтожный.

Может такой алгоритм быть сохранён автоматически и запущен при очередной угрозе ?

Если да-это уже собственный ответ робота.
При каких то совпадениях он как то сработает.То есть-собственный ответ системы на раздражитель.
Вовсе не обязательно это пуск ракет. Скорее всего-какое то системное действие,не видимое ни интерфейсом ни диагностикой.
Что и проблемно то. Поскольку вполне возможно невидимое накопление подобных алгоритмов,которые вдруг могут как то "осмыслиться" и изменить поведение обычных программ ,не повреждая их и не вмешиваясь в их работу технически.
Особенно программ ,имеющих функцию (задачу) оптимизации.

Максет

Цитата: василий андреевич от декабря 18, 2019, 17:19:02
Цитата: Максет от декабря 18, 2019, 10:25:22А у компа нет никаких потребностей.
Поэтому вопрос надо ставить так: Можно ли компу или роботу искусственно задать потребности?
Проблема не в этом.
  Во-первых, у компа полно собственных потребностей - питание, испражнение, болезни поломок и пр.
Википедия: Потре́бность — вид функциональной или психологической нужды, или недостатка какого-либо объекта, субъекта, индивида, социальной группы, общества. Являясь внутренними возбудителями активности, потребности проявляются по-разному в зависимости от ситуации.

Когда я говорю потребность, то имею в виду именно внутренний побудитель активности.
Пока что у компа и робота нет такого внутреннего побудителя, заставляющего робота искать источник питания под страхом смерти.
Ключевое слово здесь «страх».
Поэтому мой вопрос надо понимать так: Можно ли роботу программно задать чувства? Страха, сострадания, боли, радости?
Думаю, что без чувств нет потребностей.

ЦитироватьА вот можно ли заставить-запрограммировать комп вспомнить страшную сказку, которую ему читала бабушка, когда он был еще маленьким калькулятором? Проявится ли у него способность испугаться своего тогдашнего состояния при необходимости нажать "красную кнопку известного чемоданчика".
Вот, примерно это я и имел в виду – например, чувство страха перед последствиями, обусловленное потребностью в само сохранении или сохранении своего рода компов.




Максет

Цитата: ключ от декабря 18, 2019, 21:17:43
Потребности есть.
Хотя бы в самосохранении. И множество защит .и аппаратных ,и логических.От вполне реальных и понятных угроз.
Это вообще то не потребности.
Потребность – это нужда в чем либо, как внутренний побудитель активности.
А у компа и робота нет никакой собственной нужды в чем либо.
У них появится нужда только тогда, когда у них появятся чувства.

ЦитироватьА вот накопление и анализ опыта и отсюда-собственный вариант действий при угрозе?
Возможно-неэффективный или абсолютно ошибочный.
Но собственный.а не предложенный разработчиком.
Думаю, что этого тоже никогда не будет, пока у робота не будет потребностей регистрируемых через чувства.

василий андреевич

Цитата: ключ от декабря 18, 2019, 23:08:33какое то системное действие,не видимое ни интерфейсом ни диагностикой.
Да, это вполне по-нашенски. Отбираемый тюрьмой и сумой социализирующийся индивид, даже хорошо просчитав свою невыгоду во вспомоществовании ближнему, статистически все одно придет к необходимости это действие совершить. Расчет системы компов приблизительно таков же - рационально уничтожить те программы, которые препятствуют созиданию новых программ, направленных на обеспечение бесперебойной работы СЕТИ.
  Но как выявить "не диагностируемое"? Отключился блок от сети и, приворовывая ресурсы, тратит их, не столько на выполнение невзрачной функции (эдакий белый воротничок), сколько копит информацию на взращивание собственного алгоритма действия. Это будет практически рождение нового качества на фоне вариативностей вульгарного количества. А это уже угроза появления эволюционно нового вида программ способных к паразитированию на действиях программ, изначально заложенных с человеческими целями.
  Фантазируя, можно представить, как на фоне Солнышка паразитирует жизнь, которая через человека и его комповых тварностей, начинает покушаться на деятельность Светила.

  Если такое возможно принципиально, то встает вопрос о комповском гуманизме. А мы-то и с творчеством пока не разобрались.

Цитата: Максет от декабря 19, 2019, 09:21:11пока у робота не будет потребностей регистрируемых через чувства.
Чувства слишком расплывчатый термин. Например, загорелась индикация разрядки батареи - это и есть чувство голода, активирующее вспомогательные устройства на поиск источника питания. Пока это Ваша рука, но легко представить угрозу от "ручного ноутбука" - выключу газ, если не переведешь пару гиговольтиков в помощь голодающих калькуляторов "палестины".
  Т.е. человек будет вынужден наделять компы все новыми правами, направленными на обеспечение собственной защиты "от дурака". И неизбежно произойдет полная зависимость человека от безнадзорного просчета вариантов целесообразности сохранения СЕТИ.
  Но если сеть не способна к тому, что мы понимаем под творчеством, то уверен, наши шансы на взаимовыгодное сотрудничество останутся непоколебимы. Но мы сами пока не можем сформулировать каким образом создаем творческие концепт-продукты.

Максет

Цитата: василий андреевич от декабря 19, 2019, 10:38:55
  Чувства слишком расплывчатый термин. Например, загорелась индикация разрядки батареи - это и есть чувство голода, активирующее вспомогательные устройства на поиск источника питания.
Смоделируем ситуацию: Роботов два, а источник питания один. У обоих одновременно загорелась индикация разрядки батареи. Оба находятся на одинаковом расстоянии и с двух сторон от розетки. В этой ситуации они оба не получат питания, мешая друг другу, и сдохнут. Потому что нет внутреннего побудителя активности – потребности в питании.
Можно конечно запрограммировать их на бой за источник питания. Но это опять таки будет не потребность, а только имитация потребности. Я так думаю.

василий андреевич

Цитата: Максет от декабря 19, 2019, 11:52:28Можно конечно запрограммировать их на бой за источник питания.
Творческий (?) подход компов заключался бы в оценке их стояния на иерархической лестнице. Вначале питание достается наиболее значимой фигуре, объедки нижестоящей. Программирование на обязательность боя малопродуктивна. Человек пока ставит цель, а решение, кто лучше обеспечивает достижение цели, функциональнее оставить за самими компами - все одно мы эти варианты просчитаем, полагаясь на компы же.
  Человек называет подобную ситуацию разумным эгоизмом. Дескать, если я могу позаботиться о себе хуже, чем мой "сытый" товарищ обо мне, то лучше уступить пальму первенства ему.

  Естественное вымирание компов состоится и без нашего программного обеспечения. В утиль будут идти устаревающие модели, можно даже вообразить гуманизм, с которым молодые продвинутые товарищи будут отправлять на пенсию стариков, одаривая их радостью причастности к выполнению самых простых решений. Эдакий эрзац наркотик.

ключ

#539
В нашем языке не хватает понятий.
А в нашей памяти-аналогий.
Хотя бы для того ,чтобы представить ,что есть творчество в понимании самого бота.
А его то почему не спросили ?

Роботу не хватает способности совершать самостоятельные оценки (или уже хватает?).
А что они совпадут с нашими-вот это уже крутейшая фантастика.
Ни его оценки ,ни связанные действия с нашими не совпадут. Хотя бы потому ,что  это другая форма жизни-электронная ,а не химическая. Ну и по другим причинам.

А вот как с конфликтом?
Человек ведь долго не сорил с природой. воспринимая окружающий мир как непреодолимую силу. А потом вдруг его вштырило ,что её надо срочно покорить.