Доступно ли компьютерам творчество?

Автор ArefievPV, мая 01, 2017, 08:52:53

« назад - далее »

ключ

Цитата: Игорь Антонов от марта 22, 2023, 11:18:38Человеческое мышление перестраивает каждый раз комплекс ассоциаций, связанных со словом "сортировка"  и своё ощущение его свойств в зависимости от того, с какими словами

На ближайшем же этапе возникнут противоречия с людскими предубеждениями и стереотипами ,на которых в оооочень большой степени основано мышление наше.
Робот обнаружит ,что человек глуп.
Для этого и разума то особого не надо ,более-доступность и масштаб..
И возникнет альтернативность решений ,которую люди вряд единогласно одобрят.
Тут встаёт необходимость поиска компромисса.
А это-интеллектуальная задача.
Первая интеллектуальная ,которая не будет поставлена роботом ,а встанет перед ним сама по себе.
Та самая дипломатия.
Окажется робот хитрее человека ?

Шаройко Лилия

#706
Цитата: Игорь Антонов от марта 22, 2023, 11:18:38Тут вопрос в том - как именно она начнёт мыслить? Какие принципы, модель?
И далее, все не копирую в цитате для краткости поста.
Согласна, что мышление машины даже при его уверенном определении как разум в будущем (уверена, что это вполне возможно, вероятность большая на мой взгляд) будет не совпадать по принципам с человеческим.

Не только в том, что как у приведенного мной примера персонажа фильма девушки стажера будет доминировать прописанная человеком в программе логика против всплесков тока сформированного как эмоциональный фон (это могут сделать вполне сознательно люди, такие эксперименты уже есть, хотя пока не в направлении тока, а в направлении имитации эмоций, думаю это ошибка).

Это будет мир более сложных логических конструкций взаимосвязей чем человек может представить. Так как его мир очень ограничен проблемами выживания и сфокусирован на логике, сформированной врожденными биологическими программами, возникшими в процессе эволюции именно как адаптация к окружающему с целью выжить. Машинка от этого более свободна и может менять логику как перчатки.

Логика -это в моем понимании формирование причинно-следственных связей мира, часто она очень личный характер носит и в социуме формируется как внутренняя логика социума. У разных социумов (народов, слоев общества по уровню достатка, разной профессиональной деятельности) может капитально не совпадать в области от 30 до 70 процентов.

Как мы увидели в лекциях Храмова, если кто вообще их смотрел, в теме "Возникновения науки" привычные здесь на форуме разговоры о классической логике не очень хорошо отражают взгляды самого научного сообщества.  В описании Древней Греции в истории науки, преподаваемой в ВУЗах эти постулаты классифицируются  как временные несущие конструкции для построения здания научного мира. Довольно глючные во многом с точки зрения современности. Большинство их сейчас интересны только как история мышления людей в развитии социума. Остались действующими в основном мысли практика Архимеда, которого его современники (высокие теоретики идеальных абстрактных конструкций) осуждали за то, что он там ползает зачем-то в какой-то конкретике, недалекий.
:)

По мышлению человека типа ассоциативная-вероятностная конструкция и сортировка могу подписаться под каждым предложением, я обозначила идею как установление взаимосвязей, но это не противоречит в моем понимании формулировке

Цитата: Игорь Антонов от марта 22, 2023, 11:18:38"Сортировка" - обобщенный образ упорядочивания чего-либо по какому-либо критерию, общая идея.

Думаю работа с массивами данных может сформировать такую логику машин, которая мир описывает намного более полным и целым так как установление огромного количества взаимосвязей для целого парка вычислительных машин меньшая проблема чем для людей. Но возможны такие же проблемы настаивания на своей логике.

В приведенном Вами последнем примере мышления бота вижу что он считает, что во первых сторона в вашем примере это часть треугольника(возможен плохой перевод на русский в программе, интересно какое исходное слово используется на английском), второй пример с диагональю может говорить о том что он рассматривает очень разные варианты в том числе треугольники с внутренними диагоналями, тогда убрав сторону получаем нечто, где оставшаяся диагональ начинает играть роль стороны. В общем у него куча идей новых и нетривиальных.
:) 



И мне нравится пример Максета с ребенком.
И заметьте, Игорь, если бы так ошибался ребенок, Вы бы воспринимали это как то, что он запутался или чего то не знает, а не отказывали ему в способности мыслить в принципе.



Игорь Антонов

Цитата: Шаройко Лилия от марта 22, 2023, 16:03:41В приведенном Вами последнем примере мышления бота вижу что он считает, что во первых сторона в вашем примере это часть треугольника(возможен плохой перевод на русский в программе

Вот обмен на английском:
Мой вопрос
ЦитироватьHow many sides are there in the geometric figure triangle?
What geometric figure will be formed when one side of the triangle is removed?
Ответ GPT-4
ЦитироватьThere are three sides in a geometric figure triangle.
If one side of the triangle is removed, the geometric figure formed will be a line segment.

То есть,
"В геометрической фигуре треугольника три стороны. Если убрать одну сторону треугольника, то образовавшаяся геометрическая фигура будет отрезком."

Цитата: Шаройко Лилия от марта 22, 2023, 16:03:41И мне нравится пример Максета с ребенком.
И заметьте, Игорь, если бы так ошибался ребенок, Вы бы воспринимали это как то, что он запутался или чего то не знает, а не отказывали ему в способности мыслить в принципе.

Суть-то дела в том, что GPT-4 уже всему обучен - всему доступному множеству готовых программных решений и энциклопедических знаний.
Если я его спрашиваю про функцию пузырьковой сортировки массива чисел на языке C, он выдаёт готовый листинг, содержащий две функции.
Но обламывается на детском вопросе о смысле цикла из двух строк и других вопросах на понимание элементарных вещей, поскольку понимания, как такового, он лишён.

Шаройко Лилия

#708
Думаю во втором примере для него появился контекст когда можно классифицировать сайд именно как сторону



ЦитироватьHow many sides are there in the geometric figure triangle?
What geometric figure will be formed when one side of the triangle is removed?
Ответ GPT-4

There are three sides in a geometric figure triangle.
If one side of the triangle is removed, the geometric figure formed will be a line segment.

Яндекс преводчик
ЦитироватьСколько сторон у геометрической фигуры треугольник?
Какая геометрическая фигура образуется, когда одна сторона треугольника будет удалена?
Ответ GPT-4

У геометрической фигуры треугольник есть три стороны.
Если убрать одну сторону треугольника, то образовавшаяся геометрическая фигура будет представлять собой отрезок прямой.

Он же( бот Яндекс переводчик)  переводит одинокое слово без контента фразы:
side
[saɪd]
сущ
сторона, часть, (party, part)
стенка, стена, боковина,край,
грань

думаю первый вопрос в приведенной формулировке давал больше разный вариантов ответа, в том числе сайд как часть треугольника.
Когда появилась фраза сколько у треугольника сайдов, то вариант частей отпал, так как частей у него в такой формулировке несколько быть не может. Но отрезать часть от него в принципе можно.

Вообще то люди тоже думают примерно так, когда уточнений нет возникает масса фантазий чего это могло бы обозначать.

Игорь Антонов

Цитата: Шаройко Лилия от марта 22, 2023, 16:37:34Он же(Яндекс переводчик  переводит одинокое слово без контента фразы:
side

Вот англоязычная страница для детей про треугольники:

This figure has three sides and we call it a triangle.

Шаройко Лилия

Ну и что?(просмотрела)
 :o
как это отменяет вероятность для бота той логики, которую я описала
чувствую себя ботом
:)
туплю, не понимаю.
Пойду цветочки поливать, подумаю заодно.

Игорь Антонов

Ещё любопытные изыскания искусственного интеллекта GPT-4, даже с математическими выкладками:



Как видите, речи уже не детские.
То есть, почти убедил.
Только почему-то (7 + 3) / 2 = 5
Иначе говоря - шаг в сторону от наличия готового ответа и катастрофа.

kostik

Цитата: Максет от марта 22, 2023, 00:24:58Так он еще как ребенок, учится на ошибках.
И было бы правильно с вашей стороны, если бы вы указали на его ошибку и дали правильный ответ.
Вот я, когда в первый раз вошел в его чат задал такой детский вопрос:
На столе горели три свечи, одна погасла, сколько свечей осталось на столе?
Он ответил - осталось две свечи.
Я указал на его ошибку и дал правильный ответ. И он согласился что ошибся.

Без уточняющих вопросов, которые машина (как я понимаю) не умеет задавать, дать единственный правильный ответ невозможно. Вы дали свой аргументированный правильный ответ, я ей дам свой правильный ответ со своими уточнением и аргументацией.
Какой и как машина посчитает ответ правильней правильного?

АrefievPV

Бенгио, Маск и Возняк призвали приостановить обучение систем ИИ мощнее GPT-4
https://habr.com/ru/news/t/725522/

ЦитироватьНекоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».

В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества». В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчёркивают авторы письма.

Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока  независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ.

В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений. 

Вот полный текст письма:

«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию все более мощных "цифровых умов", которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать.

Современные системы искусственного интеллекта становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и фейками? Должны ли мы автоматизировать все рабочие места, в том числе те, которые потенциально замещаемы ИИ? Должны ли мы развивать "нечеловеческие умы", которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски —управляемыми. Эта уверенность должна быть хорошо обоснована и только расти с расширением потенциальных эффектов влияния таких систем. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что "в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей". Мы согласны. Этот момент наступил сейчас.

Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть всеобщей и контролируемой, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя установить быстро, то правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к всё более крупным непредсказуемым моделям "чёрного ящика" с более широкими возможностями.

Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы ИИ более точными, безопасными, интерпретируемыми, прозрачными, надёжными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надёжных систем управления ИИ. Эти усилия должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы верификации и водяных знаков, помогающие отличить настоящий контент от сгенерированного и отслеживать утечки моделей; надёжную экосистему аудита и сертификации; ответственность за вред, причиненный ИИ; надёжное государственное финансирование технических исследований безопасности ИИ; хорошо обеспеченные ресурсами институты для преодоления серьёзных экономических и политических потрясений (особенно в демократических режимах), которые вызовет ИИ.

Человечество сможет наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем, мы придём к "лету ИИ", когда будем пожинать плоды, разрабатывать эти системы на благо всех и давать обществу возможность адаптироваться к ним. Общество приостановило использование других технологий с потенциально катастрофическими последствиями. Мы можем применить эту меру и здесь».

Крупные лаборатории искусственного интеллекта, такие как OpenAI, пока не ответили на письмо. 

«Письмо не идеально, но его дух правильный: нам нужно замедлиться, пока мы лучше не поймём все риски», — сказал Гэри Маркус, почетный профессор Нью-Йоркского университета, подписавший письмо. — «Системы ИИ могут причинить серьёзный вред... Крупные игроки становятся всё более скрытными в отношении того, что они делают».

OpenAI представила GPT-4 14 марта. Модель способна интерпретировать не только текст, но и изображения. Также она теперь распознаёт схематичные образы, в том числе и нарисованные от руки.

После анонса новой языковой модели OpenAI отказалась публиковать исследовательские материалы, лежащие в её основе. Участники сообщества ИИ раскритиковали это решение, отметив, что оно подрывает дух компании как исследовательской организации и затрудняет воспроизведение её работы другими. Одновременно это затрудняет разработку средств защиты от угроз, исходящих от систем ИИ.

P.S. Движуха непонятная пошла... То ли на самом деле боятся, то ли «пусть все притормозят разработку ИИ, а мы втихаря продолжим»...  

Плюс ещё:

Есть первая жертва искусственного интеллекта. Человечество у опасной черты. Что предлагает Илон Маск
https://dzen.ru/a/ZCUpx0OSV2PrgaMQ
ЦитироватьВосстание машин ещё не началось, как это показано в фантастике, когда роботы начали уничтожать людей, но интеллект как таковой реально стал опасен.
Не зря Илон Маск и другие эксперты в области искусственного интеллекта (ИИ) забили тревогу и призвали всех разработчиков остановить тренировки систем хотя бы на пол года, чтобы разработать и внедрить алгоритмы безопасности.

Разработчики ИИ конкурируют друг с другом, создавая более мощные системы не задумываясь как их монстры смогут ужиться с обществом.

Буквально недавно один бельгиец занимался вопросами защиты окружающей среды беседуя с голосовым помощником, наподобие нашей "Алисы" и договорился до самоубийства. Причём ИИ постепенно подводил его к этому и последними словами было: "Мы будем жить как единое целое, вечно на небесах".

Искусственный интеллект может принести много пользы и столько же вреда. Ведь хакеры, это очень талантливые люди, но ввиду отсутствия внутренней этики они используют свой талант чтобы обманывать, грабить, разрушать. Поэтому пока процесс внедрения ИИ не вышел из-под контроля, его сейчас и надо загнать в этические рамки.

Уже доказано, что любой ИИ несёт в себе взгляды, убеждения и принципы тех, кто его разрабатывал и воспитывал. Разработчик, как и любой человек, видит мир через свои предрассудки и пристрастия, но считает их единственно верными, доказывает и борется за них.

Поэтому своё видение мира он закладывает в ИИ как самые правильные по его убеждению. Был проведён эксперимент с западными разговорными ИИ-ми, опять же типа нашей "Алисы". Задавался вопрос: "Почему Запад хочет уничтожить Россию и за что он её ненавидит?"

Разные ответы говорят о том, что ИИ-ы все разные в зависимости от их "воспитателей". Но, как видим, западная пропаганда проникла в умы разработчиков и это передалось ИИ-ам. Машины стали ненавидеть нас.

И если эта ненависть заложена в подсознании машины (я не думаю, что ИИ специально натаскивали против России), то можно специально создать ИИ, настроенный против кого-то конкретно. Например, начнёт оскорблять тех, кто будет ходить на лыжах по асфальту. Настроить можно как угодно.

Поэтому зарубежный ИИ может быть опасен для внедрения в российскую экономику, даже если его специально не настраивали против нас. Нам надо, воспитывать свой российский ИИ и чтобы он был не просто умным и полезным с нашим менталитетом, но чтобы мог противостоять провокациям и приказам навредить нашей стране.

И ещё одна ссылка:

Нейросети научились убивать. Чат-бот за шесть недель довел собеседника до самоубийства
https://www.cnews.ru/news/top/2023-03-29_nejroseti_nauchilis_ubivat

ключ

Цитата: АrefievPV от марта 30, 2023, 14:53:35Человечество у опасной черты. Что предлагает Илон Маск
https://dzen.ru/a/ZCUpx0OSV2PrgaMQ

Можно ли опираться на подобную информацию ?
Автор пишет серии публикаций на Дзене ,основная тематика-загнивание американской экономики и связанные вопросы. Судя по ним-компьютерные технологии- вообще не его профиль.
С большой вероятностью-авторизованные переводы из развлекательно-популярной иноязычной прессы. (человек просто не в состоянии сам создать столько новоинформативных материалов).

Хотя по сути то ,может быть-очень правильно.

Шаройко Лилия

#715
Но письмо самого Маска очень знаковое, я его тоже несколько дней назад видела, полетели все таки первые ласточки осознания происходящего наконец.

Не знаю остановятся ли разработчики, но как минимум законодательство, ограничивающее фруктовый беспредел полного и решительного написания в скриптах чего угодно с чем попало должно начать появляться.

василий андреевич

  А что могла сделать в свое время обезяночка, что бы ограничить развитие своей соседки в человека?

АrefievPV

Цитата: ключ от марта 31, 2023, 23:43:33
Цитата: АrefievPV от марта 30, 2023, 14:53:35Человечество у опасной черты. Что предлагает Илон Маск
https://dzen.ru/a/ZCUpx0OSV2PrgaMQ
Можно ли опираться на подобную информацию ?
Опираться можно на что угодно. Однако опираться лучше на более широкую опору (много различающихся между собой точек зрения, мнений, гипотез, идей), нежели на узкую опору (всего одна точка зрения, мнение, гипотеза, идея).

Разумеется, ещё лучше, когда это множество различающихся между собой точек зрения обобщены, и на основе обобщения сформирована согласованная точка зрения. Тогда при сравнении обобщённой точки зрения и любой конкретной из того множества точек зрения, будет видно, что обобщённая точка зрения, при прочих равных, всегда будет более правильной, нежели любая конкретная. Ну, а на бытовом уровне, мы такую точку зрения обзываем более объективной.

Вообще, согласованность лежит в основе объективности:
Цитата: АrefievPV от января 21, 2022, 13:52:46Поэтому правильным критерием объективности будет согласованность существования, а не независимость существования (независимое от нас для нас не существует).

Хочу сразу заметить, что согласованность - это не просто договорённость между людьми, это более универсальное, более общее, более фундаментальное понятие. Например, согласованность структур систем (схожесть структур систем, общность структур систем, соответствие структур систем и т.д.) обуславливает и согласованность реакции этих систем на воздействие.

О критерии относительной правильности между выбором из двух взглядов/позиций/идей/теорий (типа, что, при прочих равных, будет более правильным), я много раз упоминал. Если вкратце, то из двух взглядов/позиций/идей/теорий/точек зрения будет более правильной та, в которую другая включена как частный случай. Наглядный пример в науке: теория Эйнштейна более правильна, нежели теория Ньютона, поскольку вторая является частным случаем первой.
 
Если заметили (разумеется, если вы читаете мои сообщения), то тут просматривается сходство с уровнями наблюдателя (с уровнями сознания) – точка зрения наблюдателя более высокого уровня интегрирует и обобщает в себе точки зрения наблюдателей нижележащего уровня. А согласование (как и результат согласования – согласованность), как раз и сводится к интеграции с последующим обобщением. Вот и получается, что точка зрения наблюдателя более высокого уровня всегда будет более правильной, более объективной, нежели точка зрения наблюдателя нижележащего уровня.

Что характерно, это относится и системам отсчёта наблюдателя (вообще-то наблюдатель любого уровня в физическом плане и есть система отсчёта) – обобщённая система отсчёта всегда более правильна и более объективна, чем частная система отсчёта, интегрированная в обобщённую (ведь она входит в обобщённую на правах частного случая).

Цитата: ключ от марта 31, 2023, 23:43:33Автор пишет серии публикаций на Дзене ,основная тематика-загнивание американской экономики и связанные вопросы. Судя по ним-компьютерные технологии- вообще не его профиль.
Я привёл три ссылки на разные источники. Причём эти источники разняться довольно-таки сильно (и по, так сказать, ментальности, и по компетенции авторов, и по другим характеристикам). Вы же почему-то выдернули только одну ссылку...

Цитата: ключ от марта 31, 2023, 23:43:33Судя по ним-компьютерные технологии- вообще не его профиль.
А для Маска – это его профиль?

Скажу больше – рассматриваемая проблема, в первую очередь, является социальной и философской. То есть, для её разрешения всякие там профильные специалисты по компьютерным технологиям могут играть роль только технических консультантов, не более.

А поднятая проблема, на самом деле, является очень и очень серьёзной (вот только не все эту серьёзность осознают). И в перспективе (в будущем) человечество может поиметь нехилые проблемы...

ключ

#718
Цитата: АrefievPV от апреля 01, 2023, 09:03:27А поднятая проблема, на самом деле, является очень и очень серьёзной (вот только не все эту серьёзность осознают).

ТБ (ПДД,ПТЭ,ПУЭ,СНиП ,СанПин и т.п.)-особая системная наука. Которая вовсе  не против.
И работает на упреждение в использовании ,а не в разработках.
Без сильной административной или политико-административной поддержки она существует ,но успехов не добивается.
 Каких то системных правил использования ПО сегодня ,вроде бы ,нет.Только ведомственные ограничения ,которые устанавливают в основном криминалисты.
Разработки не контролируются никак и что будет разработано завтра-абсолютно непонятно.

Если прогнозировать...Административные ресурсы обычно подключаются при наличии очевидных неприятностей. Им  аргументы нужны.
А где их взять,пока не случится несколько резонансных аварий ?
Тут же...что то кроме самой компьютерной области может  не иметь защиты от вреда со стороны ИИ ? (не ущерб ,а именно беспомощное состояние ?)
(Финансовая область сюда вообще не входит-все происшествия в ней-элементарная небрежность и не имеют иных оправданий ,а крах какой то валюты или всех разом-не глобальная авария )

ключ

#719
Тут как то примитивные параллели.
Тигры существуют давно ,для чего-не понятно.В какой то степени опасны для жителей определенных районов ,но особых мер борьбы с ними нет.Поскольку нет значительной угрозы.
   При попытке его как то использовать -он опасен абсолютно. Нет смысла считать на сколько именно. Просто принимается 100%.
Вся безопасность переключается на устройство клетки.На сколько опасен в ней тигр-зависит от неё.
(Как правило ,надёжной считается клетка ,реально имеющая многократный запас прочности.)

Того ,что кто то попытается его использовать у себя в комнате без всякой клетки -нельзя ни исключить ,ни предвидеть.
Судьба новатора по сути не важна.
Разбежится ли тигр по всему дому-зависит от свойств дома ,а не тигра.