Доступно ли компьютерам творчество?

Автор ArefievPV, мая 01, 2017, 08:52:53

« назад - далее »

ключ

 Вот в новостях сегодня
https://www.kommersant.ru/doc/6097089?utm_source=yxnews&utm_medium=desktop

Что выявили 110 тыс. мошенников-конечно ,круто. Больше ,чем зайцев в трамвае. Но не в этом дело.
Как то кажется .что обзвон (во всяком случае массовый) последний месяц прекратился. Прекратился так ,как будто что то отключили.(ОДНАКО БДИТЕЛЬНОСТЬ НЕ ТЕРЯТЬ !)

  Подобное было лет 8 назад. Тогда использовался т.наз. телефонный флуд.
Использовался для забивания служебных номеров. Серии звонков по 40-50 вызовов с небольшим интервалом ,при соединении-гудок или какое нибудь хрюканье. Если выключить телефон-при включении серия возобновится и идёт до конца.
Техподдержка операторов ничего предложить не могла ,номера подменные всех регионов Мира.
   Эта гадость длилась года три. Атаковали в основном мелкий бизнес.
В нете были объявления ,что можно заказать услугу для конкурентов ,но единичные и не факт ,что реальные. А вредительство было распространено довольно массово  ,хотя элементарно решалось сменой номера. Беда ,но не смертельная.
Прекратилась сразу с принятием поправок Закона об ответственности за  повреждение средств связи.

АrefievPV

Цитата: АrefievPV от мая 27, 2023, 13:45:15
Цитата: ключ от мая 27, 2023, 12:22:13
Цитата: АrefievPV от мая 27, 2023, 07:25:01Уточните, в каком плане «наиболее рискованное»?
Вариантов много.
От сулящих перевес ,но плохо поверенных и имеющих массу побочек . Кто не рискует-тот не пьёт шампанского.Но и кто рискует-тоже не всегда.
До...  От наркоты и прочих методов достижения иллюзии благополучия ни один социальный слой не защищен. От уточенных регуляторов эмоций до тупой стимуляции центров удовольствия.
Наибольшей угрозой видится громадная волна неведомого доселе явления ,аналогичного наркомании.
Вполне возможно ,что мозг человека вообще не имеет он него естественной защиты ,поскольку нет аналогичной природной угрозы.
Могу вас «обрадовать» – всё будет. Разумеется, будет в той или иной степени, но всё без исключения.

«Открыли ящик Пандоры»? Получите, распишитесь...

И пока цивилизация обуздает хотя бы самые крайние проявления, столько «шишек наколотит» (возможно, даже «кровавых шишек»), что «мама не горюй»...
А вот и пример того, что люди будут творить разную хрень, (в том числе, и в индивидуальном порядке). Можно ожидать чего-то подобного теперь и в государственном масштабе (думаю, что и корпорации подключатся с удовольствием). 

Как тебе такое, Илон Маск? Россиянин чипировал собственный мозг в домашних условиях по инструкциям из YouTube
https://www.cnews.ru/news/top/2023-07-20_kak_tebe_takoeilon_mask
Россиянин собственноручно вживил в свой мозг электрод, чтобы контролировать сновидения. Он провел операцию при помощи скрепок и дрели, обучаясь по роликам на YouTube. Миллиардеру Илону Маску для подобного чипирования потребовалось создать многомиллиардный стартап, и разрешения вживлять чипы людям в мозг он добивался семь лет.

ЦитироватьКиберпанк по-русски

Выходец из Новосибирска Михаил Радуга самостоятельно провел операцию по чипированию мозга, используя в качестве инструмента лишь бытовую дрель и скрепки. В качестве пациента был он сам – новосибирец просверлил собственную голову и вживил в мозг электрод. Первым об этом сообщил Telegram-канал Baza.

Для проведения операции 40-летнему Радуге, в отличие от американского миллиардера Илона Маска (Elon Musk), не потребовалось создавать собственный стартап и вкладывать миллиарды долларов в исследования и разработки. В качестве обучающих материалов россиянин использовал ролики на YouTube, на которых запечатлена работа нейрохирургов.

Внедрение электрода в мозг – это не самоцель. По словам Радуги, он провел эту операцию, чтобы научиться управлять своими снами.

Без практики тоже не обошлось – перед тем, как сделать в своей голове не предусмотренное природой дополнительное отверстие, Радуга провел несколько опытов на овцах. Сколько животных потребовалось для приобретения навыка, неизвестно.

Цель не достигнута

На момент выхода материала информации о том, научился ли в итоге выходец из Новосибирска управлять своими снами, в открытом доступе отсутствовала. Известно лишь, что тема контроля над сновидениями интересует Радугу не первый год, и что инородный предмет он вживил в моторную кору головного мозга – область, отвечающую за планирование, контроль и выполнение произвольных движений.

По словам Радуги, он давно собирался провести над собой этот эксперимент, однако к дрели и скрепкам прибегнул как к крайнему средству. На протяжении полутора лет он вынашивал планы по обращению с просьбой об установке к настоящим нейрохирурга, но откладывал это из-за «уголовных рисков и других известных событий».

На волоске от смерти

Комментируя проведенную операцию, Радуга заявил, что желание контролировать свои сны и выбранный им способ достижения цели едва не свели его в могилу. Нехватка хирургического опыта дала о себе знать – в ходе операции он потерял около 1 литра крови, то есть 20% всего объема, содержащегося в теле среднестатистического взрослого мужчины.

Вскрытие черепа Радуга провел прямо у себя дома, но не в Новосибирске, а в Алма-Ате (Казахстан), куда он не так давно переехал. Дрель была нужна для проделывания отверстия в черепе, а скрепками он воспользовался для фиксации кожи, чтобы та не мешала ему вживлять электрод.


Михаил едва пережил операцию

Но относительно успешно проведенная операция – еще на гарант того, что качеству жизни Радуги, как и в целом его жизни, теперь ничего не угрожает. По мнению консультирующего нейрохирурга Алекса Грина (Alex Green) из Оксфордского университета, деяние Радуги могло спровоцировать инсульт или закончиться смертью. Успех операции, по его мнению, весьма сомнителен – Грин полагает, что теперь над Радугой нависла угроза развития эпилепсии.

Доморощенный «Илон Маск»

В мире годами не существовало легальных практик по вживлению в головной мозг людей различных имплантов. Подобные эксперименты проводились, но в качестве подопытных всегда использовались животные. Значительного прорыва в этом направлении добился стартап Neuralink Илона Маска, основанный в 2016 г. Его основная цель заключается в создании технологии, позволяющей управлять современной электроникой при помощи мысли, то есть непосредственно командами мозга, без физического с ней взаимодействия.

Маск годами добивался разрешение на проведение экспериментов на людях, и в конце концов он получил необходимую лицензию – в мае 2023 г. его выдало Управление по санитарному надзору за качеством пищевых продуктов и медикаментов США (FDA), хотя и не сразу. В марте 2023 г. оно ответило миллиардеру очередным отказом.

Что касается экспериментов над животными, то здесь Маск мог вполне перегнуть палку. Как сообщал CNews, его стартап в конце 2022 г. оказался фигурантом федерального расследования по делу о массовых случаях издевательства над животными. Документы компании и его сотрудники говорят о гибели огромного числа животных в результате ошибок в экспериментах, вызванных постоянной спешкой, генерируемой самим Маском.

P.S. Жесть какая-то... Воспринимается как курьёз или даже как фейк...

Отдельный вопрос, сколько животных погибло в экспериментах (кстати, Михаил Радуга тоже ведь, наверное, не одну овцу загубил, нарабатывая навык).

ключ

:D Повод задуматься.
Нельзя ли обойтись без сверления ,заменив электрод беспроводным устройством ?

АrefievPV

Цитата: ключ от июля 21, 2023, 13:01:20Нельзя ли обойтись без сверления ,заменив электрод беспроводным устройством ?
Неинвазивные методы имеют свои ограничения (по точности, по силе воздействия, по селективности и пр.), а инвазивные, с внедрением электродов в нервную ткань, со временем губят нервные клетки (да и хирургическое вмешательство, это не есть хорошо).

Возможно со временем и разработают какую-нибудь неинвазивку, способную организовать взаимодействие с точностью до нейрона. Ну а пока – сверлим бошки и втыкаем в мозги электроды... 

Как видите, не всех пугают такие инвазивные методы (даже на себе готовы опробовать)...

Шаройко Лилия

#904
Цитата: ключ от июля 21, 2023, 13:01:20Повод задуматься.
Повод задуматься не начать ли выключать сеть почаще. Эдак тотально, с 16 часов в сутки перейти на 4.
Я так сделала, вероятно начитавшись этой ветки, но возможно повлияло  не только это.
И вижу я что это хорошо(С)
Прямо капитальное чувство жизни просыпается, очень сильный поток эмоций.
Но ненадолго, просто эффект новизны.
Потом этот поток положительных эмоций становится ровным и при пропорции 4 часа -> сеть/остальное->другое , продолжает таким и оставаться, но капитально более живым чем с сетью в постоянном потоке информационной реки, в которой уже почти полностью отдельная от сети личность многих утрачивается и никто на это внимания не обращает.
Впрочем это эмоции одного отдельно взятого мозга. Возможно есть люди которые в сети себя чувствуют более живыми в зависимости от склонностей к разным уровням абстрагирования.
Точнее к разным процентам абстрактов (разных уровней обобщения).

ключ

#905
Цитата: Шаройко Лилия от июля 21, 2023, 15:12:47Возможно есть люди которые в сети себя чувствуют более живыми в зависимости от склонностей к разным уровням абстрагирования.

скорее плохо себя чувствуют без неё.
Хотя и раньше были люди с явной потребностью почитать свежую газету,другие же их вообще не читали никогда.
А ожидание письма было как священнодействие ,даже если ничего особенного в нём не предполагалось.
Что даёт курение (табака)-ни один курильщик объяснить не может. Что даёт воздержание и в чем именно выражена тяга-тоже. (я тоже не могу внятно сказать).

Шаройко Лилия

#906
Но 16 часов подряд читать газеты это много, у меня бывали такие дни не так давно, вся пресса всех континентов мира доступна. Но когда она доступна вся новости перестают быть новостями а это просто поток часто противоположных ИМХО(например Иран-Лондон-Китай-Германия), одни и те же факты практически без аргументации интерпретируются как угодно.
В общем эта свистопляска развлекает долго но однажды этому приходит полный конец обеда(вкуса)
Еще вы в своих беседах по будущему информационного потока сети и влияния на общество не учитываете всякие протестные тенденции, думаю будут движения типа здоровой жизни с лозунгами типа "Действительность имеет значение", медицинские советы выключать сеть каждые три часа на час и каждую неделю на один день полностью

Плюс религиозные секты, что нибудь типа "Свидетели двадцать седьмого дня".
:)
То есть люди выключающие сеть на почти месяц, удаляющиеся в несетевое пространство как  схимники в пустыню и испытывающие религиозный экстаз по этому поводу. Практикующие также обет телефонного молчания, когда все кому не лень не открывают пинком дверь в твое личное пространство в любой момент времени.

Еще будут какие нибудь гламурные "сеть-фри" как сейчас есть чайлд-фри(свободные от детей). Просидят без сети неделю и потом выложат
в социальных сетях  фотосессию "как я провел ЦЕЛУЮ НЕДЕЛЮ"

В общем у сети будет противоположная встречная волна не только законодательных ограничений.
Медицинские противодействия сетевому нонстопу могут включать опасения за гипоталамусно-гипофизарную систему, там влияние на щитовидку, дальше проблемы с памятью и тп)

там табличка в первых минутах ее лучше смотреть в качестве 1024 тогда видно все названия
если коротко тиролиберин гипоталамуса
https://ru.wikipedia.org/wiki/Тиролиберин
частично влияет на ТТГ гипофиза.

В основном этот гормон(ТТГ) зависит от Т4  щитовидки, и если Т4 мало, то ТТГ гипофиза увеличивается.
Аутоиммунные заболевания щитовидки врачами диагностируются как взявшиеся ниоткуда, генная предрасположенность может быть с рождения но активация этого замкнутого круга:
(антитела к ТПО атакуют клетки щитовидки под воздействием ТТГ гипофиза когда Т4 щитовидки низкий и делают ситуацию еще хуже, возникают деформации тканей разного уровня, вначале обратимые,  потом перерастающие в опухоли, первично доброкачественные) 
возникает в определенный момент времени.

Работа гипоталамуса зависит от ЦНС (общая нагрузка ПД, стрессы ). Перегруженный непрерывным информационным потоком гипоталамус, думаю, может играть свою роль. Пока твердых подтверждений не нашла, но может медики его уже обнаружили или наоборот опровергли.
Там довольно много взаимных влияний:

https://ru.wikipedia.org/wiki/Гипоталамо-гипофизарная_система

__________________________________
Я вчера не включала комп(подумала, что все равно никто на мои сообщения отвечать не будет, так что это не очень важно), в телефоне сети нет, и его я отключаю периодически тоже.

Постоянная прихожая в собственную личность для любого, набирающего номер это тоже как и сеть стирание личности для многих, особенно ведомых по типу такой личности.

Понятно, что внешний и внутренний поток остановить невозможно и личность в какой то мере все равно не является независимой даже у тех, кто уверен в обратном.

Но есть разные уровни поглощения системы человек внешними силами. Сеть одна из очень сильных внешних сил и ее выключение на длительное время, достаточное чтобы ее эхо прекратило капитально будоражить ЦНС высоким уровнем ПД(проще говоря дергать за нервы положительными и отрицательными реакциями) приводит к состоянию, похожему на погружению космонавтов в соляную ванну, в темной звукоизолированной комнате.

Конечно эффект не такой сильный, все таки основные сенсорные системы не глушатся а просто меняют поток с условного-абстрактного на прямой. Да и то не полностью а частично, прямой сенсорный поток не отключался полностью, просто был заглушен абстрактом символов.

Многое зависит от того, в чем человек сидит в сети и как он это делает, что вообще запоминает, что уже давно фон, как шум города. Как часто он меняет направление информационного потока.

  Скорее всего я завтра опять попробую комп не включать.

ключ

Цитата: Шаройко Лилия от июля 23, 2023, 15:30:55Многое зависит от того, в чем человек сидит в сети и как он это делает, что вообще запоминает, что уже давно фон, как шум города.

Это основное ,пожалуй.
Кто пытается осмысливать информационную страницу-мало отличается от читателя книги.
Но таких 1 %

Зевак (которых 99%)  направляет интерфейс.  Куда ?
Во первых-сам интерфейс массовых страниц входа ,вероятно ,очень хорошо продуман и просчитан.
Не буду выдумывать того ,чего не знаю.
Знаю ,что у рисовальщиков вывесок есть понятие "Перегрузка текстом".
Когда аккуратно и правильно перечислены предлагаемые опции ,а прохожие вывеску просто "не видят". Глаз сходу сложный набор не хватает ,надо включать мозг. А глаз мозгу команду включиться не даёт ,а ищет более симпатичную для себя вывеску. Более симпатичную-вовсе не более информативную.

  Как сделаны главные страницы массовых сайтов ?
Всего лишь несколько новостных строчек и иконок-ссылок.
И много кнопок возврата на Главную.
   Геометрия и пропорции "дружелюбных" интерфейсов-отдельная тема.
  За собой замечал-можно сидеть хоть часами ,щелкая по новостям и курсам и возвращаясь на Главную.
При этом строчки ,которые "новостные" ,могут быть предназначены для запоминания именно многократным повторением.
 Нет не только потока информации ,но и информации вообще.

Может быть-из пальца высосано ,конечно. Но из сотен сайтов ,созданных для массового посещения ,реально посещаемы очень немногие.
 Например ,неудачным кажется интерфейс mail.И он явно проигрывает Яндексу. Хотя изначально имел (и имеет) много хороших и полезных сервисов.

АrefievPV

Шантаж не прошел. На фоне бунта Голливуда против ИИ гигант киноиндустрии ищет нейросетевого специалиста на огромную зарплату
https://www.cnews.ru/news/top/2023-07-26_plan_akterov_i_stsenaristov
Netflix открыл несколько связанных с ИИ вакансий, по одной из которых он готов платить до $900 тыс. в год. Стриминговый сервис снимает свои фильмы и сериалы, но сейчас в США идет забастовка сценаристов и актеров из-за использования ИИ в киноиндустрии. Netflix, видимо, не намерен ждать ее окончания.
ЦитироватьИИ вместо людей

Стриминговый сервис Netflix, сбежавший из России весной 2022 г., открыл вакансию специалиста по искусственному интеллекту. Как пишет Engadget, тому, кто получит эту должность, Netflix будет платить от $300 тыс до $900 тыс. в год. С чем связан такой разброс, в описании к вакансии не указано.

Как известно, на Netflix можно смотреть фильмы и сериалы, в том числе и снятые по заказу самого Netflix. Ранее в 2023 г. в Голливуде началась забастовка сценаристов – они требуют резко ограничить использование искусственного интеллекта при производстве контента, в том числе для написания сценариев. Как показала практика, нейросети способны сочинить не только сценарий для очередного сериала, но даже написать дипломную работу студенту одного из крупнейших вузов страны.

Немного позже к сценаристам в США присоединились и актеры – они тоже не хотят, чтобы искусственный интеллект лишал их работы. Это первый случай с 1960 г., когда обе гильдии бастуют одновременно. Ну а Netflix решил открыть связанную с ИИ вакансию именно сейчас.

Хотели как лучше

Забастовка актеров и сценаристов напрямую влияет на бизнес Netflix, а также других стриминговых сервисов, снимающих свой контент, и многочисленных киностудий. В описании к вакансии Netflix указано, что искусственный интеллект, специалист по которому так нужен сервису, будет использоваться для «создания отличного контента» (to create great content).

Фактически, Netflix даже не скрывает, что собирается использовать нейросети далеко не только в качестве алгоритмов составления рекомендаций для новых фильмов и сериалов. С учетом размеров годовой зарплаты сервис готов платить специалисту по ИИ вплоть до $3,5 тыс. в день или 315,3 тыс. руб. по курсу ЦБ на 26 июля 2023 г. В то же время многие не самые успешные актеры в США зарабатывают в пределах $200 в день (18 тыс. руб.).

В описании к вакансии Netflix пишет, что у него далекоидущие планы по интеграции искусственного интеллекта «во все сферы бизнеса» (all areas of the business). Нейросети упоминаются и в других разделах сайта сервиса. Например, на нем можно найти упоминание о том, что Netflix применяет ИИ «для оптимизации производства оригинальных фильмов и телешоу» (to optimize the production of original movies and TV shows).

План провалился

С учетом вышесказанного, можно предположить, что желание Netflix еще активнее использовать искусственный интеллект продиктовано его стремлением сохранить бизнес по производству фильмов и сериалов, который сейчас под ударом из-за забастовок актеров и сценаристов. Таким образом, бастующие добились вовсе не того, чего хотели – из-за них крупные игроки отрасли начинают все чаще задумываться о замене людей алгоритмами.

Что самое важное, Netflix открыл сразу несколько вакансий, в той или иной степени связанной с нейросетями – сервису прямо сейчас требуется технический директор по генеративному искусственному интеллекту в свою растущую игровую студию. Этому управленцу Netflix готов платить до $650 тыс. в год, сообщает The Intercept.

Усилия Netflix по внедрению искусственного интеллекта в свой бизнес уже стали приносить свои плоды. Например, пользователям сервиса доступно к просмотру испанское реалити-шоу Deep Fake Love, лица участников которого сканируются для создания «дипфейков», сгенерированных ИИ. Помимо этого, собственная игровая студия Netflix использует генеративный ИИ для составления диалогов и сюжета в видеоиграх.

Не актерами и сценаристами едиными

Искусственный интеллект может оставить (и уже оставляет) без работы не только актеров и сценаристов Голливуда. Существуют компании, уволившие большую часть своего штата и заменившие их на алгоритмы, после чего их бизнес пошел в гору. Такой пример подала компания Duukan, работающая в сфере технической поддержки. Основатель компании распустил 90% персонала колл-центра, и теперь с клиентами общается нейросеть. Как результат – клиенты тратят намного меньше времени на решение задачи, а первый ответ на свой запрос они получают и вовсе мгновенно.

ИИ также может взять на себя функции административного персонала – такого мнения придерживаются руководители IBM. В течение ближайших пяти лет компания уволит несколько тысяч клерков, работу которых будут выполнять алгоритмы. Но еще меньше повезло программистам – ИИ пишет код вместо них уже сейчас, вследствие чего тысячи из них лишились или скоро лишатся работы, включая легендарных индийских программистов.

ключ


АrefievPV

Цитата: ключ от июля 26, 2023, 21:20:08
Цитата: АrefievPV от июля 26, 2023, 18:44:06нейросетевого специалиста
Кто решает ,он ли это ?
Наверное, решает руководство компании. Разумеется, после консультации со специалистами (своими или сторонними) и/или ориентируясь на определённые критерии (которые, опять-таки, разработаны специалистами).

Шаройко Лилия

#911
Цитата: ключ от июля 26, 2023, 00:33:12Это основное ,пожалуй.
Кто пытается осмысливать информационную страницу-мало отличается от читателя книги.
Но таких 1 %

Зевак (которых 99%)  направляет интерфейс.  Куда ?
Во первых-сам интерфейс массовых страниц входа ,вероятно ,очень хорошо продуман и просчитан.
Не буду выдумывать того ,чего не знаю.
Знаю ,что у рисовальщиков вывесок есть понятие "Перегрузка текстом".
Когда аккуратно и правильно перечислены предлагаемые опции ,а прохожие вывеску просто "не видят". Глаз сходу сложный набор не хватает ,надо включать мозг. А глаз мозгу команду включиться не даёт ,а ищет более симпатичную для себя вывеску. Более симпатичную-вовсе не более информативную.

  Как сделаны главные страницы массовых сайтов ?
Всего лишь несколько новостных строчек и иконок-ссылок.
И много кнопок возврата на Главную.

И Тд. Основное к у каждого разное(у меня совсем другое в этом тексте было основным), но можно, в принципе и в этом направлении проплыть по течению немного.

Перегрузка текстом и принцип пресловутой бритвы Оккама для рекламы и любого намеренного воздействия на мозг вообще и правила для создания сайтов в частности конечно есть.
По сайтам когда я их лет 10 делала примерно с 2005 по 2015 год, под конец уже параллельно с другими все увеличивающимися делами, то есть все меньше и реже и начала выпадать из знаний мейнстримов этой области.

Последнее время слежу за этим от случая к случаю поэтому тоже себя экспертом никак назвать не могу. Но существовали нормы в учебниках сайтостроения по которым они и сделаны у больших компаний- принцип шести блоков. Это совпадает с лекциями Дубынина где он указывает среднестатическую норму фиксации луча внимания как один луч активный и примерно 6 периферийных.

В проблемах щитовидки, которые я привела, в основном страдает периферическая память, то есть забывается то, на чем активно не фиксируется внимание - и что повторяется многократно, типа куда положил последний раз телефон. Так как было множество событий этого же типа, они при записи накладываются как перезапись, и вот с этим проблемы.

Консолидацией памяти в основном занимается гиппокамп, а ассоциативными связями - ассоциативная теменная кора. Таким образом (с моей точки зрения, не уверена абсолютно, зуб не дам) в сети человек часто вообще в основном ничего в свою ЦНС не записывает, формирует абстракт на лету и вот его уже пишет и то не всегда.

Таким образом промыть ему мозги все сложнее. Особенно если действовать сбоку, контекстными способами впаривая мысли. То что работало 10 лет назад как методика, сейчас все хуже встраивается в интерфейс. Думаю это и есть ответ социума как популяции.

То, что я писала про прямой сенсорный поток - обычный мир за пределами сети - это сенсорные обработки которые формировались миллионы лет, некоторые потоки клеточных реакций - больше миллиарда.

Обработка текстовых абстрактов в звуке (речь) -  моложе, печатный текст как следующий уровень абстракта - еще моложе. И эти механизмы находятся в стадии формирования. С одной стороны они могут проще меняться(например переделать сетчатку глаза и работу первичной, вторичной и третичной зрительной коры мягко говоря сложно.
Но восприятие текстовых сообщений все еще формируется и думаю оно как раз сейчас обрастает всяческими механизмами защиты. Поэтому все в основном налегают сейчас на видео - там прямая связь человек-человек. Но кино тоже условный жанр там абстракт на абстракте, вот герой бежит и тут же он уже через год, женат, на другой работе. Это в простом незатейливом классическом кинематографе. Еще глючнее процесс восприятия во всяческих оригинальных авторских диковатых формах киноискусства с метафорами и смысловыми галлюцинациями.

Что касается дипфейков - это не так далеко ушло от мультфильмов как может показаться и фильтров наложеных на видео в простых бесплатных программках их уже полно, я с такой записывала свой видос, который размещала на форуме - полная ведьма получилась, глаза черные, зубы тоже, лицо зеленоватых оттенков и все вокруг за спиной смещено в этом направлении оттенка.
Там простая прога в данном случае было смещение оттенков зеленого и красного.
В VSDC Free Video Editor таких фильтров самому можно сделать немыслимое количество, в одной из нескольких десятков панельке под название "базовые эффекты", там смещение цветовой палитры имеет больше 20  видов и в каждом от минус 100 до плюс 100 процентов или у цветов до 255, там другие единицы измерения, параметры оттенков.
Я обрывки кино про Кострому сейчас склеиваю и с мужем делаем его киношку по фантастике, не знаю вообще закончим ли мы оба эти дела, может надоест и бросим, но кадров уже склеено много и несколько сотен инструментов этой програмки уже освоены почти как в свое время фотошоп до автоматизма и возможностей ч вижу все больше, каждый фильтр (всякие капли, волны, прозрачность, наложение кадров в разных режимах после хромакея и разной степенью прозрачности дают немыслимое количество разных эффектов.
Не знаю кому это кажется уничтожением личности- я пока вижу только расцвет, как будто у тебя в руках настоящая вошебная палочка- это завораживает.
:)
хотя каждый отдельный инструмент это довольно  нудно и просто, волшебство начинается когда ты уверенно знаешь каждый и сочетаешь быстро


Превратить одни черты в другие конечно  сложнее, но не так уж сильно сложнее. В этой же программе есть работа с лицом и в программке под фильтром которой я писала тоже есть увеличение глаз,  вытягивание лица по оси Х и У, дальше в программном коде надо уточнить параметры искажений в определенных направлениях (типа глаза расставлены шире на 2%, нос длиннее на 3%.

Обычно такие фейки не слишком динамические, то есть создается кадр где человек сидит и смотрит прямо в экран не поворачиваясь не особо приближаясь и удаляясь.

Полностью без человека созданный материал видео(дипфейк) - это скорее усовершенствованная технология мультфильма, но пока популярнее живой чел с наклеенным интерфейсом как в Аватаре. Это скорее усовершенствование программы фильтра.
Ну и всяческие фоны, растения  и зверушек кажется там полностью нарисовали. Тоже частично фильтрами возможно, например растения  можно также с фильтрами люминесценции местами наложить местами прорисовать полностью.
Во втором Аватаре Сигурни Уивер играет девочку 14 летнего подростка, так что возможности актеров в таком формате скорее расширяются чем сужаются.


В общем думаю шума больше, чем реальной угрозы замены актеров. Точнее будущее у такого ИИ конечно есть, но оно может быть своим отдельным направлением - как бы отображение психики машины, у этого будут свои поклонники как у мультфильмов, но не все захотят такой абстракт обрабатывать в своем сознании.
Западное искусство больше имеет уклон в фантастическую реальность, полные условности вымышленного мира, игнорирующие взаимосвязи настоящего, в этом есть и плюсы и минусы

Так как я продолжаю ставить эксперименты на людях(на себе) то комп отключаю как и прежде и все больше паузы делаю. Моя задача не бросить его совсем а увидеть как меняется восприятие с ним и без него в разных сочетаниях длительности выключенного состояния.

АrefievPV

#912
ChatGPT «сломал» тест Тьюринга: ученые ищут и не находят новый метод оценки ИИ
https://www.cnews.ru/news/top/2023-07-28_chatgpt_slomal_test_tyuringa
Тест Тьюринга практически официально признан устаревшим. Исследователи искусственного интеллекта обнаружили, что не обладают средствами квалифицированной оценки возможностей искусственного интеллекта. И даже не понимают, что у него внутри.
ЦитироватьНи теста Тьюринга, ни счетчика Гейгера

В авторитетном издании Nature вышла статья, посвященная искусственному интеллекту и средствам его оценки. В заголовке утверждается, что ChatGPT «сломал» тест Тьюринга, хотя он и был лишь неофициальным инструментом.

Как выяснилось этой весной, языковая модель GPT-4, например, не справляется с логическими головоломками: мыслить абстрактными понятиями она неспособна.

«В общем и целом существуют два лагеря исследователей с противоположными взглядами на то, что происходит "под капотом" массивных лингвистических моделей», — приводит Nature слова Томера Уллмана (Tomer Ullman), исследователя в области познания в Гарвардском университете в Кэмбридже. Одни считают, что впечатляющие способности алгоритмов связаны с зачаточной способностью рассуждать или понимать, с чем те имеют дело. Сам Уллман принадлежит к лагерю, члены которого не склонны очаровываться.

По его мнению, проблема состоит в том, что никаких убедительных свидетельств в поддержку любой из этих точек зрения нет. «Не существует такого счетчика Гейгера, который можно было бы навести на что-либо, услышать "бип-бип-бип" и сказать "да, это действительно разум", — говорит Уллман.

Представители обоих лагерей, впрочем, сходятся на том, что логические головоломки не только показывают разницу между способностями людей и ИИ-системами, а также обозначить «белые пятна» в методах машинного обучения.

«У исследований в этом направлении есть самая что ни на есть практическая сторона: если ИИ предстоит применять в сферах, напрямую касающихся жизней людей, то прежде необходимо понять, где лежит предел их возможностям», — считает Мелани Митчелл (Melanie Mitchell), профессор информатики в институте Санта Фе в Нью-Мехико. Именно ей и ее соратникам пришла в голову мысль разработать логические загадки, которыми тестируют крупные языковые модели.

«Нам необходимо понять, что на самом деле они могут, и чего нет, и только тогда мы сможем использовать в безопасной манере», — говорит Митчелл.

На сегодняшний день такого понимания нет.

Тест Тьюринга и премия Лёбнера: и то и другое — в прошлом

Что касается теста Тьюринга, то он сравнительно субъективен. Принцип его действия сводится к тому, что человек ведет диалог с машиной, а судьи, которые не видят ни того, ни другого, пытаются понять, чьи реплики человеческие, а чьи сгенерированы машиной. Если все реплики выглядят так, будто говорит человек, тест Тьюринга считается пройденным.

Официально этому тесту GPT-4 не подвергали, в том смысле, что на премию Лёбнера эта система не выдвигалась. И уже не будет, поскольку основатель и спонсор этих мероприятий, бизнесмен и филантроп Хью Лёбнер (Hugh Loebner) умер в 2013 г.

С другой стороны, израильская компания AI21 Labs создала онлайн-игру на базе теста Тьюринга, к которой в итоге подключились в общей сложности 1,5 человек. Каждому игроку предлагалось в течение 2 минут беседовать либо с человеком, либо с чат-ботом на основе массивной языковой модели и дальше определить, с кем именно он имел дело.

Пользователи правильно определяли ботов лишь в 60% случаев, что не сильно отличается от случайного везения.

Эксперты считает, что люди, знающие, как работают масштабные языковые модели (LLM), легко определят собеседника по хорошо известным им слабым местам.

Например, если предоставить LLM-системе сценарий, являющийся вариацией на тему тех сценариев, которые входили в обучающий массив данных, машина, скорее всего, начнет давать ответы теми же словами, которыми бы отвечала на вопросы в оригинальных тренировочных сценариях, вместо того, чтобы дать правильный ответ в новом сценарии.

В целом, тесты, связанные с созданием ложного впечатления человекоподобия, среди экспертов по ИИ считаются сомнительными и нерепрезентативными. Если опираться на них, то разработчики будут скорее учить ИИ отдельным трюкам, а не полезным и интересным навыкам.

Бенчмарки и экзамены для людей

Сегодня для тестирования ИИ нередко применяются различные бенчмарки, которые определяют возможности ИИ в конкретных областях, таких как языкознание, математика и умение оставаться в рамках здравого смысла. Плюс все чаще используются экзамены, созданные для людей.

Например, GPT-4 прогнали по бенчмаркам на понимание текста, математику и программирование, а затем через 30 экзаменов для людей. С бенчмарками система управилась без труда, да и с экзаменами показала результаты, примерно равные тем, которых добивались 10% лучших студентов.

Проблема в том, что сами по себе эти бенчмарки имеют свои ограничения, и успешное их прохождение не гарантирует, что машина действительно способна превзойти человека в тестируемых областях.

Модели обучаются на таких больших объемах текста, что вполне могут встречать похожие вопросы и находить готовые ответы, а не формулировать их самостоятельно.

Это «загрязнение» — одна из распространенных проблем, с которой разработчики LLM пытаются бороться. OpenAI утверждает, что ее разработчики прицельно искали в тренировочных массивах данных комбинации из слов, похожие на те, которые встречаются в бенчмарках, и что и до, и после их удаления и переобучения машины результаты оказались примерно равными.

Тем не менее, некоторые ученые сомневаются, что такой тест адекватно отражает реальную ситуацию.

Что касается экзаменов, то, как рассказала Митчелл, ChatGPT успешно сдал магистерский экзамен по администрированию бизнеса для студентов, но стоило ей слегка переформулировать один из вопросов, и чат-бот не смог на него ответить правильно. Для человека это не было бы проблемой в принципе.

Суть в том, что машины и люди оперируют данными совершенно по-разному. Экзамены, предназначенные для людей, позволяют с высокой степенью надежности определить общий уровень интеллекта. Это размытое понятие, но оно описывает способность компетентно решать разные задачи и адаптироваться к различным условиям и контекстам. Иными словами, тот, кто получил высокие оценки на экзаменах (проведенных чисто, непредвзято и без попыток подменить результаты в чьих-либо интересах), справятся с другими когнитивными тестами и легко оперируют абстрактными понятиями.

Слово есть, да нету смысла

Для LLM это совершенно не так: экстраполяция человеческих экзаменов на машины иногда оказывается бесполезной. LLM обучаются исключительно на языковых конструкциях. У них нет возможности через личный опыт осознать связь языка и различных физических объектов, их свойств и ощущений, которые они могут вызывать у человека. По мнению Брендена Лейка (Brenden Lake), исследователя когнитивных вычислений в Университете Нью-Йорка, это доказывает, что можно свободно оперировать языком, но не обладать подлинным пониманием значений слов.

Однако в отношении LLM, в том числе над GPT-4, производились и более широкие эксперименты. В марте 2023 г. Себастьен Бабек (Sebastien Bubeck), сотрудник Microsoft Research, и его коллеги опубликовали препринт под названием «Искры общего искусственного интеллекта: ранние эксперименты с GPT-4».

Им удалось задокументировать целый ряд неожиданных способностей, проявленных ранней версией GPT-4, многие из которых не были напрямую связаны с языком (или, по крайней мере, связь была неочевидной). В частности, GPT-4 смог пройти тест, который психологи используют для оценки модели психики человека. Грубо говоря, это проверка на способность воспринимать как свои собственные переживания, так и переживания других людей, что позволяет объяснять и прогнозировать их поведение.

«Исходя из широты и глубины возможностей GPT-4, мы считаем, что есть основания рассматривать его как раннюю (и неполную) версию общего искусственного интеллекта», — заявили исследователи.

В разговоре с журналистами Nature Бабек отметил, что GPT-4 в любом случае не мыслит, как человек, и все его способности приобретены способом, свойственным только ему.

Публикация вызвала много шума и скепсиса. В этом исследовании LLM и ее возможности не изучались системно, говорит Мелани Митчелл. В свою очередь Томер Уллман заявил, что для того, чтобы убедиться в наличии модели психики, нужно увидеть когнитивный процесс, который напоминал бы человеческую модель психики. То, что машина дала те же ответы, что и человек, ничего, в сущности, не значит.

Логические головоломки, сломавшие ИИ

Чтобы понять возможности и слабые места LLM, необходимы более обширные и, главное, точные средства оценки. Цветные логические головоломки могут стать одним из таких средств.

Эти головоломки определяют ключевую особенность человеческого разума — способность к абстрактному мышлению и экстраполяции их на новые проблемы.

В 2019 г. Франсуа Шолле (Francois Chollet), разработчик в Google, задолго до появления LLM, предложил новый метод тестирования ИИ-систем на логику: «Корпус абстрагирования и рассуждения» (ARC).

Тем, кто проходил этот тест, предлагалось несколько визуальных демонстраций, где один паттерн на матрице из квадратов по определенным правилам преобразовывался в другой, и предлагалось определить, как будет выглядеть следующая трансформация.

В 2020 г. Шолле организовал соревнование между ботами (не включавшее LLM), которое выиграла ИИ-система, натасканная специально на решение ARC-подобных задач, но лишенная, в отличие от LLM, каких-либо способностей общего характера. И то, ей удалось правильно решить только 21% задач. Люди в среднем управлялись с 80% таких головоломок.

Впоследствии несколько исследовательских команд применяли ARC, чтобы определить потенциал ИИ-систем. Ни одна из них не справлялась с этими головоломками на уровне, хотя бы отдаленно напоминающем уровень людей.

Митчелл и ее коллеги разработали свой метод, т. н. ConceptARC: основанный на ARC, он проще (чтобы можно было точнее определить, есть ли у LLM хотя бы рудиментарная способность к абстрактному мышлению) и отличается узкой направленностью на определенные понятия. Для каждого понятия создан свой набор головоломок, являющихся вариациями на одну и ту же тему: одинаковость/подобие, расположение в пространстве и т. д.

Смысл теста — помешать машине пройти его без осознания базовой концепции.

Люди без труда решили эти головоломки — процент успеха составил 91-97. GPT-4 давал правильные ответы лишь в трети случаев.

Тем не менее, Митчелл отметила, что GPT-4 все-таки справлялся с определенными задачами, хотя никогда не сталкивался с ними.

Боты из вышеупомянутого соревнования Шолле, настроенные на решение задач ARC, справились с тестами Митчелл лучше, чем GPT-4, но все равно намного хуже людей: в одной категории им удалось набрать до 77%, в остальных — меньше 60%.

Другое дело, что, как отмечают исследователи, языковые модели в принципе оперируют только словами и числами. И даже если присвоить каждому пикселю изображения номерное обозначение цвета, соревнование с людьми с их развитым зрением — не лучший способ сопоставлять возможности.

В OpenAI разрабатывают мультимодальный вариант GPT-4, который способен принимать изображения в качестве входных данных. Когда эта версия станет общедоступной, Митчелл планирует протестировать ConceptARC на ней. Однако она уже сомневается в том, что результаты будут намного лучшими.

Проблема: как оценить разум

К настоящему времени, как утверждают некоторые эксперты, у LLM время от времени проявляются отдельные признаки абстрактного мышления. Ключевой проблемой, однако, остается адекватная оценка способности машин к абстрактному мышлению и другим проявлениям интеллекта.

Специалист по когнитивным наукам Стэнфордского университета в Пало Альто Майкл Фрэнк (Michael Frank) указывает, что единого теста, нового теста Тьюринга, который бы сразу позволял определить разумность машины, нет и, скорее всего, не будет. «Не существует Рубикона, какой-то одной линии», — говорит он. Каждую такую систему придется тщательно тестировать на наличие сильных и слабых мест самыми разнообразными способами.

«Парадокс в том, что создав ИИ даже в такой зачаточной форме как массивные лингвистические системы, человечество уже не может в полной мере понять, как это функционирует, и что там "под капотом", вернее, в "черном ящике", — говорит Дмитрий Гвоздев, генеральный директор компании "Информационные технологии будущего". — Между тем, ИИ-системы уже повсеместно внедряют, и похоже речь всерьез идет о том, чтобы доверить человеческие жизни системам, для которых не существует полноценных средств аудита и мониторинга. Разработка таких средств — задача первостепенной важности. Пока что и исследователи, и те, кто занимается коммерциализацией и внедрением ИИ, пытаются опередить друг друга без адекватной оценки рисков, а это в какой-то момент может привести к трагическим последствия. Средства контроля ИИ должны стать такой же обыденностью, как правила дорожного движения или стандарты качестве продукции».

Эксперты также призывают не пытаться присваивать искусственному интеллекту человеческие свойства.

«Мы склонны очеловечивать все, что, как нам кажется, демонстрирует зачатки разумности, — говорит Роб Уортэм (Rob Wartham), сопредседатель Британского общества изучения искусственного интеллекта и поведенческой симуляции, который с 2014 по 2019 гг. проводил соревнования на премию Лёбнера. — Это, вообще говоря, проклятье, потому что мы себе не можем представить чего-либо, демонстрирующего поведение, ориентированное на достижение целей, иначе как принимая человека за образец. И нам кажется, что это нечто совершает те или иные действия, потому что на самом деле оно думает так же как мы».

P.S. Опять идёт смешение понятий интеллект и разум. Задаются вопросом, как оценить разум, а все рассуждения крутятся об оценке интеллекта (абстрактное мышление и пр.).

И небольшой комментарий к последнему абзацу (по поводу разума, интеллекта, сознания).

У нас есть навязанная общепринятыми парадигмами ассоциация между сутью и реализацией этой сути. Причём, ассоциация настолько прочная, что она буквально приравнивает одно другому.

Большинство даже не задумывается о сути сознания, интеллекта, разума – просто сразу автоматически начинают рассуждать о реализации этой сути.

Неискушённое большинство обывателей, нераздумывая приравнивают человеческий мозг человеческому разуму, интеллекту, сознанию. Некоторые, правда, пытаются «поместить» разум, интеллект, сознание в какие-то структуры мозга, а не тупо приравнять наличие одного наличию другого.

Более искушённые обыватели и существенная часть специалистов и учёных «помещает» разум, интеллект, сознание в процессы (и в состояния, как совокупности процессов, идущих в момент фиксации данного состояния), происходящие в мозге.

Тяга людей жёстко и однозначно «привязать», «прикрепить» суть к чему-то материальному (и лучше к вещественному, нежели к полевому) просто непобедима. Для них непонятно (а для вульгарных материалистов просто неприемлемо даже), что «привязывать/прикреплять» к материальному допустимо только реализацию сути, а не саму суть. Ну, а реализация сути всегда материальна по определению.

Кроме того, почти все приравнивают человеческий разум к разуму вообще. Типа, разум, интеллект, сознание могут быть только человеческие и только у человека. Вот только непонятно, зачем тогда искать разум, интеллект, сознание у особей других видов животных (или пытаться создать эти вещи искусственно), если эти вещие априори есть только у человека?

Сама суть очень проста, а вот реализация очень разнообразна и зачастую очень сложна (иногда весьма изощрённа и запутана из-за «изгибов» конкретного эволюционного пути).

Например, вот здесь суть понятий (жизнь, живая система, интеллект, разум):
Цитата: АrefievPV от сентября 06, 2021, 18:21:40Привожу комплект определений (их следует рассматривать во взаимосвязи друг с другом):

Жизнь – это живая система (совокупность систем) и её среда обитания.
Живая система – это система, проявляющая в активной фазе своего существования: стремление к самосохранению и способность реализовать это стремление.
Интеллект системы – это вычислительный функционал (практически в физико-математическом смысле слова) системы.
Разум системы – это способность системы реализовать стремление к самосохранению средствами интеллекта.

Однако реализация сути может быть очень разной в зависимости от конструкции систем, условий существования этих систем, текущего состояния систем и т.д. и т.п. (а народ зациклился только лишь на реализации, упустив из виду самое существенное – суть).

На всякий случай добавлю:
Цитата: АrefievPV от июня 13, 2023, 17:13:35Теперь сведу определения в единый комплект (все определения следует рассматривать комплексно, во взаимосвязи друг с другом).

Суть гомеостаза системы – это постоянство внутренней динамики системы (динамическое равновесие).
Суть механизма поддержания гомеостаза системы – это реализация гомеостаза системы.
Суть реализации гомеостаза – это замкнутая на самое себя совокупность процессов, «закольцованная» внутри системы (и благодаря этому постоянно воспроизводящаяся).
Суть стремления – это направленный потенциал (не само направленное действие/движение, а только направленный потенциал этого движения/действия).
Суть потенциала – это напряжение/давление/нарушение в структуре, возникающее как ответная реакция на воздействие, и которая направлена против воздействия.
Суть стремления системы к самосохранению – это потенциал, возникший в механизме поддержания гомеостаза системы, и который направлен на восстановление механизма поддержания гомеостаза.

И, опять-таки, все эти вещи (гомеостаз, потенциал, стремление и пр.) тоже могут быть реализованы по-разному, но суть останется прежней.

ключ

#913
Цитата: АrefievPV от июля 28, 2023, 17:37:27Неискушённое большинство обывателей, нераздумывая приравнивают человеческий мозг человеческому разуму, интеллекту, сознанию. Некоторые, правда, пытаются «поместить» разум, интеллект, сознание в какие-то структуры мозга, а не тупо приравнять наличие одного наличию другого.

Разобравшись с определениями...
Не подобна ли ситуация сюжету Терминатора ,где проблемы настоящего пытались решить через  не само прошлое ,а среду прошлого  ?  При чем точечным воздействием.

Не определено понятие задачи.
В природе нет нерешенных задач.Они только в сознании человека (или кого то ещё) и не выходят за пределы его способности понимания.
ИИ может обучаться как в этих пределах ,так и далеко за ними. Область не определена и не имеет запретных линий. Робот не может знать ,до чего люди додумались ,до чего-нет.
Но обратная связь на этом рвётся по вине человека..
ИИ по сути становится стихией.
Предположение ,что Ветер или Гора знают много такого ,что нам не ведомо ,выдвинуто давно.
Но только очень сильный колдун может говорить с Ветром.
Да и то только на темы ,понятные колдуну. Что и есть его слабое место.

Оценить действия ИИ за пределами понимания невозможно. И даже определить-есть ли они ?
В этом случае получается та же неуправляемая машина. Переход под управление высшего порядка человеком воспринимается как неуправляемость и никак иначе.
Теряется возможность постановки задачи и оценки ответа.
Собственно-неуправляемый (человеком)  самосвал на самом деле очень даже неплохо управляется законами физики,но мы этого как то не ценим.

Занос каких то знаний из недоступной человеку области что вызовет ?
(Вернее-не сам занос ,а попытка их применить) .

ключ

#914
Трудно формулируется задача выживания.
Человек не отрицает смерти ,не боится её и не борется с ней.
Борется он только с факторами ,которые считает или ощущает опасными.

И любые другие задачи-не проще.
Человек не стремится к оптимизации ,успехи в конкурентной борьбе чаще смещают ситуацию в сторону экстрима.
Пока эксперименты с ИИ идут на уровне примеров ,этюдов и лабораторных работ. В основном основано на статистическом анализе поведения и восприятия контрольной группы людей.
Без выделения ИИ в самодостаточную  единицу.
Люди тоже не наивны и не беззащитны. Можно считать человека  безусловно агрессивным с вероятностью проявления  ___  %.
Безусловно ли агрессивен ИР ?
Просто серьёзных случаев противодействия человека роботу пока не отмечалось.(именно роботу ,а не другому человеку ,вооруженному роботом)
Попыток постановки задач с динамическими условиями в реальном времени вроде бы пока не было. Возможно ли ?

На счет роботов-художников. Имеющий хорошую способность изучения и оценки восприятия людей. Он не умеет рисовать ,зато умеет угождать.
Художник-человек примерно то же. Излишне самобытному трудно найти людей со сходным восприятием.

Робот-художник  вполне может оказаться  роботом-кумиром или роботом-наркотиком.
Мы не знаем ни какую мощность может иметь поток положительных эмоций ,ни какой эффект может произвести.