Доступно ли компьютерам творчество?

Автор ArefievPV, мая 01, 2017, 08:52:53

« назад - далее »

ключ

Кстати-о подобной ситуации ещё Гомер упоминал.
Там какие то Сирены то ли пели ,то ли включал кто то. Как именно они пели-неизвестно ,как и их природа.Но факт есть факт ,нет оснований не доверять Гомеру.

Дарвинист

Уважаемый ключ, творчество отдаленно похоже на мутацию?

ключ

#917
Цитата: Дарвинист от июля 29, 2023, 19:36:04творчество отдаленно похоже на мутацию?

Скорее-мутагенно.

Дарвинист

Следующий вопрос, который, пусть непрямо, но оказывается связанным с предыдущим: Почеме возможно существование таких дисциплин, как палеонтология, палеоботаника, палеоэкология и др.? 

Дарвинист

В то время, как с представлениями о будущем есть проблемы...

ключ

#920
Цитата: Дарвинист от июля 30, 2023, 08:28:13и др.?

Хоть они и существуют-очень трудно их поймать.
Поскольку они-скорее области истории ,биологии ,геологии и многого прочего. Базовые при чем , питающие.

Науки о развитии влияния техногенного фактора как таковой на сегодня нет.
Мы не знаем ,что произошло в мозгу того ,кто придумал иголку или колесо. И произошло ли вообще.
Как обезьяна изменяла среду мы в целом представляем. О том ,как измененная среда влияла на обезьяну - скорее всего "в целом" говорить нельзя. Там может быть много моментов ,которые не совсем части одного целого.

Дарвинист

Ох, уважаемый ключ, я не то имел в виду. Все проще, по моему мнению, на самом деле. Я обратился к Вам, помня о том, что Вы, как писали ранее сами, ближе к практике многих из нас - в расчете на то, что это поможет.

Не сердитесь, пожалуйста. Попробую зайти с другой стороны, только в другой теме, коли с ходу не вышло перейти к компам... Я обращусь к Вам в своей теме по физике и эволюции...

С уважением,
Дарвинист.

Дарвинист

Цитата: Дарвинист от августа 01, 2023, 19:22:05Можно сказать в двух словах, что все дело в масштабировании...

Уважаемый ключ, понимаете, теперь, что я имел в виду, когда писал о возможности существования таких наук, как палеонтология и палеоэкология, например - при том, что, речь, при этом, может идти и о масштабе явления?

ключ

Цитата: Дарвинист от августа 01, 2023, 19:28:58- при том, что, речь, при этом, может идти и о масштабе явления?

То ,что что то к чему то может быть применимо теоретически ,но невозможно или ничтожно на практике-бесспорно.
О каком масштабировании идёт речь в применении ИИ технологий-честно говоря-не улавливаю.

АrefievPV

К сообщениям (там видео с участием Сергея Маркова):
 
https://paleoforum.ru/index.php/topic,8383.msg200671.html#msg200671
https://paleoforum.ru/index.php/topic,10046.msg267047.html#msg267047
 
Так понял, что многие люди не осиливают просмотр длинного видео (кроме того, есть некоторые трудности с произвольным доступом – информация идёт последовательно), а текстом подобные видео редко дублируются. Хотя, если есть текст, то и цитату легко «выдернуть и разобрать по косточкам» (мои комментарии не в счёт, их обычно не читают). Да и воспринимается текст в некоторых случаях гораздо лучше, чем видео.

Этика, безопасность, возможности машинных нейросетей.


А вот к этому видео текст имеется. :)
 
Искусство интеллекта
https://elementy.ru/nauchno-populyarnaya_biblioteka/436836/Iskusstvo_intellekta
Интервью Ксении Королёвой с Сергеем Марковым
 
Сергей Марков, специалист в области искусственного интеллекта, начальник Управления экспериментальных систем машинного обучения Департамента общих сервисов «Салют» Сбера, основатель научно-популярного портала XX2 ВЕК, отвечает на вопросы Ксении Королёвой о нейросетях. Видеозапись беседы см. на YouTube.
 
Цитировать— В чем, на ваш взгляд, заключается различие между интеллектом искусственным и естественным?
 
— Прежде всего — определений интеллекта у нас слишком много. Единственный бесспорный пример интеллекта — человеческий. Конечно, если вы не солипсист, вы предполагаете наличие интеллекта у других людей. Собираясь дать определение интеллекту, мы оказываемся в неприятном положении: по одному-единственному примеру надо построить некоторое множество. Через одну точку можно провести бесконечное количество прямых; точно так же дело обстоит и с определением интеллекта. Оно может быть узким — охватывая только человеческий интеллект и никакой больше, — а если попробовать его расширить, то придется признать наличие интеллекта у некоторых животных. Только у высших приматов или у приматов вообще? Или же у всех зверей без исключения? Неизбежно какие-то из этих определений интеллекта будут включать в себя некие искусственные системы — и уже сделанные нами, и те, которые мы надеемся создать в будущем.
 
Впервые словосочетание искусственный интеллект прозвучало из уст Джона Маккарти в 1956 году на семинаре в Дартмутском колледже1. Со времен Дартмутского семинара наука стала понимать под искусственным интеллектом прежде всего направление технологии, занимающееся автоматизацией решения интеллектуальных задач. То есть если мы пытаемся создать систему, способную заменить человека в решении задач, которые он традиционно решает при помощи своего разума (примечание от меня – лучше сказать: «решает при помощи своего интеллекта»), то мы создаем систему искусственного интеллекта. Такие системы вовсе не обязаны быть похожими ни на человека, ни на его разум.
 
Конечно, в науке и технологиях популярен такой подход, как бионика: если решения проблемы нет, то иногда можно «подглядеть» его у природы. Так, создатели первых самолетов наблюдали за птицами и летучими мышами — достаточно вспомнить французского инженера Клемана Адера и его аппараты «Эол» и «Авион». Современные самолеты, безусловно, далеко ушли от своих биологических прототипов и крыльями не машут. Теперешние системы искусственного интеллекта тоже если и напоминают человеческий мозг, то отдаленно. Искусственный интеллект — огромное направление, где есть место как системам, вдохновленным природой, так и весьма отдаленным от нее.
 
Пора упомянуть, что обыватели, говоря об искусственном интеллекте, часто имеют в виду общий (универсальный) AI — то, что в науке именуется artificial general intelligence. Это гипотетическая система, которая будет способна решать неопределенно широкий круг интеллектуальных задач. На такое же способен и человеческий разум (примечание от меня: на это способен наш естественный интеллект, а наш разум – это немного иное).
 
Мы постепенно движемся к тому, чтобы научиться создавать подобные системы. В начале 2010-х годов почти что каждая система ИИ была узкоспециализированной, предназначенной для решения лишь одной задачи. Шахматная программа не сыграет с вами в покер и откажется распознать котиков на картинке. Как ни странно, она даже не сможет сыграть партию на доске 9×9. Но благодаря своей узкой специализации шахматный движок способен состязаться с такой сложной системой, как человеческий мозг.
 
Теперь обратимся к системам, появившимся после 2017 года и основанным, в частности, на больших трансформерных моделях. Тут заметно движение в сторону универсализации. ChatGPT может решать много разных задач — не обязательно тех, на которые его натаскивали. Специалисты предполагают, что дальнейшее развитие и масштабирование этих моделей рано или поздно приведет к появлению долгожданного общего искусственного интеллекта.
— На ваш взгляд, умение делать выбор — ключевой признак искусственного интеллекта?
 
— Нет: ведь выбор в каком-то смысле может сделать даже подброшенная монетка. Вообще, довольно непросто ввести какие-то простые критерии, отделяющие искусственный интеллект от естественного. Тут в дело вмешивается полемика на тему творчества. Многие люди, говоря о наличии творческих способностей, ставят во главу угла умение создавать что-то новое. Но это не так-то и сложно. Бросьте игральные кубики много раз — они почти гарантированно создадут вам совершенно новую последовательность чисел, которая раньше ни у кого не выпадала.

В XVIII веке была популярна музыкальная игра в кости2 (одну из ее вариаций приписывают Моцарту): отобрать несколько коротких музыкальных фрагментов, пронумеровать их и бросать кости, определяя новую последовательность отрывков и получая новую, доселе не встречавшуюся, композицию. Такое же можно проделывать и с нотами, и с буквами...
 
Случайный выбор — дело нехитрое; создать что-то новое при помощи технологических решений ничуть не сложно. Другое дело, насколько это новое будет соответствовать критериям, предъявляемым нами творчеству: мы вряд ли признаем случайную последовательность букв произведением искусства. С интеллектом то же самое: просто что-то выбрать — элементарно, а вот сделать выбор, соответствующий заданным критериям или целям, куда сложнее.
 
Для оценивания человеческого интеллекта мы придумываем некие наборы тестов, например, тест Айзенка на коэффициент интеллекта. Мы даем человеку задачи и считаем процент правильных ответов. Такой критерий оценки не лишен дефектов: откуда берется набор задач для теста, почему одни вопросы включаются, а другие нет? Так, в тесте Айзенка встречаются проблемы, схожие с теми, что обычно решают «белые воротнички» в современном урбанистическом обществе: операции с абстрактными образами, логикой...
 
Теперь возьмем набор задач из серии «Как обмануть антилопу на охоте» — и наш тест поощрит интеллект охотника-собирателя. Вот так попытки выстроить «интеллекты» на линейке разбиваются о насущные проблемы: не совсем понятно множество интеллектуальных задач, которые предлагаются тому или иному разуму — каким из них отдавать приоритет? Но тем не менее для современных систем ИИ создаются большие наборы тестов, в какой-то степени напоминающие проверку IQ, — да и сам тест коэффициента интеллектуальности находит применение, вдобавок к задачам Михаила Бонгарда.
 
В прошлом году вышла фундаментальная работа — продукт исследования целых двух с лишним сотен научных коллективов — тест BIG-bench, в котором собрано огромное количество интеллектуальных задач3. Они прекрасно подходят для автоматизированной оценки интеллектуальных возможностей генеративных нейросетей. BIG-bench дает довольно хорошее представление о том, на что подобные модели способны и не способны, где догнали и перегнали естественный интеллект, а где всё еще статистически значимо отстают от человеческого разума (примечание от меня: опять приравнивает разум и интеллект). Всё это — скорее композитный подход к тому, что является искусственным интеллектом и определяет его критерии.
 
— Возможно ли сделать искусственный эмоциональный интеллект?
 
— Опять же вопрос в определении: что есть эмоциональный интеллект? Если мы, например, говорим о способности машины опознать эмоциональную окраску тех или иных высказываний человека или его поведения, а затем оперировать полученной информацией, то машины умеют делать это довольно давно. Есть системы, которые распознают проявления человеческих эмоций на фотографиях или видеосъемке лица, по записи голоса или, например, по тексту — машина, способная проводить сентимент-анализ, может отсеять хвалебные комментарии от ругательных. Передавать эмоциональную информацию в тексте, изображениях и голосе компьютеры тоже уже научились. Для всего этого есть стандартизованные наборы данных, на которых производится оценка этих способностей машины.
 
Но эмоциональное состояние человека и проявление эмоций — вещи разные: в душе может быть смятение, а на лице равнодушие. Связь между конкретными физическими явлениями вроде учащения сердцебиения и сокращения мимических мышц и нашим подлинным внутренним состоянием — довольно сложная фундаментальная проблема нейрофизиологии. Как физические процессы в теле соотносятся с психическим миром, миром субъективных ощущений человека? Здесь мы пока что можем говорить только о корреляциях: поэтому часто и звучат термины наподобие коррелятов эмоциональных состояний. Машина имеет дело с внешними проявлениями человеческих чувств и эмоций, но ведь точно так же дело обстоит и с людьми. Они не могут залезть друг другу в голову и поэтому делают выводы об эмоциональных состояниях других людей, основываясь на наблюдениях и, возможно, представлениях о том, что люди могут испытывать в тех или иных ситуациях.
 
Поэтому в целом непреодолимого барьера в плане эмпатии или построения эмоционального диалога с людьми для машины нет. Более того, за последний год было проделано много интересных экспериментов. Например, ChatGPT использовали в качестве медицинского консультанта, а потом попросили пациентов оценить уровень его эмпатии. Те сочли ответы нейросети в среднем более эмпатичными, нежели ответы настоящих врачей. Получается, машины в какой-то степени могут проявлять эмоциональный интеллект — почему нет?
— Что является ограничителем в развитии трансформерных сетей, кроме бутылочного горлышка фон Неймана4?
 
— Хороший вопрос. Я бы сказал, что эта проблема — фронтир для многих исследовательских групп. Можно сказать, что трансформерные сети хорошо масштабируются. С увеличением числа их параметров, вычислительных мощностей и используемых для обучения данных растет и «интеллект» сетей. Здесь мы пока что не видим уменьшающейся отдачи — diminishing returns — сети по-прежнему масштабируются стабильно. Но есть и ограничивающий фактор такого масштабирования — имеющиеся вычислительные мощности и количество данных.
 
Человечество увеличивает свой цифровой след экспоненциально: каждые два года общий объем цифровых данных удваивается. В обучении больших трансформерных моделей используются открытые данные мировой информационной сети.
 
Вычислительные мощности растут примерно пропорционально тенденциям, замеченным еще Гордоном Муром в свое время. (Закон Мура: каждые два года количество элементов на промышленно производимых интегральных схемах удваивается.) Конечно, бывают споры относительно того, насколько мы отклонились от этого тренда.
 
Бутылочное горлышко фон Неймана действительно выступает важным ограничивающим фактором, ведь нынешние тензорные процессоры, используемые для обучения больших трансформерных сетей — по-прежнему фоннеймановские машины, несмотря на свою способность оперировать сразу с целыми многомерными матрицами, а не единичными скалярными величинами. Узкое место — шина, используемая для обмена градиентами между вычислительными узлами суперкомпьютеров.
 
Само собой, здесь работают и ограничения на параллельные вычисления, иллюстрируемые, в частности, законом Густавсона — Барсиса и законом Амдала. Еще Марвин Ли Мински предполагал, что интеллект вычислительных систем будет расти подобно логарифму от количества вычислительных ядер; в некотором смысле это действительно так.
 
Активно ведется работа над альтернативными архитектурами, которые позволят расширить бутылочное горлышко. Загвоздка в том, что для эффективного расширения горлышка нам нужна не просто технология построения нефоннеймановских машин (сейчас уже есть огромное количество разных моделей нейроморфных систем), а технология промышленная, которая позволит производить такого рода системы в товарном объеме. Пока что мы лишь приближаемся к созданию таких альтернативных технологий.
 
Параллельно ведется поиск алгоритмов локальной оптимизации или поиска разреженных алгоритмов оптимизации вообще. Это позволит снизить нагрузку на шины передачи данных. Градиент можно будет не пробрасывать через всю сеть целиком, но задействовать для этого лишь малую, локальную часть сети — объем передаваемых данных уменьшится, и это тоже позволит расширить горлышко фон Неймана. Не случайно ведущие специалисты в области машинного обучения — такие, как Ян Лекун или Джеффри Хинтон, — уделяют локальной оптимизации много времени.
 
Отдельно стоит вопрос с данными: можно ли по цифровому следу человечества построить адекватное представление об окружающем мире? Хватит ли того, с чем машина имеет дело, — с текстами и полученными при помощи сенсоров данными — для того, чтобы, допустим, сделать какие-то исчерпывающие представления о физике окружающего мира или о глобальных закономерностях? Ведь машина подобного рода не взаимодействует с окружающим миром активно, а лишь выступает в роли пассивного наблюдателя за данными, возникающими в результате взаимодействия людей с окружающей действительностью. Единого мнения по этому поводу нет.
 
Одни говорят, что цифрового следа будет достаточно для создания универсального искусственного интеллекта: в конце концов, помимо текста есть еще видеоролики на YouTube и TikTok. Люди не только описывают окружающий мир письменным словом, но и запечатлевают физические явления камерой. Другие полагают, что не бывать универсальному AI без инструментов активного обучения, без агентов в физическом мире, без построения механизмов обратной связи.
 
Сейчас функцию этих механизмов в случае ChatGPT выполняет обучение с подкреплением на основе обратной связи от человека (Reinforcement Learning with Human Feedback, RLHF). Эксперты смотрят на варианты ответа, выдаваемого нейросетью на один и тот же вопрос, и ранжируют их в порядке убывания качества. Однако собрать действительно много человеческих оценок сложно, поэтому выбор пользователей используется не напрямую. Вместо этого собранные ответы становятся материалом для обучения отдельной нейросети — так называемой модели вознаграждения (reward model), и уже ответы этой сети применяются в качестве сигнала обратной связи при дообучении нейросети-генератора.
 
— Мне кажется, острее всего сейчас стоит проблема того, что правду от вымысла отличить сложно — где слова человеческие, а где машинные? Специалист, само собой, может определить компьютерного собеседника, задавая ему вопросы; отличить нарисованную нейросетью кошку от подлинной фотографии. Вот вопрос: как в самой сути AI заложено определение того, что реально, а что — вымысел?
 
Для современных нейросетей правдой чаще всего является то, что чаще встречается в обучающих выборках. Сеть чаще всего получает ответ «четыре» на вопрос, сколько у кошки лап; другие варианты встречаются куда реже, так AI и понимает, как следует отвечать. Но это проблема не специфична лишь для искусственного интеллекта: люди тоже склонны принимать за правду то, что чаще всего озвучивается. Наши представления о правильном и неправильном, истинном и ложном зачастую основаны на той информации, что мы получаем от других людей, от книг и от СМИ. (Хорошей иллюстрацией тому может послужить религия: в каком религиозном окружении вы выросли, такую религию вы, скорее всего, и примете как истинную.)
 
В этом-то и кроется глобальная проблема и для машин, и для людей: как отличить мнение от фактической правды или неправды? Конечно, есть простые истины, которые непосредственно сам человек может проверить экспериментально. Какое-то количество подобных проб и ошибок мы регулярно совершаем в своей жизни, набиваем шишки, накапливая опыт, проверяя правильность представлений об окружающем мире. Но на самом деле у каждого человека лишь одна жизнь и одно тело — всего не перепробуешь, приходится доверяться мнению других людей и информации, ими уже собранной.
 
Машина же возможностью так активно взаимодействовать с миром не обладает (если не рассматривать специальные эксперименты, включающие обучение с подкреплением), зато может взглянуть на мир глазами самых разных людей. Они оставляют свой опыт в текстах, записывают его на видео — с этим компьютер работать может. В некотором смысле телом для машины служит всё создающее цифровой след человечество — с его помощью искусственный интеллект получает опыт и критерии правильности-неправильности. Здесь возникает та же самая проблема, что и у людей, — распространенные заблуждения в отношении некоторых явлений окружающего мира. Какие-то из заблуждений могут тиражироваться, и это неизбежно приведет к тому, что у машины будут ложные представления.
 
Бороться с этим можно путем ресемплинга: размножать более надежные, авторитетные источники в обучающей выборке; привлекать экспертов из разных областей науки, чтобы они составляли более качественные обучающие выборки; заранее узнать о массовых заблуждениях и о том, как их лучше всего опровергать.
 
Вообще, модели, подобные ChatGPT, обучаются в три стадии. Первая — предобучение: машина решает простую задачу в режиме самообучения, например предсказывает следующее слово (точнее, токен) в тексте на основе предыдущих или восстанавливает по контексту удаленные из текста фрагменты.
 
Затем модель дообучается на чистом наборе данных — на инструктивном массиве (SFT-dataset, от supervised fine-tuning — дообучение с учителем). Он включает в себя набор модельных диалогов — вопросы людей и желаемые ответы на них. В английском языке этот этап носит название fine-tuning (в русском же обычно применяют термин «дообучение»). Данные из массива не только настраивают модель на диалоговые режим работы, но и формируют предпочтения модели, в том числе ее своеобразную этику.
 
На третьем этапе обучения — обучения с подкреплением от людей — эксперты общаются с машиной, отмечая хорошие и плохие ответы. Это позволяет машине еще точнее отличать хорошие и нравящиеся людям правильные ответы от ответов «нехороших» и пользователей не устраивающих. Так же, как и при обучении людей, всё зависит от учителей и учебного материала. Модели неизбежно могут обладать той или иной субъективностью, быть носителями разных систем ценностей — всё зависит от того, что подкладывается в обучающие данные модели.
 
— Вот этический вопрос. В соцсетях встречаются разные сообщения по поводу нейросетей: одни говорят о безусловной опасности нейросетей и призывают запретить их, а другие утверждают, что искусственный интеллект поможет человечеству выбрать «правильный путь». Любая технология может представлять опасность — существуют и атомные бомбы, и атомные электростанции. Что вы думаете по поводу опасности нейросетей, как мы можем себя обезопасить? Есть ли конференции или тематические собрания, на которых обсуждают вопросы этики использования нейросетей — могут ли они завести общество не туда?
 
— Тематика рисков, ассоциируемых с искусственным интеллектом, неисчерпаема, как атом. Риски могут быть совершенно разными. Некоторые из них пробуждают интерес общественности, другие же игнорируются. Технологии искусственного интеллекта могут применяться в самых разных целях: тут принципиального отличия ни от других технологий, ни даже от других инструментов, нет. Любая технология, связанная с повышенной опасностью, требует методов управления рисками. Здесь можно провести параллели с инженерными подходами, выработанными по отношению к той же атомной энергетике или к автотранспорту.
 
Понятно, что должны быть разработаны определенные технические регламенты, определенные средства сертификации и оценки. Нужно определить границы регулирования: какие из интеллектуальных систем являются средствами повышенной опасности или ассоциируются с оными? Нужно ли нам регулировать все модели вплоть до тех, что рисуют котиков, или же надо подойти к более точечному регулированию?
 
Любое регулирование сопряжено с затруднениями развития для технологии; чрезмерный контроль может вылиться в замедление или даже в остановку того или иного направления исследований. Есть знаменитая байка о том, что в свое время первые законы в отношении автотранспорта требовали того, чтобы перед автомобилем шел человек с флажком (в действительности так называемые «Законы о локомотивах», или, как их называют, «Законы о красном флаге» требовали этого только в некоторых случаях, однако содержащиеся в них ограничения действительно нанесли серьезный урон развитию автотранспорта).
 
Таких фактически запретительных способов регулирования можно придумать немало. Помимо торможения исследований, это может привести к тому, что новые технологии смогут осваивать лишь крупные корпорации, которые могут пройти через сложные регуляторные барьеры, а индивидуальные исследователи вместе с участниками движения Open Source просто останутся за бортом.
 
Таким образом, у регулирования есть две стороны: с одной стороны, рисками, сопряженными с развитием технологий, можно управлять; а с другой — контроль может нести вред. Сейчас ведутся активные дискуссии по поводу того, какие риски требуется купировать, а какие лучше оставить в покое. Взрыв на атомной станции и сгенерированный котик с тремя глазами — небо и земля. Масштабы рисков нужно понимать. Проблема «горячая»; она волнует не только обывателей, но и профессионалов, которые устраивают специализированные конференции и выпускают тематические научные издания.
 
Множество исследовательских групп фокусируется на этических проблемах. Еще в 2015 году группа под руководством Жана-Франсуа Бонфона выпустила в Science статью, посвященную этике автопилотирования5. Какие принципы мы должны закладывать в автопилоты для аварийных ситуаций? Перед машиной, несущейся на огромной скорости по трассе, выскакивают бабушка с ребенком и столкновения не избежать — что делать машине? Понятно, что всем хочется, чтобы системы искусственного интеллекта разделяли наши этические ценности. Обучать модель принимать решения, которые мы одобряем, — в этом заключается проблема выравнивания (alignment). Здесь мы неизбежно наталкиваемся на то, что среди людей нет единого мнения относительно многих этических задач. В проблеме бабушки и ребенка разные общества примут разные решения.
 
В целом, риски развития искусственного интеллекта можно разделить на экзистенциальные и неэкзистенциальные. При первых возникает глобальная угроза для всего человечества или биосферы, вторые же включают в себя всё остальное.
 
Но неэкзистенциальные риски, на мой взгляд, не менее важны. Сегодня огромное количество алгоритмов стало частью жизни нашего общества. Каждый раз, когда вы подаете заявку в банк на получение кредита или откликаетесь на вакансию, в отношении вас решение зачастую принимает алгоритм. По степени влияния на вашу жизнь это решение может соперничать с вердиктом суда. Но в суде у вас всегда есть право на доступ к собранным против вас доказательствам, на квалифицированную юридическую помощь, на состязательность судебного процесса... Всего этого при взаимодействиями с могущественными алгоритмами у вас нет. Получается аналог тайного суда, который за глаза принимает решение, — тут не узнать, какие факторы принимались в расчет и были ли в процессе дефекты. Эта проблема так и называется — проблема цифрового тайного суда.
 
Если же говорить о проблемах этики, то они связаны с неэкзистенциальными рисками довольно плотно. Одним из фундаментальных исков является тиражирование предрассудков и несправедливости. В обучающие выборки для систем машинного обучения может попасть некое предубеждение, например в отношении каких-то групп людей, и обученная на несбалансированных данных модель будет его множить. Создавая какую-то систему искусственного интеллекта для массового использования, мы рискуем размножить предрассудки, положив начало системному угнетению.
 
Хорошим примером может служить работа Джой Буоламуини в медиалаборатории Массачусетского технологического института, где она в середине 2010-х годов изучала способности распространенных тогда коммерческих систем распознавания лиц. Выяснилось, что они гораздо хуже распознавали лица женщин и темнокожих людей. Потенциально это могло привести к системному неравенству, например при использовании автоматических сервисов регистрации в аэропортах и кредитоматов. Представим себе, что сегодняшний ChatGPT будет выдавать негативные высказывания в отношении определенных социальных или этнических групп людей — результат крайне нежелательный.
 
В свете этой проблематики важную роль играет то, как общество такие системы воспринимает и как относится к ним. На мой взгляд, необходимо объяснить людям, чем современные генеративные нейросетевые модели являются и не являются. Они — инструмент для генерации контента, вроде «Фотошопа» или «Ворда», но куда более продвинутые. Раньше людям приходилось рисовать всё от руки, самим делать штриховку и закраску, а сейчас этот труд можно переложить на плечи машины. Очень классные инструменты, которые потенциально могут нам помочь решить немало задач, сэкономив уйму времени.
 
Нейросетевые модели — средства автоматизации, направленные на снижение трудозатрат при выполнении тех или иных задач. Это инструмент усиления возможностей нашего интеллекта: человек с калькулятором будет считать куда эффективнее коллеги без вычислительной машины, а человек с разумом, усиленным большой генеративной нейросетью, выполнит многие интеллектуальные задачи лучше человека, который не использует такой инструмент.
 
Нейросети — средства для генерации развлекательного контента. Сейчас такого рода системы нередко используются просто для развлечения, генерации мемов, шуток. Такое направление нельзя недооценивать: драйвом развития технологий во все времена очень часто становились развлечения.
 
Вдобавок нейросетевые модели — демонстрация возможностей современных технологий искусственного интеллекта всему человечеству, включая инвесторов, ученых, специалистов из смежных областей.
 
При этом подобные системы не являются средствами массовой информации или официальными источниками мнений своих создателей. ChatGPT не представляет собой точку зрения своей компании OpenAI. Нейросети не являются сверхразумами, священными оракулами, источниками истины. Напрасно ждать от искусственного интеллекта того, чтобы он стал арбитром, который порешает все проблемы человечества и отсеет правильные мнения от неправильных.
 
Ни одну нынешнюю нейросетевую модель нельзя считать искусственной личностью — у них нет самосознания, нет собственных целей (примечание от меня: личность – это всего лишь интерфейс для взаимодействия, самосознание – это немного из другой оперы (примечание от меня: самосознание легко можно реализовать, если понимаешь, в чём суть сознания, собственные цели могут быть только у разума (у интеллекта собственных целей и желаний нет)).
 
Рано или поздно мы сможем сделать искусственный интеллект, обладающий самосознанием (примечание от меня: самосознанием наделить систему ИИ можно уже сейчас, ничего в этом сложного нет), но не сейчас, не при помощи современных методов: нам потребуются куда более сложные эксперименты, чтобы получить на выходе сознание.
 
И, разумеется, нейросети — не средство пропаганды тех или иных идей. Множество людей, как только появилась возможность, бросилось задавать ChatGPT вопросы по поводу правильности идеологий и ценностей. Но таковы уж люди: в баталиях вокруг нейросетей мы наблюдаем отражение человеческого общества, ведь искусственный интеллект обучался на данных, собранных людьми. Иногда это зеркало кого-то пугает — думаю, ситуация нормальная, и к отражению нужно просто привыкнуть, понять, каким его нужно принимать. Вот вызов человечеству: сумеет ли оно извлечь из такого классного инструмента пользу, а не вред?
 
— Сергей, огромное спасибо за интервью! Очень познавательный рассказ. Надеюсь, мы с вами еще не раз увидимся и сможем задать еще много других вопросов.
 
— Спасибо вам, что пригласили! До встречи.

P.S. К сожалению, опять идёт смешение понятий разум и интеллект...

ключ

#925
Цитата: АrefievPV от августа 05, 2023, 11:17:42опять идёт смешение понятий

Интеллект не работает сам по себе.
Только под управлением разума. Разум же и ставит задачи.
Вряд ли можно в случае с ИИ понимать "человеческий разум вообще" ,это будет разум субъекта. Сам субъект может оказаться весьма недалёким.

Вопрос коллективного использования ИИ не проработан никак.
Работал ли Разум человека на решение технологических задач? (на это и животные способны ,просто эти задачи не так активно ставились)
Или исключительно на социальную область (которая и есть исключительная среда Разума) ?
А техзадания всего лишь этой средой инициировались и перед Интеллектом ставились ? (что нас и привело к техническому развитию ,которое Разума вовсе не плод ,а побочный эффект ?)

Более того-в социальной сфере небогато интеллектуальных решений. Поскольку в ней идет противоборство Разумов ,которые используют собственные примерно равные интеллекты.
Вооруженный ИИ Разум имеет уникальный шанс. Но задача, им поставленная вряд ли будет не только уникальной ,но и даже хоть сколько то оригинальной.

АrefievPV

Цитата: ключ от августа 06, 2023, 23:40:14
Цитата: АrefievPV от августа 05, 2023, 11:17:42опять идёт смешение понятий
Интеллект не работает сам по себе.
Только под управлением разума. Разум же и ставит задачи.
В этой теме мы эти вопросы уже обсуждали:
https://paleoforum.ru/index.php/topic,10046.msg263468.html#msg263468
https://paleoforum.ru/index.php/topic,10046.msg267314.html#msg267314
https://paleoforum.ru/index.php/topic,10046.msg268322.html#msg268322
 
Думал, что вы прочитали мои сообщения... :-[
 
Придётся снова пояснять... Ладно, это не беда, поясню кратко ещё разок. :)
 
Цитата: ключ от августа 06, 2023, 23:40:14Интеллект не работает сам по себе.
Верно, не работает – ему нужен «толчок/пинок» в виде мотивации, желания, интереса, цели.
 
Про реализацию желания я уже писал:
https://paleoforum.ru/index.php/topic,10046.msg267314.html#msg267314
Про интерес тоже писал:
https://paleoforum.ru/index.php/topic,10046.msg267453.html#msg267453
Про цели и постановку задач писал здесь:
https://paleoforum.ru/index.php/topic,8969.msg266769.html#msg266769
 
А всё это дело (мотивация, желания, интерес, цели), в конечном счёте, является производным от стремления к самосохранению, которое возникает в ответ на нарушение гомеостаза, как направленный потенциал. То есть, «толчок/пинок» идёт от гомеостаза, когда происходит нарушение оного (ведь стремление к самосохранению возникает при нарушении гомеостаза).
 
Цитата: ключ от августа 06, 2023, 23:40:14Интеллект не работает сам по себе.
Только под управлением разума.
Если речь идёт о разных системах, то так можно сказать – типа, разумная система управляет интеллектуальной системой.
 
Но, если речь идёт об одной системе, то фраза «интеллект работает под управлением разума» будет не корректна. Получается как бы, что в одной системе и разум отдельно, и интеллект отдельно, а это совсем не так.
 
Ведь, интеллект системы – это вычислительный функционал этой системы, а разум этой же системы – это способность данной системы реализовать своё стремление к самосохранению средствами интеллекта.
 
Типа, способность даёт указивки функционалу? :o Звучит как-то не очень...
 
Лучше уж сказать, что гомеостаз (или механизм гомеостаза) даёт указивки интеллекту (то бишь, вычислительному функционалу). Тоже, конечно, звучит как-то корявенько, но более корректно, на мой взгляд.
 
Цитата: ключ от августа 06, 2023, 23:40:14Разум же и ставит задачи.
Опять-таки, если речь идёт о разных системах, то так можно сказать. А если об одной системе, то лучше возложить постановку задач на гомеостаз.
 
На всякий случай:
Цитата: АrefievPV от июля 28, 2023, 17:37:27И небольшой комментарий к последнему абзацу (по поводу разума, интеллекта, сознания).
 
У нас есть навязанная общепринятыми парадигмами ассоциация между сутью и реализацией этой сути. Причём, ассоциация настолько прочная, что она буквально приравнивает одно другому.
 
Большинство даже не задумывается о сути сознания, интеллекта, разума – просто сразу автоматически начинают рассуждать о реализации этой сути.
 
Неискушённое большинство обывателей, нераздумывая приравнивают человеческий мозг человеческому разуму, интеллекту, сознанию. Некоторые, правда, пытаются «поместить» разум, интеллект, сознание в какие-то структуры мозга, а не тупо приравнять наличие одного наличию другого.
 
Более искушённые обыватели и существенная часть специалистов и учёных «помещает» разум, интеллект, сознание в процессы (и в состояния, как совокупности процессов, идущих в момент фиксации данного состояния), происходящие в мозге.
 
Тяга людей жёстко и однозначно «привязать», «прикрепить» суть к чему-то материальному (и лучше к вещественному, нежели к полевому) просто непобедима. Для них непонятно (а для вульгарных материалистов просто неприемлемо даже), что «привязывать/прикреплять» к материальному допустимо только реализацию сути, а не саму суть. Ну, а реализация сути всегда материальна по определению.
 
Кроме того, почти все приравнивают человеческий разум к разуму вообще. Типа, разум, интеллект, сознание могут быть только человеческие и только у человека. Вот только непонятно, зачем тогда искать разум, интеллект, сознание у особей других видов животных (или пытаться создать эти вещи искусственно), если эти вещие априори есть только у человека?
 
Сама суть очень проста, а вот реализация очень разнообразна и зачастую очень сложна (иногда весьма изощрённа и запутана из-за «изгибов» конкретного эволюционного пути).
 
Например, вот здесь суть понятий (жизнь, живая система, интеллект, разум):
Цитата: АrefievPV от сентября 06, 2021, 18:21:40Привожу комплект определений (их следует рассматривать во взаимосвязи друг с другом):
 
Жизнь – это живая система (совокупность систем) и её среда обитания.
Живая система – это система, проявляющая в активной фазе своего существования: стремление к самосохранению и способность реализовать это стремление.
Интеллект системы – это вычислительный функционал (практически в физико-математическом смысле слова) системы.
Разум системы – это способность системы реализовать стремление к самосохранению средствами интеллекта.
 
До кучи:
 
Ум системы – это локальное и актуальное проявление разума системы.
 
Теперь комплект определений, связанных с понятием сознание:
 
Суть сознания – это условие «со знанием».
Суть механизма сознания – это реализация данного условия «со знанием».
Суть реализации – это процесс осознания (то есть, сравнение/сопоставление со знанием).
Суть состояния в сознании – это наличие процесса осознания.

Однако реализация сути может быть очень разной в зависимости от конструкции систем, условий существования этих систем, текущего состояния систем и т.д. и т.п. (а народ зациклился только лишь на реализации, упустив из виду самое существенное – суть).
 
На всякий случай добавлю:
Цитата: АrefievPV от июня 13, 2023, 17:13:35Теперь сведу определения в единый комплект (все определения следует рассматривать комплексно, во взаимосвязи друг с другом).
 
Суть гомеостаза системы – это постоянство внутренней динамики системы (динамическое равновесие).
Суть механизма поддержания гомеостаза системы – это реализация гомеостаза системы.
Суть реализации гомеостаза – это замкнутая на самое себя совокупность процессов, «закольцованная» внутри системы (и благодаря этому постоянно воспроизводящаяся).
Суть стремления – это направленный потенциал (не само направленное действие/движение, а только направленный потенциал этого движения/действия).
Суть потенциала – это напряжение/давление/нарушение в структуре, возникающее как ответная реакция на воздействие, и которая направлена против воздействия.
Суть стремления системы к самосохранению – это потенциал, возникший в механизме поддержания гомеостаза системы, и который направлен на восстановление механизма поддержания гомеостаза.

И, опять-таки, все эти вещи (гомеостаз, потенциал, стремление и пр.) тоже могут быть реализованы по-разному, но суть останется прежней.

Попробуйте у себя в голове увязать эти определения в единую систему (понимаю, что это трудно, но вы всё же попробуйте), а потом попробуйте ответить на те вопросы, которые вы здесь озвучиваете (эдакая своеобразная практика будет).

АrefievPV

Нейроинтерфейсы научились переводить сигналы мозга в текст в четыре раза быстрее
https://nplus1.ru/news/2023/08/23/bci-improving
Одна парализованная пациентка смогла «произносить» 62 слова в минуту, а другая — 78
ЦитироватьДве команды ученых из США научили декодеры превращать сигналы мозга парализованных пациентов в текст в три-четыре раза быстрее, чем удавалось прежде. Статьи об этом [1, 2] опубликованы в Nature. Одни исследователи создали декодер, который переводил в текст беззвучную речь пациентки в текст со скоростью 62 слова в минуту, а вторая группа разработала немного другой интерфейс и перевела сигналы мозга не только в текст, но и в устную речь цифрового аватара и в его мимику. Их декодер генерировал текст со скоростью 78 слов в минуту. Предыдущий рекорд для подобных интерфейсов — 18 слов в минуту.

Речевые интерфейсы мозг-компьютер могут переводить нейронную активность мозга парализованных людей в текст или звук. Обычно для этого в мозг пациентов имплантируют электроды, которые получают сигналы от нейронов, когда человек пытается что-то произнести, думает о том, что хочет сказать (если произносить не может) или читает. Эти сигналы затем преобразовываются в текст с помощью нейросетей. Однако восстанавливать целые предложения — сложно, и обычно удается декодировать лишь отдельные слова и фразы, да и синтезируется такой текст медленнее, чем люди обычно говорят.

Две команды исследователей смогли улучшить работу таких декодеров. Ученые из Стэндфордского университета под руководством Фрэнсиса Уиллера (Francis R. Willer) декодировали речь пациентки с боковым амиотрофическим склерозом. Обычно боковой амиотрофический склероз начинается с разрушения нейронов спинного мозга и приводит к параличу конечностей, однако в редких случаях — как и в случае этой пациентки — первым поражается головной мозг. Женщина могла передвигаться, одеваться самостоятельно и печатать текст, однако не могла двигать челюстью и языком, чтобы говорить. Исследователи имплантировали в ее мозг четыре небольших датчика, в каждом из которых было 64 электрода.

Два датчика с электродами установили на поверхность мозга в область вентральной премоторной коры и два — в зону Брока, считающуюся ответственной за воспроизведение речи. Через месяц начали обучать программу, которая преобразовывает импульсы в текст. Женщина потратила около ста часов на то, чтобы пытаться произносить предложения — декодер (рекуррентная нейронная сеть) в это время превращал сигналы мозга в фонемы, а фонемы — в слова. Чтобы расшифровать любое английское слово, компьютер должен был освоить всего 39 фонем; это позволило ускорить работу интерфейса и сделать его точнее. Языковая модель помогала нейросети предсказывать каждое следующее слово в предложении.



Ученые обнаружили, что сигналы из зоны Брока практически не содержат информации об артикуляции. Это согласуется с некоторыми недавними исследованиями, ставящими под сомнение роль этой области в самом говорении [1, 2]. Однако в итоге декодер научился воссоздавать текст, используя сигналы из вентральной премоторной коры. И когда в словаре было лишь 50 слов, частота ошибок декодирования составляла 9,1 процента, когда женщина пыталась говорить вслух и 11,2 процента — когда она произносила предложения про себя. Когда словарь расширили до 125 тысяч слов, частота ошибок увеличилась до 23,8–24,7 процента. Декодер позволил женщине «произносить» 68 слов в минуту. Прошлый рекорд скорости декодированной речи — только 18 слов в минуту, а средний англоговорящий человек без речевых нарушений произносит около 160 слов в минуту.

Другая команда исследователей из Калифорнийского университета в Сан-Франциско во главе с Эдвардом Чаном (Edward F. Chang) помогли парализованной пациентке заговорить в прямом смысле — через цифровой аватар. Ученые имплантировали 253 электрода на речевую область сенсомоторной коры и на область верхней височной извилины женщины, которая перенесла инсульт и не могла говорить и даже печатать. Электроды получали те сигналы, которые в норме мозг отправляет к мышцам челюсти, губ и языка и вообще лица. Пациентка также несколько недель обучала рекуррентную нейронную сеть соотносить сигналы мозга с фразами, которые она хочет произнести. Для этого она раз за разом беззвучно произносила предложения из набора, состоящего из 1024 уникальных слов.



В результате декодер научился воспроизводить текст со скоростью 78 слов в минуту. Ошибки возникали в 25 процентах случаев. Затем ученые использовали запись голоса пациентки, чтобы научить нейросеть говорить ее голосом. Также ученые создали цифровой аватар пациентки и заставили его лицо двигаться во время произношения синтезированной речи благодаря модели, которая преобразовывала акустические сигналы в артикуляционные движения.

Также аватар научили имитировать эмоции: для этого пациентка пыталась воспроизвести счастливое, удивленное и грустное выражения лица, а электроды считывали активность нейронов и передавали ее декодеру. Это еще сильнее приблизило синтезированную речь к естественной, хотя аватар говорил не так быстро.

Аватар воспроизводит предложения, которые пациентка произносит про себя

До широкого внедрения таких нейроинтерфейсов в жизнь парализованных пациентов еще далеко: сначала необходимо сократить время обучения декодера, увеличить точность расшифровки (для этого, полагают ученые, нужно увеличить количество электродов) и убедиться, что имплантированные электроды будут работать как надо в течение долгого времени и что интерфейсами могут пользоваться пациенты с разными диагнозами. Также ученые хотят избавить нейроинтерфейс от проводов, чтобы пациенту не требовалось подключаться к стационарному компьютеру для синтеза речи.

Недавно ученым удалось восстановить из нейронной активности кусочек песни Pink Floyd, который слушали испытуемые с электродами в мозге. А еще раньше декодер смог пересказать сюжет видеороликов, которые люди смотрели, — тогда не понадобились даже имплантаты, хватило фМРТ. Музыка и тексты были не очень точными, но что-то расшифровать получилось.

АrefievPV

Возможно, мы проиграли | ALI


ЦитироватьЧеловечество очень близко подобралось к потенциальной черте, которую многие исследователи искусственного интеллекта называют "технологическая сингулярность". Пересечение этого рубежа связывают с появлением на планете сверхинтеллектуального агента, действия которого для нас будут невычислимы. В основу ролика легла статья Элиезера Юдковского "Искусственный интеллект как позитивный и негативный фактор глобального риска."

00:00 – Грядущая технологическая Сингулярность.
03:00 – Последние новости ИИ.
07:30 – Элиезер Юдковский.
08:26 – Типы искусственного интеллекта.
13:15 – Антропоморфизация.
16:45 – Мысленный эксперимент.
20:30 – Чёрный ящик.
21:40 – Проблема согласования ИИ.
32:25 – Инструментальные цели сверхинтеллекта.
34:25 – Чем люди отличаются от машин?
38:30 – Стремление ИИ к власти.
39:45 – Слабый сверхинтеллект.
41:10 – Нанотехнология.
42:45 – Клетка для сверхразума.
46:35 – Дартмутский семинар.
48:15 – Экспоненциальный рост.
52:45 – Коллективный разум против ИИ.
01:00:00 – Аугментация человека.
01:02:33 – Сознание у машины?
01:06:45 – Разработчикам ИИ наплевать?

P.S. С моей точки зрения, спорных моментов много, но, в то же время, со многим я согласен. Подача материала эмоциональная, нагнетание негатива присутствует.

Можно отметить, что опять идёт смешивание понятий интеллект и разум. И ведь с сознанием аналогично дело обстоит (сам факт путаницы сознания и самосознания уже говорит сам за себя). Сведение субъективного опыта к сознанию или наоборот, это ошибка. Субъективный опыт – это знания (хоть и личные, но всё равно знания), а сознание – это условие («со знанием»), обозначающее использование знаний (в ответной реакции, в оценке состояния или результата и т.д. и т.п.). Ну, а механизм сознания – это всего лишь реализация условия «со знанием». Понятно, что механизм сознания может быть разным, работать в разных режимах и т.д. Про уровни сознания сейчас не буду, писал уже неоднократно.
 
На всякий случай прокомментирую кусочек (к отрезку начиная от 34:25).
 
На мой взгляд, перепутаны конечная и промежуточная цели (или, можно сказать, перепутаны цель и средства достижения цели). Понятно, что, по сути,  приписывание целей, желаний, стремлений каким-либо системам, это наши интерпретации наблюдаемых явлений.
 
И небольшое замечание: наверное, лучше сказать, что цели системе ставит среда, а не эволюция. Ведь именно изменения среды приводят к изменениям в системе, а если структура системы регулярно реплицируется (с разрушением предыдущих реплик), тогда мы будем наблюдать эволюцию структуры системы.
 
Строго говоря, у изменений среды (именно они являются первопричиной эволюции систем) нет никаких направлений и целей, это у выживших систем мы ретроспективно видим цели и направления – на каждом этапе соответствовать изменяющимся условиям среды обитания. Короче: у эволюции живых систем, способных реплицироваться, мы можем выявить цель – соответствовать изменяющимся условиям среды обитания (то есть, структура живых систем изменяется в направлении соответствия условиям среды).
 
И таковое следование соответствию может со временем (на протяжении многих поколений) приводить к усложнению структуры системы, если происходит усложнение среды. Разумеется, усложнение среды должно при этом идти в определённом режиме (чередование периодов относительно комфортных условий существования и периодов тяжёлых условий существования), с определённой скоростью (позволяющей оставить достаточное количество реплик) и наличием богатого ресурсного потока (притока и обязательного оттока) вещества и энергии.
 
Хотя, возможно, я просто придираюсь – пусть остаётся постановка целей за эволюцией.
 
Теперь чуток «философской мути» (если тяжело читать, то можно и пропустить).
 
Цепочка изменений структуры на протяжении многих поколений нами может интерпретироваться как эволюционный путь, и ретроспективно мы на каждом этапе можем увидеть направления изменений структуры.
 
Но ведь мы видим следы структур только выживших реплик, которые тоже успели реплицироваться (смогли оставить потомков), а всех погибших, не оставивших потомков (а на каждом этапе их было много больше, нежели выживших) мы не видим и не учитываем.
 
То есть, наша выборка нерепрезентативна, она предвзята и опирается на следы структур только выживших. Отсюда и иллюзия эволюционного пути, иллюзия некоей направленности эволюции и даже иллюзия целей у самой эволюции. У эволюции нет целей, нет направления, поскольку первопричиной эволюции систем являются изменения среды, которые бесцельны и хаотичны. Даже само название этого явления (обозначающее развёртывание, развитие), это результат интерпретации, основанной на нерепрезентативной выборке. Эволюция систем является следствием изменений среды.
 
И про направление изменений среды мы можем судить только локально. Даже наши интерпретации про эволюцию нашей вселенной являются локальными по своей сути – мы внутри нашей вселенной и не можем взглянуть на неё извне (вселенная это всё, что нам доступно). В общем-то, и сам наблюдатель – это ведь локальное и актуальное отражение действительности. Так, что наши интерпретации уже в силу этого обстоятельства могут быть верными только локально, верными в нашей системе отсчёта.
 
Понятно, что уровень наблюдателя (соответственно, и его система отсчёта) может быть разным, и что для вышестоящего уровня кажется частным случаем, для нижестоящего уровня может казаться общим (обобщённым). Ну, а обобщение, выделенное из множества объектов, процессов и даже систем отсчёта, опирается на согласованность (схожесть, похожесть, совпадение, одинаковость) структур элементов из этого множества. Напомню: в основе критерия объективности лежит согласованность, а не независимость.
 
Кстати все законы сохранения как раз и намекают, что наша выборка глобально нерепрезентативна – мы выявляем закономерности только в сохранившейся локальной среде, только у сохранившейся материи, только у сохранившихся структур. Но законы сохранения соблюдаются только при условии глобальной неизменности мира (локально всё может изменяться как угодно, локально мир меняется, но в целом мир остаётся прежним), глобальной сохранности мира. Типа, сохранность мира обеспечивается законами сохранения мира, а законы сохранения вытекают из глобальной сохранности мира. «Кукушка хвалит петуха за то, что хвалит он кукушку»...
 
Получается, что законы сохранения являются «внутренними» законами, являются частными случаями и могут запросто оказаться в каком-то суперглобальном масштабе неверными.
 
Предполагаю, что наблюдатель в другом мире тоже бы выявил законы сохранения, которые бы действовали в его мире, но не действовали бы в нашем мире. Складывается такое впечатление, что математика допускает очень многое, но мы выбираем из неё только подходящее для описания своего мира (ну, и подходящее для нас самих).
 
Продолжу.
 
Конечная цель – самосохранение генетической системы, а репликация – это только способ сохранения. Кстати, только один из способов, второй – переход системы в пассивную фазу существования. «Передать копии своих генов в следующее поколение» – это и есть способ сохранения структуры генетической системы. То есть, чтобы сохранить свою оригинальную структуру, надо эту структуру скопировать в реплику до разрушения структуры оригинала.
 
Просто генетическая система таким вот способом сохраняет свою недолговечную и непрочную структуру – посредством репликации, раз за разом, восстанавливая свою исходную структуру. Ведь непрочным и не очень устойчивым сложным химическим процессам только таким образом – непрерывно реплицируясь – и получается сохраниться. И сохраняется именно структура оригинала – связи (взаимодействия) атомов и молекул, а не сами конкретные атомы и молекулы, которые были у оригинала на момент репликации.
 
Типа, «чтобы не умереть жизнь должна постоянно бежать» (в данном случае – непрерывно реплицироваться). Для нашего типа жизни (весьма нежных коллоидных растворов, в которых протекают сложные гиперциклы химических реакций) это архиважно. Попробуй тут сохранить свою структуру, ежели ты такой нежный. Тут только остаётся непрерывно реплицировать эту структуру.
 
Размножение, как расширенная репликация, это просто побочный эффект, простой (не расширенной) репликации, оказавшейся эволюционно выгодным – при наличии многих реплик больше шансов сохранить свою структуру хоть в одной реплике.
 
Наличие ошибок при репликации, это следствие неидеальности условий репликации, а неточность реплики, это следствие ошибок репликации. Кроме того, воздействия среды могут внести искажения и в готовую реплику уже после возникновения этой реплики.
 
Замечание в сторону.
 
Но ошибки и искажения могут сыграть и положительную роль, когда они случайно привели к лучшему соответствию структуры реплики к условиям её существования – то есть, структура реплики оказалась адаптированной к условиям существования. В этом случае, если рассматривать сей процесс на большом промежутке времени и на протяжении многих поколений, можно говорить об адаптации, как эволюционном процессе – типа, изначальная структура эволюционировала в конечную структуру.
 
Ошибки и искажения возникают и в самом организме в процессе его жизни, его адаптации к условиям существования. Ещё раз – именно адаптации организма, а не адаптации генетической системы (хотя если внешние средовые воздействия добрались через кучу посредников до внутриклеточной среды, то адаптироваться придётся уже и самой генетической системе непосредственно). Если утрировать, то генетическая система обитает в организме, как в коконе, и именно кокону приходится адаптироваться к текущим внешним средовым условиям.
 
Кстати, обучение – это тоже процесс адаптации к средовым воздействиям (в данном случае, к обучающим воздействиям) и обучение тоже вносит ошибки и искажения в цели генетической системы. А если учесть, что происходит обучение многоклеточного организма, то изначальная цель может исказиться до неузнаваемости. Особенно это касается людей с их длинным периодом детства.
 
Структура формирующегося организма зависит одновременно и от генов, и от среды в которой происходит формирование организма. Можно сказать, что организм возникает и формируется в результате взаимодействия генов и окружающей среды. И на каждом этапе формирования всё больше посредников между генами и средой и всё более высокий уровень взаимодействующих сторон (начиная от взаимодействия ДНК и внутриклеточной среды и заканчивая взаимодействием целостного организма и внешней среды).
 
Причём окружающая среда, по мере формирования организма, будет разной: для ДНК окружающей средой будет внутриклеточная среда оплодотворённой яйцеклетки,  для каждого формирующегося органа или ткани окружающей средой будет сам организм зародыша/плода, для самого зародыша/плода окружающая среда – это матка, для новорождённого окружающая среда уже, как и для нас.
 
Даже после рождения окружающая среда постоянно меняется – обогащается/усложняется/расширяется, меняется и расширяется социальное окружение (для человека это очень важно).
 
Продолжу.
 
И отсюда возникновение «повальной контрацепции» (по сути, отказ от репликации) с точки зрения самосохранения системы вовсе не абсурдно, если есть способ сохраниться без репликации. Ведь в данном контексте («повальной контрацепции») речь уже идёт не о генетической системе, а о «надстройке» над этой системой (и даже не о человеческом организме, а о его психике (разуме и интеллекте, сознании и знаниях и т.д.)). «Голос» и «команды» генетической системы в данном случае почти не слышны, их забивают и искажают (аж до наоборот) «голоса» и «команды» кучи посредников-прослоек.
 
А людям в мозги вложили кучу идей: о возможном ограничении репликации (то есть, можно не размножаться, а только поддерживать репликацию «один в один»), и о могуществе технологий, обеспечивающих сохранение (от всяких там заморозок до физического и/или психического бессмертия), и о том, что появление твоей неточной реплики не приводит к сохранению тебя (ведь твой ребёнок, это не ты сам).
 
Так-то я уже объяснял, почему интеллект может сработать против самосохранения. Напомню: разум системы – это способность системы реализовать своё стремление к самосохранению средствами интеллекта, а интеллект системы – это вычислительный функционал системы.
 
Но если вычислительный функционал системы оказался глючным изначально (вследствие ошибок и искажений при репликации структуры системы) и/или в данный вычислительный функционал были инсталлированы вредоносные (для самосохранения вредоносные) и/или паразитические программы, то такой интеллект так реализует стремление к самосохранению, что мама не горюй.
 
Отдельный вопрос, когда система сама является подсистемой (то есть, элементом системы) – в этом случае интеллект подсистемы может в первую очердь реализовать стремление к самосохранению именно системы (то есть, сохранение системы в приоритете, а сохранение самого элемента вторично, им даже можно пожертвовать для сохранения системы). Это дело я неоднократно пояснял, сейчас не буду.
 
Но главное, система может обладать интеллектом и разумом кратно, на порядки и более превышающим интеллект и разум элемента. Писал уже, но ещё раз повторю: социум (именно в плане всего человечества в целом) намного более интеллектуален и разумен, чем любой отдельный человек (пусть даже гений). И именно человеческий социум обучает отдельные человеческие особи – в каждой человеческой особи отражается частичка интеллекта и разума человеческого социума.
 
Кроме того, у социума тоже могут быть интеллектуальные глюки. Понять и осознать намерения и решения социума в полном объёме отдельная человеческая особь не в состоянии в принципе.

АrefievPV

В России создан суверенный литограф для выпуска микросхем. Он стоит как китайский автомобиль
https://www.cnews.ru/news/top/2023-10-03_rossiyane_sozdali_suverennyj
В Санкт-Петербурге создан отечественный литографический комплекс из установок для безмасочного получения изображения на подложке и плазмохимического травления кремния. Разработчики уверяют, что первая машина, используемая для безмасочной нанолитографии, стоит в пределах 5 млн руб., то есть как современный китайский автомобиль хорошего качества, тогда как зарубежные аналоги оцениваются в миллиарды рублей.
ЦитироватьНанопрорыв России

Специалисты Санкт-Петербургского политехнического университета Петра Великого (СПбПУ) разработали две установки для выпуска микроэлектронных наноструктур, которые дадут возможность «решить вопрос технологического суверенитета России в этом направлении в сфере микроэлектроники», пишут РИА «Новости» со ссылкой на представителей вуза. В комплекс устройств входят установки для безмасочной нанолитографии и плазмохимического травления кремния.

Первая установка используется для получения изображения на подложке, без использования специальной маски. Такая технология, по словам разработчиков намного менее затратна по сравнению с классической литографией как по деньгам, так и по времени, в которой для получения изображения используются специализированные шаблоны. Установка работает под управлением специализированного ПО и полностью автоматизирована.

По информации агентства, такая установка оценивается приблизительно в 5 млн руб., то есть она сравнима по цене со множеством современных китайских автомобилей, например, с кроссовером Geely Monjaro. Также РИА приводит сравнение с иностранными установками такого плана – агентство утверждает, что оно стоит в десятки раз дороже, в пределах 10-13 млрд руб.

Разработка номер два

Комплекс, разработанный в СПбПУ, предназначен для создания наноструктур, необходимых «для работы различного микроэлектронного оборудования», сообщили агентству представители вуза. Базмасочный литограф используется на первом этапе этого процесса, тогда машина для плазмохимического травления кремния пригодится на втором.

Вторая установка использует в своей работе созданный на первом этапе рисунок на подложке. Она предназначена непосредственно для формирования наноструктур, но также позволяет создавать кремниевые мембраны, которые в дальнейшем могут использоваться, например, в судовых датчиках избыточного давления, пишут РИА «Новости».

Авторы проекта заверили агентство, что созданные на такой установке мембраны «превосходят по надежности и чувствительности изготовленные методами жидкостного или лазерного травления». Они подчеркнули также, что это полностью отечественный продукт.

Стоимость второй установки ее создатели раскрывать не стали.

Потенциальный спектр применения и дальнейшие планы

Комплекс из двух установок, созданный в недрах СпбПУ, может применяться, помимо прочего, для увеличения срока службы радиолокационного оборудования более чем в 20 раз, сообщил агентству заведующий лабораторией «Технологии материалов и изделий электронной техники» СПбПУ Артем Осипов. Он добавил также, что если задействовать установки в производстве солнечных панелей, то можно будет добиться снижения их массы и размеров и научить их работать в пасмурную погоду при столь же высоком КПД, сколь и при ярком солнце.

Разработчики не уточняют, заинтересовался ли кто-нибудь из российских производителей микросхем их новыми установками. В связи с этим нет информации, когда они начнут использоваться на реальном производстве. Тем временем изобретатели продолжают совершенствовать созданный ими комплекс для литографии. В частности, они намерены оснастить обе входящие в его состав установки искусственным интеллектом, не уточняя, какие именно задачи он будет решать.

Конкуренты не дремлют

СПбПУ – не единственный вуз, стремящийся создать передовые отечественные решения для литографии. Еще в октябре 2022 г. CNews писал, что к работе в этом направлении приступил нижегородский Институт прикладной физики РАН (ИПФ РАН), но цель у него немного другая.

Как известно, на октябрь 2023 г. Россия была не в состоянии производить микросхемы по современным техпроцессам – стране доступна максимум 65-нанометровая топология, устаревшая почти 20 лет назад. Сейчас ведется строительство 28-нанометровой фабрики, но и этот техпроцесс давно утратил актуальность – уже давно освоен техпроцесс 4 нм, а в 2023 г. состоялся переход на 3 нм.

ИПФ РАН стремится сократить столь разительное отставание России от остального мира – специалисты вуза разрабатывают первый отечественный литограф, который сможет выпускать чипы по топологии 7 нм. Однако на это им потребуются годы – полноценную работу оборудование может начать не раньше 2028 г.

Также в марте 2023 г. CNews писал, что Минпромторг заказал разработку и освоение производства литографических материалов для микроэлектронного производства, в частности, фоторезистов. За эту работу министерство заплатит 1,1 млрд руб.

P.S. Маловато подробностей (не указан техпроцесс, не указана производительность и т.д.).