О понимании и взаимопонимании...

Автор ArefievPV, июня 25, 2016, 16:00:25

« назад - далее »

ArefievPV

Цитата: Игорь Антонов от октября 18, 2016, 20:48:30
Я каждый день что-то алгоритмизую. И именно это занятие давно привело меня к выводу, что процесс осмысления нельзя алгоритмизовать. Для машины существуют только байты в памяти, которые она тасует по неведомым ей самой законам. Эти законы придумывает программист, закладывая в программу ведомые ему смыслы.
Вы производите точно такие же операции: "тасуете" паттерны сигналов по неведомым Вам законам.
Законы "заложены" в структурах Вашего организма природой.

И опять-таки, не путайте Ваш уровень и уровень "калькулятора". Полагаю, один нейрон "стоит" целой "персоналки" (утрирую немного).

ArefievPV

Цитата: Игорь Антонов от октября 18, 2016, 20:48:30
Я каждый день что-то алгоритмизую. И именно это занятие давно привело меня к выводу, что процесс осмысления нельзя алгоритмизовать.
...
А в самой цифровой машине просто негде взяться какому-то смыслу и пониманию. Даже ее собственные кусочки для нее не интегрируются в какое-либо осмысленное целое. Остальное - тем более.
Это грустно... Нельзя разувериваться и терять надежду.

Если машина может установить хоть какую-нибудь связь между чем-то и чем-то, то формально этот процесс подходит под процесс "осмысления".

А Вы почему-то пытаетесь приравнять (ну или просто сопоставить) со свои собственным процессом (точнее, целую кучу процессов). Вы мало того, что осмысляете на множестве уровней, во множестве систем отсчёта, сразу посредством множества психических функций, так Вы ещё и осознаёте (типа, оцениваете со стороны происходящее). Вы же IT-кик и должны понимать, что вещи-то это не сопоставимые вообще...

Игорь Антонов

Смысл по семантике неразрывно связан с целенаправленной активностью и субъектностью. Опять же, полезно познакомиться с работами Анохина по ссылкам с первой страницы моей темы. Там, где применима его модель функциональной системы, там и смысл присутствует. По Анохину - с начальных этапов существования жизни на Земле. Но калькуляторов Вы хоть триллионы триллионов соедините между собой - они не станут единым целым, находящимся в активных отношениях с миром. Имитацию этого отношения в них, конечно же, может зашить все тот же субъект. Но это будет не больше чем имитация, смысл которой  останется локализованным все в том же сознании.

ArefievPV

Цитата: Игорь Антонов от октября 18, 2016, 21:12:58
Смысл по семантике неразрывно связан с целенаправленной активностью и субъектностью. Опять же, полезно познакомиться с работами Анохина по ссылкам с первой страницы моей темы. Там, где применима его модель функциональной системы, там и смысл присутствует. По Анохину - с начальных этапов существования жизни на Земле. Но калькуляторов Вы хоть триллионы триллионов соедините между собой - они не станут единым целым, находящимся в активных отношениях с миром. Имитацию этого отношения в них, конечно же, может зашить все тот же субъект. Но это будет не больше чем имитация, смысл которой  останется локализованным все в том же сознании.
Вы не правы, любая вещь в активном соотношении с миром. Любая (живая или косная).

И второе,я уже упоминал, что не стоит сравнивать Вас и компьютер. Вы в придачу и его самого "отражаете", а он Вас нет. Типа, Вы понимаете (осознаёте), что он "понимает". А он-то не в состоянии этого сделать. Так ведь маленький ребёнок тоже не в состоянии многого понять и осмыслить, но мы же ему не отказываем в понимании (умении осмысливать) на его уровне.

И про имитацию. Не надо так пренебрежительно о машинах такого уровня. Как бы не получилось так, что в один весьма не прекрасный момент эта машина смогла более полно отразить ситуацию в которой находится, чем человек. И не важно, что человек собрал эту машину по кусочкам. отладил софт (а сдури, ещё наделил инстинктом к самосохранению - стремлением продолжать находится в активном состоянии).

ArefievPV

Вытащил из другой темы...
Цитата: Игорь Антонов от октября 13, 2016, 07:55:00
С обсуждаемой в теме книгой Алексея Потапова, я, кстати, не во всем согласен. И этот момент имеет отношение и к эволюционной проблеме. Потапов  считает полноценный интеллект алгоритмизуемым, а я  - нет. Но его ведь положение обязывает - он занимается искусственным интеллектом. Мой аргумент заключается в том, что принципиально не может существовать алгоритмический аналог мысли.  Мысль выражается предложением. Оно состоит из дискретных элементов - слов и букв. Но семантика конкретной мысли : "Это колесо не доедет до Парижа" - единична, атомарна, неделима. Ближайший физический аналог такого  неразделимого состояния системы частиц - квантовая запутанность.
Полагаю, под «семантикой конкретной мысли» Вы подразумевали смысл высказанной фразы? Тогда, да, конкретный смысл неделим. Но смысл это не мысль. Мышление это общее название для множества процессов происходящих в психике. Осмысление (определение смысла, выявление смысла) это отдельный процесс (активация связей, либо установление связей (временных либо постоянных)). «Работа» функции «мышление» это тоже отдельный процесс (даже целая совокупность процессов), потому я и выделял в отдельную функцию (по стечению обстоятельств название совпадает с обозначением мышления вообще).

И принципиально  смысл может быть алгоритмизирован. Смысл заключён в установлении (активации) связей. То есть, некий образ должен быть связан с другими образами. И вот только в связи с другими образами данный образ приобретает смысл. И смысл образа всегда будет разный, в зависимости от набора связей. У каждого человека связи на конкретном уровне иерархии могут быть различными (с разными образами). При осмыслении отсчёт уровня иерархии начинается от того образа который подвергается осмыслению.

Если перейти на слова, то в зависимости от того как данное слово расположено в конкретном предложении, слово может менять смысл. То есть слово связано с другими словами в предложении. Сами связи определяются правилами, принятыми в конкретном языке (прямой порядок слов, падежи, времена и т.д. и т.п.). Кстати, слово для мозга (и психики) не более чем образ...

Поэтому, если разработать технологию (программную и/или на уровне «железа») установления/активации связей одних образов (пусть это будут некие алгоритмы и/или просто данные) с другими образами, то вполне возможно алгоритмизировать «распознавание» смысла данного образа. Затем пойти дальше, взяв за основу принцип «осмысления» используемый человеком. Например, использовать различные функции для установления различных связей;  использовать иерархический принцип построения связей и т.д. Человек-то использует сразу несколько иерархических сетей для осмысления одного и того же образа. Да ещё с совершенно разной «глубиной» понимания (различным числом активированных иерархических уровней).

Игорь Антонов

Вы не знаете, как компьютер работает изнутри, а сам их делал, начиная с электрической схемы и заканчивая программированием.  И я точно знаю что в цифровом компьютере принципиально и безнадежно отсутствует тот интегратор частей в целое, который есть в нас и в других живых существах, и который формирует активное отношение к миру, потребности, ощущения и мысли.

ArefievPV

По Вашему примеру: «Это колесо не доедет до Парижа». По дилетански, на скорую руку.

1.При активации связей образа «это» активируются связи (первого уровня иерархии) с образами «этот», «конкретный», «указание», «конкретизирующее обозначение существительного в том же падеже» знак и т.д.
2.При активации связей образа «колесо» активируются связи (первого уровня иерархии) с образами «круглый», «шина», «часть автомобиля», «часть телеги», «круглое», «катится» и т.д.

Уже на первом уровне активизируется связь между образами «это» и «колесо» (конкретизирующее обозначение существительного в том же падеже).
В итоге «это колесо» – конкретное колесо (на которое указывает говорящий).

3.При активации связей образа «не» активируются связи (первого уровня иерархии) с образами «нет», «отрицание», «обнуляющее/отрицающее действие на последующее слово» и т.д.
4.При активации связей образа «доедет» активируются связи (первого уровня иерархии) с образами «доехать», «прибыть в конкретное место», «ехать до определённого места», «перемещаться посредством чего-то до чего-то», «транспортировать», «добраться» и т.д.
4.1.При активации связей образа «ехать до определённого места» активируются связи (второго уровня иерархии) с образами «протяжённость», «путь», «преодолеть путь» и т.д.
4.2.При активации связей образа «преодолеть путь» активируются связи (третьего уровня иерархии) с образами «осилить», «выдержать испытание» и т.д.

Уже на первом уровне активизируется связь между образами «не» и «доедет». А на третьем уровне (если отсчёт от «доедет») активизируются связи между «обнуляющее/отрицающее действие на последующее слово» и «выдержать испытание».
В итоге «не доедет» – это не преодолеет путь, не выдержит испытание. 

5.При активации связей образа «до» активируются связи (первого уровня иерархии) с образами «длительность», «до чего-то», «до какого-то барьера», «существительное в родительном падеже» и т.д.
6.При активации связей образа «Парижа» активируются связи (первого уровня иерархии) с образами «город», «столица Франции», «Париж в родительном падеже» и т.д.
6.1.При активации связей образа «столица Франции» активируются связи (второго уровня иерархии) с образами «Франция», «столица  европейского государства», «город в Европе», «территориальное местоположение»  и т.д.
6.2. При активации связей образа «город в Европе» активируются связи (третьего уровня иерархии) с образами «далеко от нас» и т.д.

Уже на первом уровне активизируется связь между образами «до» «Парижа» (родительный падеж). А на третьем уровне (если отсчёт от «Парижа») активизируются связи между «до чего-то» (или «длительность») и «далеко от нас».
В итоге «до Парижа» – это далеко, длительная пространственная протяжённость

Итак: конкретный объект (это колесо) не выдержит испытание (не доедет) в таком-то объёме (до Парижа).

Вопрос: хороший программист (а я полагаю, что Вы к таковым и относитесь) не сможет это алгоритмизировать? Полагаю сможет. Объём работы феноменальный, конечно (скорее на большой коллектив).

ArefievPV

Цитата: Игорь Антонов от октября 18, 2016, 21:30:21
Вы не знаете, как компьютер работает изнутри, а сам их делал, начиная с электрической схемы и заканчивая программированием.  И я точно знаю что в цифровом компьютере принципиально и безнадежно отсутствует тот интегратор частей в целое, который есть в нас и в других живых существах, и который формирует активное отношение к миру, потребности, ощущения и мысли.
Разве я спорю, что живые системы отличаются от косных? Уже давал определения (никому не интересно).

И прошу прощения, даже гигантский сервер, насчитывающий триллионы составных частей никак не сравнится по сложности с одной единственной живой клеткой (даже по количеству частей - атомов и молекул). Для живой клетки отдельные атомы и молекулы уже составные части, а для компьютера - нет. 

К сожалению, на сегодня я заканчиваю. Очень жаль, что Вы не читали моих прежних сообщений (сейчас бы меньше недопонимания было бы), но ничего не поделаешь. Каждый интересуется чем-то своим, чужие размышления обычно читаются по диагонали, не вникая... Такова жизнь...

Игорь Антонов

Я не вижу в Вашем большом сообщении ответа на вопрос - где в машине после всего это будет смысл предложения в целом? У Вас результатом машинного процессинга предложения становится другое предложение, которое тоже нужно понять, чтобы смысл был. То есть, задача возвращается к исходной.

Пусть  активировался там набор "образов" по Вашему описанию, но что такое в контексте цифровой машины "образ" и как из этой совокупности должен в машине сложиться конкретный смысл рассматриваемого предложения, который осознается нашим сознанием?

Игорь Антонов

Вы, кстати, рассматриваете выше, нечто мне давно знакомое, а именно - теорию Игоря Мельчука "Смысл-Текст", с которой я знаком в оригинале. Я сам непродолжительное время занимался этим направлением.  Уверяю Вас, что ни грамма смысла при этом в самой машине не оседает. Весь смысл и при таком процессинге привносится только человеком и воспринимается только человеком. А машинные алгоритмы при этом унифицируют, насколько это возможно, многообразие форм свободного языка. сами совершенно не понимая, чем же это они сейчас занимаются. Понимает это только человек. Смысл высказывания существует только для него.

василий андреевич

Цитата: ArefievPV от октября 18, 2016, 21:12:17Если машина может установить хоть какую-нибудь связь между чем-то и чем-то, то формально этот процесс подходит под процесс "осмысления".
Как рассудить, если на восторг от необычного цвета заката получишь ответ в метрах длинны световой волны? Ведь налицо установленная связь "между чем-то и чем-то".

ArefievPV

Цитата: Игорь Антонов от октября 18, 2016, 21:55:41
Я не вижу в Вашем большом сообщении ответа на вопрос - где в машине после всего это будет смысл предложения в целом?
Не корректный вопрос. А где у человека "находится" смысл?

Ещё раз возвращаюсь к формулировкам.
Нельзя определение данное психологией распространять на компьютеры напрямую.
Дайте общее определение, что формально будет подходить и под процессы протекающие в компьютере, и под процессы протекающие в человеческом мозге.
Либо скажите, что за процесс является предтечей акта осмысления в простейшем случае.

Цитата: Игорь Антонов от октября 18, 2016, 21:55:41
Пусть  активировался там набор "образов" по Вашему описанию, но что такое в контексте цифровой машины "образ" и как из этой совокупности должен в машине сложиться конкретный смысл рассматриваемого предложения, который осознается нашим сознанием?
Ну ведь опять не корректно поставлен вопрос. :-[
Что такое образ для машины и как он в ней складывается - это корректно, но при чём здесь "который осознаётся нашим сознанием"??? :-[ Как Вы можете осознавать некие процессы происходящие в другой системе?

Пусть там в машине и сложится конечный смысл рассматриваемого предложения. И пусть машина (не Вы сами) выдаст некую реакцию ("поступок") на этот сложившийся смысл. А человек уже будет интерпретировать этот поступок и будет искать в нём смысл.

ArefievPV

Цитата: Игорь Антонов от октября 18, 2016, 22:10:33
Вы, кстати, рассматриваете выше, нечто мне давно знакомое, а именно - теорию Игоря Мельчука "Смысл-Текст", с которой я знаком в оригинале. Я сам непродолжительное время занимался этим направлением.  Уверяю Вас, что ни грамма смысла при этом в самой машине не оседает.
Вы наверное читали про опыт с китайской комнатой?
Так вот здесь подобная петрушка - разумна вся система целиком. Осмыслением занимается система состоящая из машины и человека.

И кстати, в человеке также "смысл нигде не оседает".

Цитата: Игорь Антонов от октября 18, 2016, 22:10:33
Весь смысл и при таком процессинге привносится только человеком и воспринимается только человеком. А машинные алгоритмы при этом унифицируют, насколько это возможно, многообразие форм свободного языка. сами совершенно не понимая, чем же это они сейчас занимаются. Понимает это только человек. Смысл высказывания существует только для него.

Выделенный текс - ключевая фраза для всего абзаца. Машина в такой системе (человек + машина) не обладает никаким самостоятельным "поведением", она просто "приставка" (дополнительный внешний "орган") для человека. Ни для какого по отдельности органа не существует функции (в полном объёме) которая присуща всему организму в целом. Типа, ни гиппокамп, ни левая височная доля коры головного мозга, ни сетчатка глаза, ни ствол мозга не могут понимать (и тем паче осознавать). Это прерогатива всего организма в целом (даже не мозга в целом! а всего организма в целом).

Дайте машине самостоятельность, не вмешивайтесь в её функционирование, оценивайте только её внутреннюю работу и по конечному результату. Как только Вы приметесь оценивать работу системы "машина  + человек", результаты Вашей оценки будут кардинально другими.

Заметьте парадоксальную немножко ситуацию. Конечный результат работы машины будет Вами интерпретироваться по разному. А именно в зависимости от того как вы рассматриваете машину: либо как самостоятельную систему, либо как систему "машина + человек". Хотя Вы можете даже "пальцем не шевельнуть", а машина мгновенно потеряет/приобретёт способность "осмыслять"...

ArefievPV

Цитата: василий андреевич от октября 19, 2016, 00:06:10
Цитата: ArefievPV от октября 18, 2016, 21:12:17Если машина может установить хоть какую-нибудь связь между чем-то и чем-то, то формально этот процесс подходит под процесс "осмысления".
Как рассудить, если на восторг от необычного цвета заката получишь ответ в метрах длинны световой волны? Ведь налицо установленная связь "между чем-то и чем-то".
Василий Андреевич, ну ведь опять некорректная постановка вопроса. :-[ Опять ведь: в огороде бузина, а в Киеве дядька...

Восторг кто испытывает? Человек (правильно додумываю за Вас?).

Решение выдаёт кто/что? Машина.
Но разве в машину был заложена инфа о восторге? Она связь между метрами и восторгом устанавливала? Нет. Она установила связь между цветом и метрами.

Это у человека образовалась связь между цветом и восторгом (эмоциональным состоянием). Так причём машина? Какие "предъявы" машине? Она ведь Вам в ответ "не выкатывает", что Вы почему-то не установили связь между цветом и метрами...

ArefievPV

Цитата: Игорь Антонов от октября 18, 2016, 21:55:41
Пусть  активировался там набор "образов" по Вашему описанию, но что такое в контексте цифровой машины "образ" и как из этой совокупности должен в машине сложиться конкретный смысл
Вот это, кстати, очень хороший и конкретный практический вопрос.
Саму общую идею я предложил, но как воплотить её в "железо" (а может чисто программным способом попытаться?) - пока ответа конкретного нет. У меня (как у дилетанта) есть несколько идей, хотелось бы услышать компетентное мнение. Вдруг это Вас натолкнёт на некую идею.

Как происходит в живых системах (конкретно, многоклеточных животных обладающих нервной системой) я примерно представляю. Но ведь там архитектура и принцип совсем другие... За один "шаг" активируются тысячи/миллионы связей разом (причём связей не параллельных, а каждая на свой образ). А если учесть параллельные связи, то миллиарды/триллионы. За три таких "шага" человек узнаёт лицо на картинке... Компьютеру необходимо сделать тысячи/миллионы таких "шагов". Даже запусти в работу сотню компьютеров параллельно, всё равно этой сотне придётся сделать
тысячи/миллионы таких "шагов"... Последовательная цепочка выполнения алгоритма не сокращается.

Моделировать программным способом всю многомиллиардную нейронную сеть (каждый нейрон, каждую связь) - это просто уму непостижимо. :-[ На данном уровне развития технологий такая задача кажется не реальной...

Если только простенькие модельки "лепить" с предельно "урезанным" функционалом (соответственно, и возможностями к "осмыслению"). Но даже для простеньких моделек надо разобраться с определениями. Нельзя тупо "переносить" формулировку понятия "осмысление" с человеческой психики на электронику.