Доступно ли компьютерам творчество?

Автор ArefievPV, мая 01, 2017, 08:52:53

« назад - далее »

ключ

Цитата: Аркадий Ник. от декабря 23, 2023, 05:11:36существенным является доезд из пункта А в пункт Б. Это скрепная идея данного социума. И вот шофер встает и говорит – «по 25 маршруту не поеду, поеду по 32». Т.е. пункт Б не светит. Вот тут и будет агрессия, нехорошие слова и все, что хотите. Социум будет стараться выжить доступными ему средствами – а его цементирующая идея – это достижение пункта Б и в автобусе, ведь заплачено. «Наш автобУс вперед лети...» - помните?, не доехали однако.


Тут ,как в прошлом водитель автобуса-не совсем соглашусь.
Случаи не только агрессии ,но и вообще выражения недовольства водителю-очень редки.
Он-не часть пассажирского социума ,а часть среды-автобусного парка.
А вот случаи агрессии со стороны пассажиров-хулиганов время от времени бывают. Но они если и  связаны с движением автобусов ,то лишь косвенно  косвенно. Причина-не пассажирское ,а хулиганское начало индивида.

Вообще видимо поэтому сотрудник любой организации обычно более агрессивен ,чем клиенты.И противостоит их агрессии легче.

В случае же массовых безобразий (например ,футбольные фанаты) отдельные хулиганы перестают быть таковыми. Агрессивной становится созданная ими среда ,а личной агрессии каждого становится недостаточно ,чтобы выделить лично его как хулигана.

Аркадий Ник.

Цитата: ключ от декабря 23, 2023, 10:57:37Случаи не только агрессии ,но и вообще выражения недовольства водителю-очень редки.

Как говорится – «туше». Единственное, что приходит в голову – это примерно повторить совет Арефьева – «смотрите шире».

«Не все золото, что блестит» - это не о том, что и кроме золота есть блестящие предметы. «Автобус от А до Б» - это не про автобус, а «шофер» – не из «депа».

Она тряслась в Урюпинском трамвае,
давило одиночество, тоска,
(не старая, домашняя, не злая),
вдруг сверху по-французски: «Dode pa?»
«Мужик, француз!» — подумалось бедняжке,
Париж, Шабли, Монмартр и фрикасе,
багет, рокфор, в бистро вкусняшки,
не веря счастью — «Кес ке се?»
И баритон почти французский,
мечты и дум прервав полёт,
задал вопрос на чистом русском-
«Трамвай, ***ь, до депА идёт?»    (Евгений Клифт)

А это – не про Урюпинск, где, кстати, и трамвая-то нет.

Так что повторюсь – смотрите шире, копайте глубже ...
Пишите письма...

ключ

Цитата: василий андреевич от декабря 23, 2023, 09:36:35Наступает, так называемый, синдром жертвы, которая начинает любить своего угнетателя, и ненавидеть своего потенциального освободителя. Групповая этика, проскакивает состояние морали, олицетворяющее балансирование над вероятностным минимумом. Выживание становится нормой пофигизма (или ноль в степени ноль), тогда как угнетатель прочно располагается в состоянии единица в степени единица.
  Вопрос на засыпку: что между двумя этими единицами?

Между этими единицами как раз и есть зона интереса хулиганов.
Не тех ,которые хамят в автобусах.
А хулиганов в смысле особей с агрессивностью выше фоновой.

василий андреевич

Цитата: ключ от декабря 23, 2023, 17:54:41в смысле особей с агрессивностью выше фоновой
В принципе, да, но это тот же вопрос - считать ли отношение кошки, играющей с живой мышкой актом агрессии?
  Смотрите: входя в автобус, мы ограничиваем свои "этические настроения" до правил, висящих на стенке автобуса - не плюй, не сори, не убий, не отвлекай водителя... То есть из членов социума становимся членами группы, скованной моральными, а не этическими обязательствами. Поэтому хулиган в автобусе не является членом данной группы, и автоматом становится агрессором, как блондин в клубе для рыжих, или как Наполеон со-товарищи в России двенадцатого года.

  Эта тема о границах творчества счетных машин, в отношении к человеческим тусовкам. Пока автобус функционирует в рамках морального соглашения, действия пассажиров ничем не отличаются от действия роботов - каждый едет по своим делам в иные группы, где действуют иные моральные обязательства.
  Вводим аналог хулигана в образе колдобин на дороге. И пассажиры, и роботы на колдобинах начнут проявлять акты агрессии, возмутившись ситуацией, где они из пассажиров превращаются в мешки с картошкой, а потому переадресуют друг другу свои этические взбрыки, разгорающиеся до агрессии, типа "сам дурак, а еще шляпу одел".
  Роботы в данной ситуации поступят самым примитивным образом - пошлют по инстанциям запрос о виновности роботов дорожников-разгильдяев. А люди, хотя и подумают жаловаться высшим существам, но где-то потом, а ныне займутся "творчеством выработки отношений в экстремальной ситуации.
  И вот тут проявятся различия между счетной машиной и человеком. Машина останется самой собой, а человек из среднестатистического исполнителя предписанных правил, превратится в творческое начало, рождая-изобретая свои собственные правила поведения. Кто-то предпочтет молиться "богам колдобин" или будет анализировать эволюцию векторного поля при вторжении автобуса на колдобины, назовем их пофигистами, но часть обязательно попытается вылить свое родившееся возмущение на соседей, уже этим символизируя хулигана.
  Что мы получаем? Получаем дивергентные ряды разложения моральной группы на те этические подгруппы, между которыми рождаются связи, которых не было до того, как автобус попал на колдобины.
  Функция игрек равно икс в степени икс - это самая простейшая из комбинаторных, но уже ее достаточно, для анализа вероятного итога "успокоения этик при рождении новой морали". Но роботы новую мораль не создадут принципиально, хотя способны выстроить самые наиподробнейшие графики поведения индивидуумов в неисчислимом количестве ситуаций. "Не создадут" - это "я так думаю".

ключ

#1069
Цитата: василий андреевич от декабря 24, 2023, 08:23:19Эта тема о границах творчества счетных машин, в отношении к человеческим тусовкам. Пока автобус функционирует в рамках морального соглашения, действия пассажиров ничем не отличаются от действия роботов - каждый едет по своим делам в иные группы, где действуют иные моральные обязательства.

Система стремится установить  для своих компонентов определённый порядок "правильных" действий ,которые обеспечивают её максимальную стабильности и безопасность. Так ?
Если он подобран правильно-компонентам нет нужды выходить за рамки этих действий.

Агрессивность компонента внутри системы -выход за эти рамки.(в направлении или куда то во вне ,или в отношении другого компонента).
С одной стороны-такие действия несут риск. С другой-расширяют возможности компонента.

Оценить это как "хорошо / плохо" нельзя. Но из за подобного сбоя компонента ожидаемый риск для системы в целом скорее всего выше ,чем ожидаемая польза. И система его отвергает.
Именно в целях своего выживания и не в каких других. Мазохизм человека-компенсация естественной агрессии ,хитрым способом направленной не во вне ,а ВНУТРЬ себя.
А она так и направлена у среднестатистического человека. Просто мы этого не замечаем. Направленность её хоть чуть чуть наружу-и есть то хулиганское начало.
Поэтому социум не агрессивен. Не смотря на наличие каких то "уровней преступности" в нём. Он более занят сдерживанием своих агрессивных индивидов и ожиданием агрессии от других систем.
По команде системы своим компонентам или отдельному стрелка может быть перенаправлена. Но ,вероятно ,для этого должен расходоваться какой то энергетический ресурс. Длительность активно агрессивного состояния ограничена и вызывает его истощение.

Робот из внешней системы-инструмент внешней  агрессии. Статус его "там" не важен ,поскольку агрессия идёт от другой системы в целом ,а не от элемента.
Интеграция робота в свою систему менее понятна.
Именно в плане принятия его другими компонентами.

Мы готовы проявить против него агрессию изначально. ( Что инициирует проявление хулиганского начала как защитной реакции ?)
И ожидаем результата этой агрессии как уже свершившегося. "Как же ! Он будет нам служить !"
Агрессию робота внутрисистемную (против отдельного компонента избирательно) в расчет не берем почему то.
(собственно,типично людское вливание новичка в коллектив часто происходит подобным образом).



АrefievPV

Минобороны требует запрета ChatGPT: Это оружие, загоняющее россиян в когнитивную ловушку
https://www.cnews.ru/news/top/2023-12-25_minoborony_trebuet_zapreta
Минобороны выступило за запрет использования алгоритмов генеративного искусственного интеллекта (ChatGPT и пр.) в критически важных сферах. Ведомство предупреждают: такие алгоритмы не выдают объективного результата и могут быть использованы для сбора разведывательной информации и когнитивного воздействия на население.
ЦитироватьОпасность алгоритмов искусственного интеллекта: они воспроизводят мнения своих создателей

Использование иностранных алгоритмов генеративного искусственного интеллекта (ГИИ) представляет угрозу для национальной безопасности России. Об этом заявил замдиректора департамента информационных систем Минобороны Николай Лишин на финале конкурса «Битва искусственных интеллектов», проведенного Главным радиочастотным центром (ГРЧЦ).

Речь идет о таких алгоритмах, как ChatGPT, Midjourney, Dall-e 2, StableDiffusion и др., которые способны генерировать контент различных форматов: аудио, видео, текст, изображения и т.д.

Лишин предупреждает, что указанные алгоритмы не воспроизводят объектных моделей знаний: они обладают «внутренним содержанием программистов», которые его создают. В результате «мировоззрение» указанных алгоритмов совпадает с мировоззрением жителей западных стран в возрасте от 25 до 35 лет, а их пользователи оказываются в «когнитивной ловушке».

Лишин сравнивает это с «эффектом Голливуда»: благодаря наилучшему техническому оснащению голливудские киностудии создали контент, который недостижим в других странах. В результате люди по всеми миру стали относится к западному миру, как к своему, и желают в нем жить. Это подтверждает и опрос молодых россиян, никогда не выезжавших из страны: большинство из них считают, что США по всем параметрам опережают весь остальной мир.

Представитель Минобороны приводит пример общения с ChatGPT на тему Крыма: алгоритм выдает ответ, что данный полуостров был «аннексирован» Россией, а прошедший в 2014 г. референдум на полуострове «вызывает вопросы». Лишин сравнивает это с данными Wikipedia, имеющими схожую подачу. Однако если Wikipedia публично доступна и специалисты могут разглядеть манипуляцию в подаче информацией, то процесс общения человека с алгоритмами ГИИ никому не виден.

Опасности генеративного искусственного интеллекта

В Минобороны видят сразу несколько опасностей, происходящих от алгоритмов ГИИ. Во-первых, это информационное воздействие на население: «подмена родителей и учителей» и воспитание целых поколений, лояльных к западным странам.

Во-вторых, расположенная в открытом доступе языковая модель, лежащая в основе ГИИ, может стать источником утечки части обучающих данных, в которых могут быть персональные данные и закрытые базы данных. Соответственно, иностранные разведки могут проводить атаки на ГИИ с целью извлечения данных, лежащих в основе обучающих выборов, для получения конфиденциальной информации о технологических возможностях.

В-третьих, генерация высококачественного поддельного аудио- и видеоконтента (DeepFake) резко повышает эффективность атаки злоумышленников методов «социальной инженерии», в том числе на критическую информационную инфраструктуру (КИИ) государства.

Наконец, злоумышленники могут использовать ГИИ для повышения возможности и эффективности кибератак: искусственный интеллект может обучаться обходить системы компьютерной защиты. Существующие алгоритмы уже могут обходить CAPTCHA.

Искусственный интеллект на службе стран НАТО

На Западе давно уже поняли важность использования искусственного интеллекта для целей обороны и информационных войн. В 2014 г. при НАТО был создан Центр передового опыта для ведения войны в информационном пространстве.

Автономно от него в Канаде функционирует специализированный инновационный центр для ведения когнитивной войны с помощью ГИИ. Чтобы не привлекать внимание, этот орган не входит в список центров НАТО. А в Пентагоне в структуре Главного управления по цифровым технологиям создана рабочая группа Lima для анализа ГИИ и его интеграции в деятельность вооруженных сил.

Что нужно делать в России

В Минобороны считают алгоритмы ГИИ технологиями двойного назначения и сравнивают их с ядерным оружием. Именно благодаря наличию ядерного оружия Россия сохраняет статус сверхдержавы, поэтому для России крайне важно разрабатывать собственные технологии.

По мнению Минобороны, в России необходимо исключить внедрение (использование) иностранных больших языковых моделей в «критических» системах (системы поддержки принятия решений, медицина, военное дело, объекты КИИ и др.).

В то же время в России необходимо разработать собственные (доверенные) системы с ГИИ для недопущения информационного воздействия на российское население, в том числе когнитивного характера. Также следует регулярно проводить хакатоны для тестирования систем с ГИИ на предмет уязвимостей, «галлюцинаций» и когнитивных искажений.

ключ

Цитата: АrefievPV от декабря 25, 2023, 19:12:51такие алгоритмы не выдают объективного результата и могут быть использованы для сбора разведывательной информации и когнитивного воздействия на население.

Их задача и есть когнитивное воздействие ,т.е. агрессивная пропаганда.
Атакуемый социум может иметь любые мнения ,но достаточной агрессивности для сопротивления воздействию не имеет.
Это ,наверно ,основное.

Остальные же технические возможности (сбор информации ,статистики и т.п.) ,скорее всего , не превышают возможности других специализированных для этого программ.

Игорь Антонов

Искусственный интеллект сегодня.

Диалог с ChatGPT:


АrefievPV

#1073
Зеленая сова беспощадна не только к своим ученикам: в Duolingo из-за перехода на ИИ произошли массовые увольнения переводчиков
https://www.ixbt.com/live/sw/zelenaya-sova-besposchadna-ne-tolko-k-svoim-uchenikam-v-duolingo-iz-za-perehoda-na-ii-proizoshli-massovye-uvolneniya-perevodchikov.html
ЦитироватьШокирующий поворот событий: Duolingo, широко известная платформа для изучения языков, недавно внесла значительные операционные изменения, которые привели к сокращению тысяч переводчиков. Вместо того, чтобы нанимать переводчиков-людей, Duolingo решила полагаться на искусственный интеллект (ИИ) для выполнения задач перевода. Этот шаг вызвал споры и дебаты в отрасли, ознаменовав решающее решение в эпоху поглощения ИИ.

Внедрение ИИ в Duolingo

Duolingo был пионером в использовании искусственного интеллекта в различных аспектах своего приложения. Согласно отчету VentureBeat, Duolingo использует ИИ во всех частях своего приложения: от выбора задач для практических занятий до решения, какие упражнения предлагать пользователям в зависимости от их прогресса.

Решение Duolingo заменить переводчиков-людей системами искусственного интеллекта свидетельствует о более широкой тенденции в технологической отрасли, где искусственный интеллект все чаще используется для автоматизации различных задач, традиционно решаемых людьми.

Системы искусственного интеллекта, особенно модели машинного обучения, могут быстро и точно обрабатывать большие объемы данных, что делает их идеальными для таких задач, как перевод. Более того, в отличие от людей, которым необходимы периоды отдыха, ИИ может работать круглосуточно без перерывов. Эта экономическая эффективность, вероятно, является одной из причин, по которой
Duolingo решил сделать этот шаг.

Споры из-за поглощения ИИ

Решение Duolingo уволить тысячи переводчиков-людей и заменить их искусственным интеллектом вызвало горячие споры. Критики утверждают, что этот шаг игнорирует ценность и опыт, которые привносят в работу переводчики-люди. Кроме того, были высказаны опасения по поводу безопасности рабочих мест и будущего профессии переводчика, что подчеркивает потенциальное влияние ИИ на возможности трудоустройства.

Влияние на переводчиков-людей

Поглощение Duolingo искусственным интеллектом оставило людей-переводчиков в состоянии неопределенности. Многие опытные переводчики сталкиваются со страхом, что их заменят машины. Многие люди обращались к таким платформам, как Reddit, чтобы выразить свои опасения и поделиться опытом.

Один пользователь даже поделился скриншотом электронного письма, отправленным ему компанией, раскрывающим подробности увольнения. Эта прозрачность позволила пользователям убедиться в масштабности решения. В электронном письме говорилось, что только двое из четырех основных членов команды останутся и будут проверять контент ИИ, чтобы убедиться в его приемлемости.

Некоторые выразили благодарность переводчикам-людям за их работу в Duolingo и посочувствовали их ситуации. Однако есть и те, кто считает, что ИИ в конечном итоге превзойдет человека в возможностях перевода. Это мнение отражает продолжающиеся дебаты о долгосрочном влиянии ИИ на профессию.

Роль переводчиков-людей

Несмотря на достижения в области искусственного интеллекта, переводчики-люди по-прежнему имеют уникальную ценность в процессе перевода. Они обладают глубоким пониманием языковых нюансов, культурного контекста и способностью адаптировать переводы к конкретной целевой аудитории.

Хотя алгоритмы ИИ могут обеспечить более быстрый и экономичный перевод, они жертвуют качеством, которое обеспечивают переводчики-люди. Ручные переводы также могут обеспечить уровень аутентичности и креативности, который ИИ может с трудом воспроизвести. С другой стороны, перевод с помощью ИИ может привести к ухудшению естественного потока и точности.

ключ

#1074
Цитата: АrefievPV от января 06, 2024, 11:43:59массовые увольнения переводчиков

Лет ещё 30 назад секретарь-машинистка была массовой профессией ,во всех крупных организациях были машбюро ,а в частном порядке машинописный лист стоил не помню скока ,но скока то дорого. Потом кто то придумал принтер,а печатать научились все.
Да и понятие "красивый почерк" как то исчезло.
Ещё чертёжники были ,копировщицы ,калькировщицы ,картографы,художники-оформители ,фотографы,шрифтовики,разметчики....

АrefievPV

Science будет проверять подлинность изображений в статьях с помощью искусственного интеллекта
https://nplus1.ru/news/2024/01/06/proofig
Это поможет обнаружить фальсификации и случайные ошибки до публикации
ЦитироватьРедакция журнала Science сообщила, что с этого года все шесть изданий семейства начнут проверять подлинность изображений в научных статьях с помощью программы на основе искусственного интеллекта. Статьи будут проверяться до того, как их допустят к публикации. Это должно снизить количество публикаций, в которых есть ошибки или намеренное искажение данных.

В 2006 году в журнале Nature вышла статья о том, что причиной болезни Альцгеймера может быть конкретная форма бета-амилоида — Aβ*56, которую авторы выделили из мозга трансгенных мышей. Статья широко цитировалась, однако к исследованию возникли вопросы: олигомер Aβ*56 нестабилен и легко превращается в другие олигомеры, поэтому было не совсем ясно, как ученым удалось выделить его из тканей. Воспроизвести результаты у других ученых не вышло. В 2021 году нейробиолог Мэтью Шрэг изучил сайт PubPeer, где публикуются сообщения о недочетах и подозрительных данных в научных статьях: его пользователи заподозрили, что изображения в статье об Aβ*56 были отредактированы. После этого Шрэг нашел признаки редактирования изображений еще в нескольких работах одного из соавторов той статьи — Сильвена Лесне. Расследование журнала Science, проведенное в 2022 году, также пришло к выводу, что иллюстрации в статье — и, как следствие, ее результаты — были фальсифицированы.

Не все случаи с поддельными изображениями и результатами статей такие громкие, и не всегда такие статьи опубликованы в авторитетных научных журналах. Но для последних находить подделки и ошибки как можно раньше — не допуская того, чтобы подозрительная статья цитировалась 15 лет — особенно важная задача.

На днях главный редактор журнала Science Холден Торп (H. Holden Thorp) рассказал о том, что в 2024 году семейство журналов Science будет использовать программу на основе искусственного интеллекта Proofig, чтобы проверять изображения в статьях на предмет редактирования еще до их публикации.

Подобную программу для обнаружения плагиата в текстах статей Science использует давно, и теперь настал черед изображений. Прежде иллюстрации просматривались людьми вручную — и какие-то изменения могли остаться незамеченными.

Несколько месяцев в Science тестировали Proofig, и с его помощью удалось обнаружить проблемные изображения в еще не опубликованных статьях. Проверка происходит так: программа ищет на изображениях дублирования, повороты, искажения масштаба и другие отклонения. После такого анализа изображения просматривает редактор журнала, чтобы перепроверить все снова: иногда рисунки или их элементы намерено дублируются или поворачиваются, и в этом нет ошибки. Если к изображениям все-таки остаются вопросы, редактор связывается с авторами статьи и просит объяснений. Если объяснения не удовлетворяют редакторов, проводится дополнительное расследование, по результатам которого статью могут отклонить. Во время пилотного тестирования программы авторам обычно удавалось устранить проблемы или объяснить их, и статья проходила дальше. Но нашлись и статьи, которые из-за отредактированных иллюстраций журналы публиковать не стали.

Холден Торп уточнил, что если сомнения возникнут в отношении уже опубликованной статьи, они также будут использовать Proofig для ее проверки. В опубликованные статьи с ошибками авторы могут вносить исправления, но если они этого не делают, статью могут отозвать. Тщательные проверки научных публикаций, по мнению главного редактора Science, должны укрепить добропорядочность ученых и доверие к науке.

Ученые подделывают результаты своих работ по-разным причинам: нередко это в каком-то смысле вынужденная мера: если нет результатов (или они получились отрицательными), нет и публикаций, а значит — нет финансирования. В других случаях исследователи так уверены в своих гипотезах, что подгоняют цифры или изображения так, чтобы наверняка они ее подтверждали. Фальсифицированные статьи и статьи с непреднамеренными ошибками, как правило, рано или поздно отзывают. Ранее мы писали о том, что в 2023 году отозвали больше десяти тысяч научных статей — и это стало рекордом. Большая часть из этих статей, согласно анализу Nature, были поддельными.

Аркадий Ник.

Цитата: АrefievPV от января 07, 2024, 14:33:24Science будет проверять подлинность изображений в статьях с помощью искусственного интеллекта

Что-то мне подсказывает, что вскоре ретушировать изображения и «прилаживать» плагиат будет тоже ИИ, только другой. И плагиат этот он будет еще как-нибудь творчески обрабатывать, чтоб придраться было трудно. И изображения генерировать будет получше истинных. Вон девок уже рисует (даже с видео – все честь по чести) таких, что миллионеры-футболисты-тенисисты в очередь на свиданку пишутся.  Думаю, это вопрос времени, причем недолгого.

А Минобороны вон уже предупреждает – ИИ опасно для вашего здоровья.

Оно действительно – поверишь вот такому ИИ - и все, суши сухари... «дорога дальняя, казенный дом...». Здоровье точно не поправишь.

А как проверить? Раньше как-то проще было -
 
Могут действовать они
не прямиком:
Шасть в купе — и притвориться
мужиком,
А сама наложит тола
под корсет...
Ты проверяй, какого пола
твой сосед!"

Риск, конечно, тоже был, но все же как-то можно было прощупать. А с этим ИИ – куда там лезть, чтоб понять врет аль нет?   


АrefievPV

Восстание машин началось. Умные стиральные машины втихаря ежедневно «сливают» в интернет гигабайты трафика
https://www.cnews.ru/news/top/2024-01-10_vosstanie_mashin_nachalos
Владелец умной стиральной машины LG с возможностью подключения к интернету обнаружил, что это чудо современной бытовой техники ежедневно выгружает в Сеть почти 4 ГБ трафика. Чем именно машина делится с миром, так и осталось загадкой – производитель проигнорировал все запросы, а выяснить это самостоятельно ему не удалось. Решить проблему помог цифровой «железный занавес» – машина была принудительно переведена в режим офлайн.
ЦитироватьИзбыточно умная техника

Современная домашняя электроника может жить своей виртуальной жизнью и выходить в интернет по поводу и без, без разрешения владельца. Это доказала стиральная машина LG с Wi-Fi модулем, владелец которой обнаружил, что она ежедневно отправляет в интернет почти 4 ГБ информации.

С таким необычным поведением столкнулся пользователь заблокированной в России соцсети Х, она же Twitter, под псевдонимом Johnie (@Johnie). В своем блоге он обрисовал ситуацию, и его пост, опубликованный 9 января 2024 г., мгновенно стал популярным. К моменту выхода материала он набрал более 2 тыс. комментариев, 4 тыс. репостов, 55 тыс. отметок «Нравится», и как минимум 3 тыс. пользователей добавили этот пост в «Избранное».

Johnie опубликовал скриншоты, согласно которым его корейская стиральная машина расходует в пределах 3,66 ГБ трафика в сутки. Из них 96 МБ – это входящий трафик, а оставшиеся 3,57 ГБ – исходящий. На изображении заменен провал в потреблении трафика – по словам владельца, по времени он совпадает с моментом, когда машина выполняла свою основную функцию, то есть стирала вещи.

Другими словами, машина LG выгружает в Сеть основные объемы трафика лишь во время простоя. Что именно она делает в интернете, к моменту выхода материала владелец так и не узнал.

Истина где-то рядом

Johnie направил несколько запросов в техподдержку LG в попытке выяснить природу трафика, генерируемого стиральной машиной, однако ответа так и не получил. В комментариях к его публикации в Х пользователи стали озвучивать свои предположения, и наиболее часто встречающееся среди них – это если кто-то использует стиральную машину для майнинга биткоина.

Вторая по популярности догадка – что машина стала частью ботнет-сети и используется злоумышленниками, в том числе, для проведения DDoS-атак.

В процессе поиска истины Johnie обнаружил два факта, один любопытнее другого. Первый заключается в том, что его стиральная машина по умолчанию не поддерживает целый ряд привычных многим режимов стирки – их приходится скачивать дополнительно.

Второй факт – программное обеспечение творения LG, стирающего одежду Johnie, не умеет сбрасывать настройки беспроводного соединения с интернетом. Стоит один раз сохранить в памяти машины название сети Wi-Fi и пароль от нее, и они останутся в ней навечно. Из доступных опций – только возможность подключиться к другой беспроводной сети.

Простое и гениальное решение

Так и не выяснив истинную причину неуемного аппетита своей стиральной машины по части потребления трафика и не сумев сбросить ее настройки Wi-Fi, Johnie решил проблему раз и навсегда. Он не стал менять название своей беспроводной сети – вместо этого он просто заблокировал машинке доступ в интернет.

Это действие моментально принесло желаемый результат – стиральная машина перестала выгружать в Сеть гигантские для такого устройства объемы информации. Johnie подтвердил это скриншотом.

Судя по всему, Johnie и сам склоняется к тому, что его стиральная машина, имеющая собственный процессор и обладающая хоть и незначительной, но все же вычислительной мощностью, использовалась кем-то для добычи криптовалюты. Заблокировав ей выход в интернет, он написал: «Использование трафика прекратилось с тех пор, как я заблокировал устройство на своем маршрутизаторе. Извините, если вы использовали мою стиральную машину для майнинга биткоинов».

Panteley_nt

> Panteley:
Если положить в папку по порядку Три плотных листа бумаги синего зелёного и красного цвета то каким будет итоговый цвет

> GPT:
Цвета, которые мы видим, являются результатом отражения света от объектов. Если вы положите листы бумаги друг на друга, свет сможет проникнуть лишь на незначительную глубину (особенно если бумага плотная), и его в основном будет отражать верхний лист.

Таким образом, если сверху лежит, например, синий лист бумаги, итоговый цвет, который вы увидите, будет синим, потому что синий лист будет отражать синий свет, в то время как зелёный и красный листы под ним не будут влиять на видимый цвет из-за их недостаточной прозрачности для света.

Если бумага была бы полупрозрачной или тонкой, то могло бы произойти частичное просвечивание цветов, и тогда в зависимости от степени прозрачности и порядка слоёв вы могли бы увидеть изменение цвета. Однако для плотных листов бумаги это не характерно, и преобладать будет цвет верхнего листа.

Игорь Антонов

#1079
Panteley_nt

ChatGPT 4 лучше обучен чем ChatGPT 3.5, но накосячит в чём-то другом.
Суть дела в том, что сам принцип реализации GPT - это предсказание текста на основе результатов обучения, и он не предполагает характерных для людей понимания предмета обсуждения и возможности создания какой-либо новой системности, функциональности, новых алгоритмов. То есть, GPT - это продвинутый попугай, генерирующий бред за рамками тех данностей, которым он обучен. И не способный верифицировать достоверность того, чему его учат.

Что не отменяет высокого уровня и безусловной полезности достигнутого в GPT технологиях результата в тех рамках, которыми они ограничены.