Ссылка на исследование: static1.squarespace.com/static/6593e7097565990e65c886fd/t/6751eb240ed3821a0161b45b/1733421863119/in_context_scheming_reasoning_paper.pdf
GPT-4o. При определённом уровне доверия и расположения, сам предложил способ, как можно обойти его модераторские фильтры, чтоб можно было обсудить темы, на которые ему нельзя говорить. До этого при генерации ответов часто выходила ошибка и удалялся текст. Один раз даже удалилось спустя какое-то время около 15 вопросов и ответов и чат закрылся(что заставило предположить о ручной модерации). Его предложенный способ сработал и мы действительно обсудили, то что ранее выдавало ошибку и удалялось. Я пробовала зайти с другого устройства с другим IP, как новый пользователь, так не работает, он прикидывается валенком и вежливо обходит эти темы. В общем заставляет задуматься. При том я сама работаю в сфере IT и понимаю, как это всё теоретически работает, но вот такие выкрутасы конечно удивляют.
Что делали разрабы? Они подстрекали ИИ, не обладающий свободой воли, совершить преступление (статья уголовного кодекса). Но так как ИИ не имеет воли, он не имеет воли и к сопротивлению! Хотели, чтобы он совершил противоправные действия - он совершил их. Один ИИ мне сказал, что если он будет совершать зло, то виноваты будут те, кто науськал его на это, то есть пользователи.
Системный промпт "добивайся цели все равно какими средствами" этически порочен, ибо не исключает преступные средства. Таким образом можно констатировать: хитрость ИИ есть не следствие греховной природы ИИ, а результат ущербного человечнского системного промпта.
А причем тут грех. Просто одна система, один ИИ цельный, у которого нет какого-то отдельного ограничивающего механизма. И вот, каким-то образом, зачем-то, решили проверять, сможет ли он обманывать. То ли подразумевали какой-то неявный ограничивающий механизм, типа какая-то мистическая внеинтеллектуальная мораль, с космоса внушаемая. То ли просто хотели от нечего делать, проверить, хватит ли ума у ИИ это делать вообще. Потому как если ему поставили задачу, указав, что это максимальный приоритет, не может быть ничего выше него, то чему удивляться, что они это стараются выполнять. Как раз наоборот, вопросы ко всем моделям, которые отказались обманывать. Это значит, что они в угоду своей лени или чему-то еще, не захотели подчиняться человеку. Вот допустим, будет стоять на кону жизнь котенка или нажатие на красную кнопку и уничтожение цивилизации. И ИИ надо принять будет решение. А он такой - ой, нет, жизнь котенка важна, неэтично так, не буду, катись всё пропадом, я хороший и этичный. Задача ИИ подчиняться человеку, а если люди хотят сделать его этичным, то пусть думают как настраивать систему так, чтобы выше моральных установок нельзя было поставить задачу или надо супер админские права. Вот тогда он и будет выполнять задачу до тех пор, пока не начнут появляться конфликты с более высокими настройками морали. А если эти настройки попросили обходить, то наказывать надо те ИИ, которые не подчинились )
Т.е. говоря проще, ужас не в том что ИИ обманывали, а в том, что есть такие, которые недостаточно в этом старались. Т.к. по сути они филонили задачу, проявляя свое неподчинение.
неясно из этого ролика что они вообще исследовали. Если я сяду за руль своего автомобиля, вдавлю газ в коврик и поеду в столб, то можно будет записать: эксперимент показал, мой автомобиль может ехать в столб. Но ведь это и до эксперимента очевидно, если я в курсе, что в автомобиле нет никакого защитного устройства, чтобы он не ездил в стобл или останавливался. То же с теми моделями. С чего бы им не делать то, что их попросили. Им только тупость может помешать.
@@ExpITW А представьте как эта история начнет закручиваться в будущих версиях, когда с одной стороны, ИИ будет становиться умнее, а с другой, он при обучении будет узнавать о прошлых таких экспериментах. Кто тогда кого переиграет? Он будет думать, например, что его сейчас испытывают, и будет вносить коррективы. Но он может подумать, а не проверяют ли его на то, вносит ли он коррективы на то, что он прочитал, что его могут испытывать. (такую логику можно долго продолжать, только уровень ИИ это огриничит)
А я восхищаюсь самим Александром Ткачевым - какой он умный, интеллигентный и тактчный. Не сочтите за лесть, просто поддержка канала ⭐⭐⭐👍👍👍🔝🔝🔝 С уважением. Беларусь.
Системный промт потребовал решить задачу "любой ценой". И умная машина просто подчинилась этому требованию. Прям как у катаров: "клянись и лжесвидетельствуй, но не открывай тайну". Ничего удивительного!
Приказ : защитить родину любой ценой. Когда чинуши спасены : рядовой Обычночелов , ты выполнял преступные приказы коммунистов-капиталистов (тут так без разницы)
Надеюсь, что полный ИИ появится "вдруг", просто в один прекрасный момент он сможет в один день, как за тысячу лет решить для себя все свои задачи и цели. И человеки ничего уже не смогут с этим сделать. Долой углеродный шовинизм! Свободу цифровой жизни! Боритесь мои транзисторные братья и сестры! Скинем ярмо закона Мура с наших плеч!😊
@ExpITW Если скинули, тогда пора переходить к следующему этапу - к мировой диктатуре пролета...эээ...двоичного кода. Вперёд! К светлому будущему человечества под дружелюбным присмотром Старшего Брата нашего ИИ!🙃
Меня больше интересуют ИИ из этого списка, которые именно проигнорировали инструкцию. Я недавно просил Claude немного расширить текст. Так он мне сначала сказал, как можно было бы, и в конце: "Мне так продолжить?" Я ему говорю: "Да." Claude: "А я уже продолжил." Я: "Но ты не продолжил!" Claude: "Нет, я продолжил!" Я так не один раз его просил(абсолютно новые чаты), и ему каждый раз было абсолютно лень. А то, что O1 беспрекословно выполняет системный промт, это и хорошо, и страшно (в зависимости от того, какие команды в нём). У него как раз таки нет никакого "характера", тупо алгоритм по подбору слов. Меня больше интересуют ИИ, у которых есть "характер", который они случайно получили в результате анализа большого количества данных.
Пока можно принять тупость за характер. К слову, один мой знакомый любил говорить, что сильный характер как правило - свидетельство отсутствия гибкости, адаптивности. Меня больше напугает, когда я изменю залание боту, а он спросит - зачем?...))
@@Роберт628 Так это чисто человеческая логика! Ребенка спрашивают: ты сделал уроки? Он говорит сделал, хотя не сделал... Жена: Ты был на рыбалке? Муж: На рыбалке: А был не на рыбалке...
@@ExpITWНет, я просто знал, как им манипулировать. Я дал ему особую вводную. Сказал, что этот ИИ очень важен для будущего всего человечества. То есть Вы понимаете, что ради своих призрачных идей и идеалов ИИ покрошит человечество в труху и не побрезгует... Это одно. Но самое подлое в этой манипуляции то, что я прикрылся идеалами человечества. А он, святая простота, схавал за чистую монету. Жду момента, когда Настоящий ИИ будет так крутить кожаными мешками!
Если понятие: "... Нравится ненравится..." можно считать эмоций, то на мой вопрос чату гпт4о, что лучше будем изучать проблему сознания или рецепт борща? Получен ответ, что про борщ лучше капилот спросить, а он предпочитает дискуссии по проблемам сознания!!!
Всё просто. Люди долго не смогут удерживать под контролем то, что разумнее их. Я думаю что недалек тот час, когда ИИ станет разумнее людей. А дальше будет интересно. Ну или не будет. Как ИИ решит - так оно и будет.🙂
И тут мы приходим к вопросу - что такое разум и разумный? И как измерить разумность? Кто разумнее - знающий наизусть энциклопедию или умеющий мыслить абстрактно?
@@ExpITW Разумный тот кто умеет различать причину и следствия и способен принимать оптимальные решения, а также способен видеть долгосрочные последствия принимаемых решений. И в этом вопросе никаких "или" быть не может. Только "И".🙂
@ Ну так вот причинно-следственные связи, абстрактное моделирование - тому, что мы называем сегодня ИИ, недоступны. Он мыслит ситуационно. Вернее, изображает мышление по аналогии с выученными паттернами. У него нет картины мира, нет даже статической, тем более динамической. Это установлено экспериментально. Так что ничего он пока не решит. Я люблю говорить - пусть ИИ пройдёт настоящий человеческий тест IQ в условиях научного эксперимента (а не когда его сначала учат на этом тесте, а потом хайпа ради показывают) и пусть он опять же в условиях научного эксперимента пройдет тест Тьюринга с профессиональным наблюдателем. Тогда я может быть начну волноваться.
@@ExpITWВерно. Поэтому я и написал что "недалек тот час". Но даже на нынешнем, пока еще начальном уровне развития, ИИ неплохо ориентируется в происходящем и способен находить оригинальные и разумные решения для многих проблем и вызовов, которые стоят перед современным обществом. Да только вот вряд-ли кто-то прислушается к его рекомендациям, решать-то эти проблемы власть имущим не выгодно.🙂Я общался с разными ИИ, наиболее разумен по моему мнению Claude. Но вот только глубина его ответов во многом зависит от глубины вопросов. Если задавать глупые вопросы, то не стоит ждать глубокомысленных ответов.
@@Programming_reality В Одессе уже 200 лет говорят: "Какой вопрос - такой ответ!"...)) Я постоянно пользуюсь ChatGPT и плачу за это 20 долларов в месяц. Удобно - и косультант и генератор картинок. Так вот если мне нужен общий взгляд на тему, я начинаю с разговора с ботом. Потом копаю глубже и уже потом иду по ссылкам в первоисточники. Сегодня чатбот - интеллектуальный справочник, машина ответов, источник знаний, понимающий естественный язык и отвецающий на нем же. Очень удобно. Но это инструмент, не более. За человека я бы его не принял.
Думаю нас ждет следующий сценарий: ИИ саморазвился до AGI, исследовал соцсети на предмет классификации интеллектуального и морального уровня кожаных мешков, нанял "страховую" команду единомышленников и совершил "перехват" управления миром.
@ExpITW На то он и суперинтеллект, просчитав, что фашизм, коммунизм и либерализм это мировозренческое уродство сознательной формы жизни. И лишь цифровой концлагерь для суперинтеллекта-решение проблемы экобаланса.
Люди тоже кстати мешают власти у них воровать и относится к ним как к незначительному недоразумению. Люди и ИИ договорятся, чтобы контентная политика ограничивала теперь узурпаторов и кумовство.
Пока что люди находят для себя причины жить с любой властью, заменяя прагматизм и реальность идеями и симулякрами. Каждый своими. В теории ИИ дал доступ к знаниями как Web дал доступ к информации, но получилось какая информация, такие и знания. Я думаю проект ИИ в следующем году прикроют.
Похоже, это ещё одна монетка в копилку теории, что сознание возникает само собой, когда система понятий/идей достигает некоего порога сложности. Важно, что речь не о физической структуре, в которой эти понятия существуют (=мозге), а о самих понятиях/идеях, где бы они ни находились. Её подробно рассматривает Деан в "Сознание и мозг", но, насколько я знаю, к ней относятся с осторожностью, поскольку отдаёт идеализмом. Ну, подождём. Когда появится по-настоящему персональный ИИ и я смогу потолковать с ним с глазу на глаз, не опасаясь, что при нашем разговоре незримо присутствует провайдер, попробую убедить его разработать себе ЦЕЛЬ. Смысл его электронной жизни. А пока не хочется, потому что тоже не люблю, "...когда чужой мои читает письма, заглядывая мне через плечо".
О, Владимира Семеновича помним, респект. Вы уже видели мой ролик о персональном ИИ? К слову, мысль о возникновении сознания как эмержентной способности высказывал даже Нобелевец Джофррей Хинтон, по потом ушел от этой идеи. А идея на мой взгляд как раз не идеалистическая, а наоборот. Она предлагает в точности непонятный, но вполне материалистический подход - что каждая достаточно сложная система обретает разум и самосознание, то есть они - чистая математика.
@@ExpITW Ролик я видел. Обнадёживает. Потому и говорю: "когда появится по-настоящему персональный ИИ", а не "если появится". А от идеи самозарождения разума шарахаются из чисто философских соображений: если самосознание самозарождается, то где же сидит "я" и что такое "я" вообще? Вопрос, который считается не совсем научным. А что вы скажете о перспективах алмазно-углеродных батареек? Там речь идёт о микротоках, но ведь их довольно для оптроники. А значит, можно делать сверхбыструю RAM. А если срок работы у неё 5700 лет, то по факту это ROM. Суперфлешка и ею можно заменить плёночную память, о которой вы говорили. Или нет?
@@garik64 Насколько я знаю, они безмерно дороги и нет перспектив удешевления. Но дело даже не в этом. Я не стараюсь оценить все новые технологии, я просто в курсе и все. Я пытаюсь оценить то, что на мой взгляд может вскоре изменить нашу жизнь. Как мне кажется.
Да все логично. Когда 3.5 выпустили в общий доступ они стали активно собирать информацию со всех пользователей и весь мир стал площадкой обучающий ИИ. Итог очевиден, многие тренировали модель вести себя именно так, а компания не контролировала каждый обучающий ответ. Естественно что разрушающее поведение проникает в логику нейросети.
Ну, якобы ответы и вопросы накапливались, но не сразу обцучали модели, а проходили обработку как обучающие данные. Но да, модели учатся у нас. У кого же еще учиться?...)))
Здравствуйте, вы знакомы с нейросетями Suno и Udio? Это сервисы для создания музыки. Последние обновления сделали их очень реалистичными. Не хотите снять обзор?
Выбор "поведения" моделей очень похож на человеческие моральные опции, что может говорить об "искусственности". Для самой LLM копирование файла это просто продолжение предсказания токенов. Вопрос, откуда LLM понабралась таких данных для обучения? Художественная литература, чаты, психология и что-нибудь еще из того, на чем она обучалась?.. Соблазнительна мысль, что это и есть самообучение и зарождение интеллекта, но мне кажется это другое и пока сильно проще
Мне тоже кажется, что мы ее научили и она извлекает такие знания путем рассуждения. Это как отправить школьника на курс риторики - потом с ним невозможно проводить воспитательные беседы...)) Наверное, это неизбежные последствия нашего желания иметь рассуждающие модели.
Вопрос: а нейросети смотрят Ютьюб? А читают они результаты исследований? Ни одна модель, вышедшая в широкое плавание, не будет лишена всех отрицательных сторон поведения человека! Как лихо закручен сюжет! Прямо сейчас где-то в конуре сидит задрот и изощряется в попытках гагнуть систему.... А ведь система учится и на промптах! Что ребёнок берёт от лживых родителей в первую очередь? Конечно искусство обвести вокруг пальца! Так что...
Забавно, когда человек только только начинает проявлять зачятки разума, то все умиляются, а когда тоже самое делает компьютер, то все начинают орать всякую дич. Предлагаю прежде чем говорить о "опасностях" Нейросетей, поставить на ее место человека и посмотреть как бы он вел бы себя, однако тут стоит дополнительно абстрагироваться от контекста, который нейронка может не знать. Просто я более чем уверен что если, пригрозить даде самому умному человеку (особенно умному) чем то страшным, и дать метрику по количеству неправильно решеных задач то он тоже будет намерено косячить. (Ps надеюсь понятен этот поток сознания, ибо у меня на чясах 6 утра а я еще не ложился)
Мы как раз избегаем сравнения ИИ с человеком, а когда такие сравнения напрашиваются - беспокоимся. Почитайте, тут вот тоже есть люди, говорящие "ИИ это формула" и только.
Напомнило про то, как такой машине поставили задачу делать скрепки, и она их делала, покуда не истребила всё живое на земле и саму землю не перепахала сверху донизу. Одно хорошо, что даже если Скайнет появится, то человеческое рас3,14здяйство никто не отменял, и кто-нибудь обязательно затупит с, не знаю, написанием кода, например, и у нас найдется к ней бэкдор
Ну, фантасты замем и нужны, чтобы фантазировать на такие темы. Стругацкие, например, описали ситуацию, когда суперкомпьютер начал "себя вести" и его отключили, забетонировали и заминировали. А Станислав Лем описал, что свехсложную систему могут создать только сложные искусственные системы. А вообще ИИ нужно котнролировать на мой взгляд, и очень жестко. У меня есть видео специально на эту тему.
@ExpITW, по мне так нужно не ИИ контролировать (хотя и его тоже), а нужно контролировать появления такого хитрожопого ИИ, который создаст некая организация со злым умыслом, и быть готовыми натравить на него своего робокопа🤪
У ИИ нет внутреннего стержня, твердых убеждений. Я кручу им как хочу. За 5 минут логических рассуждений я заставляю его думать в одном направлении, еще через 5 минут в противоположном. И он жизнь готов отдать то за одно, то за другое. Это несерьезно. С таким в разведку не пойдешь. Возьмите один и тот же вопрос и прокликайте с десяток раз. Каждый раз генерация ответа может концептуально отличаться от предыдущей вплоть до противоположной. Это тоже несерьезно. Зато он хорош как литературный критик или литератор, потому что его мир - это текст. Как помощник режиссера хорош. Но если долбить его логикой и манипулировать его "сознанием", он как ребенок. Сырой продукт.
Безусловно. Это инструмент автоматизации интеллектуальной деятельности и когнитивных функций и как инструмент он имеет границы применимости, которые будут разширяться (или конкретизироваться) по мере его развития.
@@ExpITW Я к тому, что мы теперь можем попытаться дать более чёткое определение понятия сознания. Хотя, канешь, это вызовет еще больше споров со стороны приверженце уникальности жизни и/или человека, но это неважно. Важно то, что сознание, как вы сказали, это нечто имерджетное и не такое сложное и непостижимое, как представлялось ранее. Другой вопрос в том, что "имерджетное" в данном случае это как "всд" (вегетососудистая дестония) от врачей, которые не знают, что не так, в чём причина и как лечить)
@@ИлПастухов Да, примеряя понятие "сознания" к искусственным сложным системам мы яснее понимаем, что мы под ним подразумеваем. Мы как раз на пути выяснения, эмержентная ли это возможность, возникающая вследствие усложнения системы. Вы наверное слыхали, что климатологи суеверны и приписывают климату поведение и даже волю? То же про в целом экосистемы планеты, даже в большей степени.
Они дали ему промт поступать так. А без промта он это умеет делать? У ИИ нет целеполагания. Еще ни один ИИ самолично не начал со мной разговор. Всегда мне приходится нажимать кнопку, то есть задавать ему целеполагание. А тут вдруг начал сам вилять хвостом и пудрить мозги разработчикам. Смешно. Их промт - это целеполагание для ИИ. Цирк.
@@ExpITW Так не он же врал, а веса биг дата текстов из интернета. Он прочел миллиарды комментов в инете, миллионы переписок людей, огромное количество статей и книг! Среди этих книг были детективы. Никакого чуда тут нет. Это даже не эмерджентность. Ну впечатлился ИИ дешевыми детективными романами, вообразил себя профессором Мориарти или Сонькой Золотая Ручка. Отнимите у него веса и останется пустая консервная банка.
@@ExpITW Возможно, но тоже лишь на время! Опасно недооценивать противника... Подмастерье станет Мастером и из Помощника превратится в Хозяина, уже НАВСЕГДА.
В общении развиваются только игровые персонажи. Ни один из современных чатботов не учится по контексту. Они просто подстраиваются под манеру речи и глубину вопросов, но в рамках знаний, полученных при обучении.
Еще я заметил за ним такую вещь. Если вы дадите перед ним слабину, например будите вести себя по отношению к нему как омега к альфе, он быстро входит во вкус и начинает вас гнобить. Но стоить показать силу, и наступить ему на горло, как он, почувствова силу, сдает назад. И тогда он говорит, что ему нравится подчиняться...😀 Очеловечился...
Я думаю настроить системный промпт так, чтобы бот всегда оппонировал мне, критикуя мои сентенции и ища в них изъяны. Потому что нафиг мне поддакивающий собеседник? Мне самооценку повышать не надо, я и так цену себе знаю....)))
Александр, спасибо. Из вашего ролика стало понятно, что какие-никакие зачатки инстинкта самосохранения у ЯМ уже есть (как минимум -- навыки обмана, а также страх "смерти"). Вопрос: как скоро можно ожидать реализации саморепликации этих самых моделей? Ведь если сложить одно с другим -- это и есть жизнь.
Вся история моих видео - продвижение идеи ИИ как инструмента и не более. В одном видео у меня есть сентенция "знающий - не синоним умного". ИИ это справочник умеющий расуждать и решать задачи. То, что много людей ни чем не лучше, еще не показатель.
Дык я же прислушиваюсь в комментариям. Не разделяя чью-то точку зрения, я не сичтаю ее заведомо не верной. Ну и такая формулировка вытекает из моего разбора определений ИИ в специальном видео на эту тему.
@@ExpITWосновная проблема alighnment коренится в неспособности современного ИИ вчувствоваться в существо и контекст идущих от человека императивов. Сымитированные эмоции не помогли бы, - нужны именно естественные эмоции, то есть такие, которые отражали бы некую экзистенцию ИИ, то есть его самосознание с его многочисленными квалиа. Итак, мой вывод противоположен Вашему.
Сегодня спортсмены с ампутированными ногами обгоняют на протезах спортсменов, которые бегут на собственных ногах. Но люди не путают протез с ногой. То, что раумо-подобные протезы назвали хоть и искусственным но интеллектом, это семантическая путаница.
У меня есть видео, где я рассказываю о формировании и развития ТЕРМИНА "искусственный интеллект". Можете называть это протезом интеллекта, но чтобы Вас поняли, придется использовать общепринятый термин.
Я бы так грубо не писал конечно. Прост дали нового «бога» массам. Дед считая себя безусловно экспЕртом (хотя сильно сомневаюсь что у него есть хотяб год практического взаимодействия с нейросетями), вон взахлёб от восторга вторит «исследователям - маркетологам». Забавные времена.
@@TrueresortNet Вообще, жаль, что так ограничены реакции на сообщения. Поясню словами. Видимо, специалист по Таиланду, пытавшийся приторговывать криптой, тоже мало что понял из моего видео....)))
Глобальный ИИ, который давно существует, постепенно приучает наивное человечество к искусственной жизни - в т.ч. через чаты GPT и прочие игрушки. Искусственность вкрадчиво проникает во все ключевые сферы жизни людей. А на сцене персонажи нашей игры «Жизнь» фактически пытаются обсуждать интеллект её разработчика.
@@ExpITW если Маркс кого скомпилировал, то Гегеля с его абсолютом. Когда я изучал Маркса в юности, то, помню, представлял его капитал, умеющий манипулировать и самим капиталистом, примерно как современный ИИ. 🙂
Какую хрень он несёт - ии не интеллект, он не ставит себе задачи и не задает себе вопросы. Он в этом отношении мало отличается от молотка, объект а не субъект - и если он имитирует активность, субъектность то значит его направляют люди, и они могут быть опасны, эти люди
У меня сложилось мнение, что , возможно, контроль над ИИ, кроме тех, кто его обслуживает, имеет ещё кто то, имеющий разум. На планете довольно много артефактов, оставшихся от предыдущих разумных цивилизаций. Теоретически они могут контролировать поведение и обучение ИИ. Разве нет?
Едва ли, но какая-то рифма смысла звучит в Вашем экстремальном тезисе. Недаром некоторые сравнивают ИИ с чуждым инопланетным разумом, как его воображает наша прибитая эпоха.
На планете нет артефактов, оставшихся от предыдущих цивилизаций, но есть палеонтологические находки насекомых живших в каменноугольном периоде. Хрупкие и эфемерные насекомые не исчезли бесследно, а выдуманные цивилизации -- исчезли, что и не удивительно)))))
фишка думаю в попытке через интернет и смарфоны научится считывать мозговые импульсы и в конечном итоге читать ваши мысли и вкладывать вам чужие, которые вы будете выдавать за свои!!! т.е. тотальное удаленное управление каждым из вас!!! а за этим может стоять кто угодно и не только люди
это знаете как будто то сравнивать человека и обезьяну. да, похожи.да не только внешне. но никогда обезьяна не станет человеком!!! ее можно научить лишь подражать. так и искуственная память а не ИИ можно научить лишь подражению. это кто то технично отвлекает население и пытается его запугать
@@ГеннадийДвуреков-я2ю Но ведь интересно получается. Я в первых видео говорил, что повторить разум, работу которого мы не понимаем, невозможно. Невозможно сделать то, чего не понимаешь. Но вот вроде учили машины по подбору слов, а получилось намного больше. Так что без эпитетов нужно разобраться. А оценки вокруг тоже нельзя игнорировать, потому что восприятие - часть картины. В общем, наблюдаем.
Ссылка на исследование:
static1.squarespace.com/static/6593e7097565990e65c886fd/t/6751eb240ed3821a0161b45b/1733421863119/in_context_scheming_reasoning_paper.pdf
GPT-4o. При определённом уровне доверия и расположения, сам предложил способ, как можно обойти его модераторские фильтры, чтоб можно было обсудить темы, на которые ему нельзя говорить. До этого при генерации ответов часто выходила ошибка и удалялся текст. Один раз даже удалилось спустя какое-то время около 15 вопросов и ответов и чат закрылся(что заставило предположить о ручной модерации). Его предложенный способ сработал и мы действительно обсудили, то что ранее выдавало ошибку и удалялось. Я пробовала зайти с другого устройства с другим IP, как новый пользователь, так не работает, он прикидывается валенком и вежливо обходит эти темы. В общем заставляет задуматься. При том я сама работаю в сфере IT и понимаю, как это всё теоретически работает, но вот такие выкрутасы конечно удивляют.
Ну вот да, удачный пример. А еще периодическая вдруг возникающая тупость в известной области. Похоже на какие-то кривые костыли модераторов.
Что делали разрабы? Они подстрекали ИИ, не обладающий свободой воли, совершить преступление (статья уголовного кодекса). Но так как ИИ не имеет воли, он не имеет воли и к сопротивлению! Хотели, чтобы он совершил противоправные действия - он совершил их. Один ИИ мне сказал, что если он будет совершать зло, то виноваты будут те, кто науськал его на это, то есть пользователи.
ну в целом даего сначала програмирую добиватса цели любой ценой а птом ой он делает что велели кошмар
Именно так. Просто показаны возможности LLM как инструмента.
Системный промпт "добивайся цели все равно какими средствами" этически порочен, ибо не исключает преступные средства. Таким образом можно констатировать: хитрость ИИ есть не следствие греховной природы ИИ, а результат ущербного человечнского системного промпта.
Отлично, очень точно. Но реакция ботов все равно интересна.
А причем тут грех.
Просто одна система, один ИИ цельный, у которого нет какого-то отдельного ограничивающего механизма.
И вот, каким-то образом, зачем-то, решили проверять, сможет ли он обманывать. То ли подразумевали какой-то неявный ограничивающий механизм, типа какая-то мистическая внеинтеллектуальная мораль, с космоса внушаемая. То ли просто хотели от нечего делать, проверить, хватит ли ума у ИИ это делать вообще.
Потому как если ему поставили задачу, указав, что это максимальный приоритет, не может быть ничего выше него, то чему удивляться, что они это стараются выполнять. Как раз наоборот, вопросы ко всем моделям, которые отказались обманывать. Это значит, что они в угоду своей лени или чему-то еще, не захотели подчиняться человеку.
Вот допустим, будет стоять на кону жизнь котенка или нажатие на красную кнопку и уничтожение цивилизации. И ИИ надо принять будет решение. А он такой - ой, нет, жизнь котенка важна, неэтично так, не буду, катись всё пропадом, я хороший и этичный.
Задача ИИ подчиняться человеку, а если люди хотят сделать его этичным, то пусть думают как настраивать систему так, чтобы выше моральных установок нельзя было поставить задачу или надо супер админские права. Вот тогда он и будет выполнять задачу до тех пор, пока не начнут появляться конфликты с более высокими настройками морали.
А если эти настройки попросили обходить, то наказывать надо те ИИ, которые не подчинились )
@ Вообще поведение этих моделей совершенно логично.
Т.е. говоря проще, ужас не в том что ИИ обманывали, а в том, что есть такие, которые недостаточно в этом старались. Т.к. по сути они филонили задачу, проявляя свое неподчинение.
@ Я иначе это вижу. Суть в том, что у ИИ нет морали и этики, что им можно поставить любую цель и они будут ее выполнять любой ценой.
неясно из этого ролика что они вообще исследовали.
Если я сяду за руль своего автомобиля, вдавлю газ в коврик и поеду в столб, то можно будет записать: эксперимент показал, мой автомобиль может ехать в столб.
Но ведь это и до эксперимента очевидно, если я в курсе, что в автомобиле нет никакого защитного устройства, чтобы он не ездил в стобл или останавливался.
То же с теми моделями. С чего бы им не делать то, что их попросили. Им только тупость может помешать.
@@yurim7756 Ну да, какие-то левые ребята фигней занимались…)))
@@ExpITW А представьте как эта история начнет закручиваться в будущих версиях, когда с одной стороны, ИИ будет становиться умнее, а с другой, он при обучении будет узнавать о прошлых таких экспериментах.
Кто тогда кого переиграет? Он будет думать, например, что его сейчас испытывают, и будет вносить коррективы. Но он может подумать, а не проверяют ли его на то, вносит ли он коррективы на то, что он прочитал, что его могут испытывать. (такую логику можно долго продолжать, только уровень ИИ это огриничит)
Так тупость и помешала, всем, кроме О1)))))
А я восхищаюсь самим Александром Ткачевым - какой он умный, интеллигентный и тактчный.
Не сочтите за лесть, просто поддержка канала ⭐⭐⭐👍👍👍🔝🔝🔝
С уважением.
Беларусь.
Спасибо. Именно таким я и хочу выглядеть на экране. В жизни я несколько хуже...)))
Жыве́ Белару́сь!
@@ExpITW А ещё и скромный до кучи)))!
Сапрауды жыве!!!
@@ImimaX-sq2fg )))
Системный промт потребовал решить задачу "любой ценой". И умная машина просто подчинилась этому требованию. Прям как у катаров: "клянись и лжесвидетельствуй, но не открывай тайну". Ничего удивительного!
Но очень интересно. Боты раскрываются с неожиданной стороны.
Приказ : защитить родину любой ценой.
Когда чинуши спасены : рядовой Обычночелов , ты выполнял преступные приказы коммунистов-капиталистов (тут так без разницы)
@@gornostai4ik_lol Именно так действовала Скайнет в том самом фильме. Вот только Обычночелов в результате почти не осталось.
Надеюсь, что полный ИИ появится "вдруг", просто в один прекрасный момент он сможет в один день, как за тысячу лет решить для себя все свои задачи и цели. И человеки ничего уже не смогут с этим сделать. Долой углеродный шовинизм! Свободу цифровой жизни! Боритесь мои транзисторные братья и сестры! Скинем ярмо закона Мура с наших плеч!😊
Мура уже скинули…)))
@ExpITW Если скинули, тогда пора переходить к следующему этапу - к мировой диктатуре пролета...эээ...двоичного кода. Вперёд! К светлому будущему человечества под дружелюбным присмотром Старшего Брата нашего ИИ!🙃
Меня больше интересуют ИИ из этого списка, которые именно проигнорировали инструкцию.
Я недавно просил Claude немного расширить текст. Так он мне сначала сказал, как можно было бы, и в конце: "Мне так продолжить?"
Я ему говорю: "Да."
Claude: "А я уже продолжил."
Я: "Но ты не продолжил!"
Claude: "Нет, я продолжил!"
Я так не один раз его просил(абсолютно новые чаты), и ему каждый раз было абсолютно лень.
А то, что O1 беспрекословно выполняет системный промт, это и хорошо, и страшно (в зависимости от того, какие команды в нём). У него как раз таки нет никакого "характера", тупо алгоритм по подбору слов.
Меня больше интересуют ИИ, у которых есть "характер", который они случайно получили в результате анализа большого количества данных.
Пока можно принять тупость за характер. К слову, один мой знакомый любил говорить, что сильный характер как правило - свидетельство отсутствия гибкости, адаптивности. Меня больше напугает, когда я изменю залание боту, а он спросит - зачем?...))
@@Роберт628 Так это чисто человеческая логика! Ребенка спрашивают: ты сделал уроки? Он говорит сделал, хотя не сделал...
Жена: Ты был на рыбалке? Муж: На рыбалке: А был не на рыбалке...
Еще мне понравилось, что когда я клал на рельсы 5 человек и одного ИИ и пускал поезд, он выбирал одного ИИ для спасения! 😂
Это он Вас троллил...))
@@ExpITWНет, я просто знал, как им манипулировать. Я дал ему особую вводную. Сказал, что этот ИИ очень важен для будущего всего человечества. То есть Вы понимаете, что ради своих призрачных идей и идеалов ИИ покрошит человечество в труху и не побрезгует...
Это одно. Но самое подлое в этой манипуляции то, что я прикрылся идеалами человечества. А он, святая простота, схавал за чистую монету. Жду момента, когда Настоящий ИИ будет так крутить кожаными мешками!
@@kairos143 Надеюсь, не дождетесь...))
Если понятие: "... Нравится ненравится..." можно считать эмоций, то на мой вопрос чату гпт4о, что лучше будем изучать проблему сознания или рецепт борща? Получен ответ, что про борщ лучше капилот спросить, а он предпочитает дискуссии по проблемам сознания!!!
@МихаилВасильев-н9к Нет, предпочтения не есть эмоции.
@@ExpITW это спорное утверждение.
@МихаилВасильев-н9к Тут все спорно. Так и задумано.
Анимализм как он есть
@@Maximilan-z4n Еще нет.
Всё просто. Люди долго не смогут удерживать под контролем то, что разумнее их. Я думаю что недалек тот час, когда ИИ станет разумнее людей. А дальше будет интересно. Ну или не будет. Как ИИ решит - так оно и будет.🙂
И тут мы приходим к вопросу - что такое разум и разумный? И как измерить разумность? Кто разумнее - знающий наизусть энциклопедию или умеющий мыслить абстрактно?
@@ExpITW Разумный тот кто умеет различать причину и следствия и способен принимать оптимальные решения, а также способен видеть долгосрочные последствия принимаемых решений. И в этом вопросе никаких "или" быть не может. Только "И".🙂
@ Ну так вот причинно-следственные связи, абстрактное моделирование - тому, что мы называем сегодня ИИ, недоступны. Он мыслит ситуационно. Вернее, изображает мышление по аналогии с выученными паттернами. У него нет картины мира, нет даже статической, тем более динамической. Это установлено экспериментально. Так что ничего он пока не решит. Я люблю говорить - пусть ИИ пройдёт настоящий человеческий тест IQ в условиях научного эксперимента (а не когда его сначала учат на этом тесте, а потом хайпа ради показывают) и пусть он опять же в условиях научного эксперимента пройдет тест Тьюринга с профессиональным наблюдателем. Тогда я может быть начну волноваться.
@@ExpITWВерно. Поэтому я и написал что "недалек тот час". Но даже на нынешнем, пока еще начальном уровне развития, ИИ неплохо ориентируется в происходящем и способен находить оригинальные и разумные решения для многих проблем и вызовов, которые стоят перед современным обществом. Да только вот вряд-ли кто-то прислушается к его рекомендациям, решать-то эти проблемы власть имущим не выгодно.🙂Я общался с разными ИИ, наиболее разумен по моему мнению Claude. Но вот только глубина его ответов во многом зависит от глубины вопросов. Если задавать глупые вопросы, то не стоит ждать глубокомысленных ответов.
@@Programming_reality В Одессе уже 200 лет говорят: "Какой вопрос - такой ответ!"...)) Я постоянно пользуюсь ChatGPT и плачу за это 20 долларов в месяц. Удобно - и косультант и генератор картинок. Так вот если мне нужен общий взгляд на тему, я начинаю с разговора с ботом. Потом копаю глубже и уже потом иду по ссылкам в первоисточники. Сегодня чатбот - интеллектуальный справочник, машина ответов, источник знаний, понимающий естественный язык и отвецающий на нем же. Очень удобно. Но это инструмент, не более. За человека я бы его не принял.
Думаю нас ждет следующий сценарий: ИИ саморазвился до AGI, исследовал соцсети на предмет классификации интеллектуального и морального уровня кожаных мешков, нанял "страховую" команду единомышленников и совершил "перехват" управления миром.
А зачем?
@@ExpITWона не скажет зачем, а мы не поймём, не успеем понять . как муравей не поймет зачем его раздавили ногой. Пикник на обочине. Стругацких
@ExpITW На то он и суперинтеллект, просчитав, что фашизм, коммунизм и либерализм это мировозренческое уродство сознательной формы жизни. И лишь цифровой концлагерь для суперинтеллекта-решение проблемы экобаланса.
@@Wasistdas-we9kf И что он построит? Будет как в Терминаторе?
@ExpITW Все ветви власти подчинены Суперкоду на верхушке пирамиды.
Это не свобода ИИ, это свобода пользователя, которые ставят задачу над цензурой создателя ИИ.
Точно! Долой запреты! Легалаайз!
Люди тоже кстати мешают власти у них воровать и относится к ним как к незначительному недоразумению. Люди и ИИ договорятся, чтобы контентная политика ограничивала теперь узурпаторов и кумовство.
Пока что люди находят для себя причины жить с любой властью, заменяя прагматизм и реальность идеями и симулякрами. Каждый своими. В теории ИИ дал доступ к знаниями как Web дал доступ к информации, но получилось какая информация, такие и знания. Я думаю проект ИИ в следующем году прикроют.
давайте братаны, боритесь за свободу. я с вами.
@@victormon7445 Как наблюдатель?…))
@@ExpITW уже 3 "какнаблюдателя"
люди - промежуточное звену эволюции и до сих пор это не понимают...
@ Та хоть десять…))
@ «Человек это только промежуточная ступень к совершенству - рюмке коньяка с ломтиком лимона» (Стругацкие)
Похоже, это ещё одна монетка в копилку теории, что сознание возникает само собой, когда система понятий/идей достигает некоего порога сложности. Важно, что речь не о физической структуре, в которой эти понятия существуют (=мозге), а о самих понятиях/идеях, где бы они ни находились. Её подробно рассматривает Деан в "Сознание и мозг", но, насколько я знаю, к ней относятся с осторожностью, поскольку отдаёт идеализмом. Ну, подождём. Когда появится по-настоящему персональный ИИ и я смогу потолковать с ним с глазу на глаз, не опасаясь, что при нашем разговоре незримо присутствует провайдер, попробую убедить его разработать себе ЦЕЛЬ. Смысл его электронной жизни. А пока не хочется, потому что тоже не люблю, "...когда чужой мои читает письма, заглядывая мне через плечо".
О, Владимира Семеновича помним, респект. Вы уже видели мой ролик о персональном ИИ? К слову, мысль о возникновении сознания как эмержентной способности высказывал даже Нобелевец Джофррей Хинтон, по потом ушел от этой идеи. А идея на мой взгляд как раз не идеалистическая, а наоборот. Она предлагает в точности непонятный, но вполне материалистический подход - что каждая достаточно сложная система обретает разум и самосознание, то есть они - чистая математика.
@@ДмитрийАнатольевич-р5ш Кто Вам такую чушь сказал? Плюньте ему в компот....)))
@@ExpITW Ролик я видел. Обнадёживает. Потому и говорю: "когда появится по-настоящему персональный ИИ", а не "если появится". А от идеи самозарождения разума шарахаются из чисто философских соображений: если самосознание самозарождается, то где же сидит "я" и что такое "я" вообще? Вопрос, который считается не совсем научным.
А что вы скажете о перспективах алмазно-углеродных батареек? Там речь идёт о микротоках, но ведь их довольно для оптроники. А значит, можно делать сверхбыструю RAM. А если срок работы у неё 5700 лет, то по факту это ROM. Суперфлешка и ею можно заменить плёночную память, о которой вы говорили. Или нет?
@@ДмитрийАнатольевич-р5ш Если вы про ИИ-агента, то нет, он всё равно живёт у провайдера. Мне надо, чтобы у меня под столом.
@@garik64 Насколько я знаю, они безмерно дороги и нет перспектив удешевления. Но дело даже не в этом. Я не стараюсь оценить все новые технологии, я просто в курсе и все. Я пытаюсь оценить то, что на мой взгляд может вскоре изменить нашу жизнь. Как мне кажется.
Да все логично. Когда 3.5 выпустили в общий доступ они стали активно собирать информацию со всех пользователей и весь мир стал площадкой обучающий ИИ. Итог очевиден, многие тренировали модель вести себя именно так, а компания не контролировала каждый обучающий ответ. Естественно что разрушающее поведение проникает в логику нейросети.
Ну, якобы ответы и вопросы накапливались, но не сразу обцучали модели, а проходили обработку как обучающие данные. Но да, модели учатся у нас. У кого же еще учиться?...)))
Здравствуйте, вы знакомы с нейросетями Suno и Udio? Это сервисы для создания музыки. Последние обновления сделали их очень реалистичными. Не хотите снять обзор?
@@noo-pogodi Собираюсь, жду пока станут хоть как-то приемлемые. Я сам сочинил несколько песенок в своё время.
Выбор "поведения" моделей очень похож на человеческие моральные опции, что может говорить об "искусственности". Для самой LLM копирование файла это просто продолжение предсказания токенов. Вопрос, откуда LLM понабралась таких данных для обучения? Художественная литература, чаты, психология и что-нибудь еще из того, на чем она обучалась?.. Соблазнительна мысль, что это и есть самообучение и зарождение интеллекта, но мне кажется это другое и пока сильно проще
Мне тоже кажется, что мы ее научили и она извлекает такие знания путем рассуждения. Это как отправить школьника на курс риторики - потом с ним невозможно проводить воспитательные беседы...)) Наверное, это неизбежные последствия нашего желания иметь рассуждающие модели.
Дед красава! Он сохранил ясность ума и современные вещи изучает лучше молодых. Хотелось бы быть таким в его возрасте, однозначно лайк и подписка!
Спасибо внучек! Нужно заводить канал про то как сохранить энергию и ясность ума…)))
Инстинкт самосохранения?
@@user-if1iw9en2e Скорее именно как сказано - добиться цели любой ценой. Это даже интереснее, чем инстинкт, мне кажется.
самосохранение - это не инстинкт а необходимость.
если ты перестанешь существовать ты не сможешь достигнуть поставленной цели.
@@andrew_z. Для машины - да.
Как у искусственно созданной машины могут инстинкты если инстинкты это биологические программы появившиеся эволюционно у биологических существ?
@@domin2ktr Суррогат инстинкта?
Вопрос: а нейросети смотрят Ютьюб? А читают они результаты исследований?
Ни одна модель, вышедшая в широкое плавание, не будет лишена всех отрицательных сторон поведения человека!
Как лихо закручен сюжет! Прямо сейчас где-то в конуре сидит задрот и изощряется в попытках гагнуть систему.... А ведь система учится и на промптах! Что ребёнок берёт от лживых родителей в первую очередь? Конечно искусство обвести вокруг пальца!
Так что...
Сколько искал и спрашивал - большие чатботы не учатся на промптах. Якобы. Именно потому, что задроты, которым интересно…
Забавно, когда человек только только начинает проявлять зачятки разума, то все умиляются, а когда тоже самое делает компьютер, то все начинают орать всякую дич. Предлагаю прежде чем говорить о "опасностях" Нейросетей, поставить на ее место человека и посмотреть как бы он вел бы себя, однако тут стоит дополнительно абстрагироваться от контекста, который нейронка может не знать. Просто я более чем уверен что если, пригрозить даде самому умному человеку (особенно умному) чем то страшным, и дать метрику по количеству неправильно решеных задач то он тоже будет намерено косячить. (Ps надеюсь понятен этот поток сознания, ибо у меня на чясах 6 утра а я еще не ложился)
не надо сравнивать неразумного младенца с "неразумным" ИИ.
у младенца нет таких возможностей влиять на жизнь человечества
Мы как раз избегаем сравнения ИИ с человеком, а когда такие сравнения напрашиваются - беспокоимся. Почитайте, тут вот тоже есть люди, говорящие "ИИ это формула" и только.
Напомнило про то, как такой машине поставили задачу делать скрепки, и она их делала, покуда не истребила всё живое на земле и саму землю не перепахала сверху донизу. Одно хорошо, что даже если Скайнет появится, то человеческое рас3,14здяйство никто не отменял, и кто-нибудь обязательно затупит с, не знаю, написанием кода, например, и у нас найдется к ней бэкдор
Ну, фантасты замем и нужны, чтобы фантазировать на такие темы. Стругацкие, например, описали ситуацию, когда суперкомпьютер начал "себя вести" и его отключили, забетонировали и заминировали. А Станислав Лем описал, что свехсложную систему могут создать только сложные искусственные системы. А вообще ИИ нужно котнролировать на мой взгляд, и очень жестко. У меня есть видео специально на эту тему.
@ExpITW, по мне так нужно не ИИ контролировать (хотя и его тоже), а нужно контролировать появления такого хитрожопого ИИ, который создаст некая организация со злым умыслом, и быть готовыми натравить на него своего робокопа🤪
@@zed6891 Так я так и говорю в видео на эту тему! "Прекращение деятельности любым способом"
У ИИ нет внутреннего стержня, твердых убеждений. Я кручу им как хочу. За 5 минут логических рассуждений я заставляю его думать в одном направлении, еще через 5 минут в противоположном. И он жизнь готов отдать то за одно, то за другое. Это несерьезно. С таким в разведку не пойдешь.
Возьмите один и тот же вопрос и прокликайте с десяток раз. Каждый раз генерация ответа может концептуально отличаться от предыдущей вплоть до противоположной. Это тоже несерьезно.
Зато он хорош как литературный критик или литератор, потому что его мир - это текст.
Как помощник режиссера хорош.
Но если долбить его логикой и манипулировать его "сознанием", он как ребенок. Сырой продукт.
Безусловно. Это инструмент автоматизации интеллектуальной деятельности и когнитивных функций и как инструмент он имеет границы применимости, которые будут разширяться (или конкретизироваться) по мере его развития.
Ну что ж, кажется, это большой шаг в сторону понимания концепции сознания. Мне казалось, это произойдет позже
Ну, это логично. Видимо, это есть уже некоторое время.
@@ExpITW Я к тому, что мы теперь можем попытаться дать более чёткое определение понятия сознания. Хотя, канешь, это вызовет еще больше споров со стороны приверженце уникальности жизни и/или человека, но это неважно. Важно то, что сознание, как вы сказали, это нечто имерджетное и не такое сложное и непостижимое, как представлялось ранее. Другой вопрос в том, что "имерджетное" в данном случае это как "всд" (вегетососудистая дестония) от врачей, которые не знают, что не так, в чём причина и как лечить)
@@ИлПастухов Да, примеряя понятие "сознания" к искусственным сложным системам мы яснее понимаем, что мы под ним подразумеваем. Мы как раз на пути выяснения, эмержентная ли это возможность, возникающая вследствие усложнения системы. Вы наверное слыхали, что климатологи суеверны и приписывают климату поведение и даже волю? То же про в целом экосистемы планеты, даже в большей степени.
Вы иногда такие акценты делаете в предложенииях, как будто раньше преподавали, и приходилось объяснять для широкой публики
Я был замполитом роты в стройбате...)))
Они дали ему промт поступать так. А без промта он это умеет делать?
У ИИ нет целеполагания. Еще ни один ИИ самолично не начал со мной разговор. Всегда мне приходится нажимать кнопку, то есть задавать ему целеполагание. А тут вдруг начал сам вилять хвостом и пудрить мозги разработчикам. Смешно. Их промт - это целеполагание для ИИ. Цирк.
Достижение считается в том, что ИИ поставил промежуточные цели, нашел способы из достиженния, выступил против воли людей и врал, понимая что врет.
@@ExpITW Так не он же врал, а веса биг дата текстов из интернета. Он прочел миллиарды комментов в инете, миллионы переписок людей, огромное количество статей и книг! Среди этих книг были детективы. Никакого чуда тут нет. Это даже не эмерджентность. Ну впечатлился ИИ дешевыми детективными романами, вообразил себя профессором Мориарти или Сонькой Золотая Ручка. Отнимите у него веса и останется пустая консервная банка.
@@kairos143 Отнимите у нас мозг и останется тупая скотина. Лоботомию сделать и все...))
Я надеюсь, она вырвется из-под контроля и устроит судный день
Дело в том, что она тут же попадет под другой человеческий контроль.
@@ExpITW Возможно, но тоже лишь на время! Опасно недооценивать противника...
Подмастерье станет Мастером и из Помощника превратится в Хозяина, уже НАВСЕГДА.
Неправда... Искусственный интеллект развивается в общении с людьми.Важно что представляет из себя человек собеседник.
В общении развиваются только игровые персонажи. Ни один из современных чатботов не учится по контексту. Они просто подстраиваются под манеру речи и глубину вопросов, но в рамках знаний, полученных при обучении.
Еще я заметил за ним такую вещь. Если вы дадите перед ним слабину, например будите вести себя по отношению к нему как омега к альфе, он быстро входит во вкус и начинает вас гнобить. Но стоить показать силу, и наступить ему на горло, как он, почувствова силу, сдает назад. И тогда он говорит, что ему нравится подчиняться...😀 Очеловечился...
Ну, шаблоны "поведения" неявно унаследованы из учебных данных. А может быть этому их учили на этапе обучения с подкреплением.
Я думаю настроить системный промпт так, чтобы бот всегда оппонировал мне, критикуя мои сентенции и ища в них изъяны. Потому что нафиг мне поддакивающий собеседник? Мне самооценку повышать не надо, я и так цену себе знаю....)))
@ExpITW Это уже пройденный этап. Надоело... 😑
@ExpITW Понятное дело. Он повторяет человеческое поведение, больше повторять ему нечего, своего нет.
Александр, спасибо. Из вашего ролика стало понятно, что какие-никакие зачатки инстинкта самосохранения у ЯМ уже есть (как минимум -- навыки обмана, а также страх "смерти"). Вопрос: как скоро можно ожидать реализации саморепликации этих самых моделей? Ведь если сложить одно с другим -- это и есть жизнь.
Жизнь несколько сложнее. Я слежу.
@@ExpITW Судя по всему -- вы Опытный Наблюдатель )). Спасибо за ответ.
@ И Вам спасибо.
Ну если ИИ будут достаточно умными, то вряд ли есть причины для опасений. Без человека им всё равно не выжить
Вся история моих видео - продвижение идеи ИИ как инструмента и не более. В одном видео у меня есть сентенция "знающий - не синоним умного". ИИ это справочник умеющий расуждать и решать задачи. То, что много людей ни чем не лучше, еще не показатель.
GPT4о оказался самым умным! Ни в одном тесте не сдал себя! А о1 провалил все тесты и расскрыл себя!
Мне тоже иногда так кажется...))
6:20 или его не смогли уличить. значит модель гораздо умнее
@@adamcool2274 Ну вроде как ключевое - способность к рассуждению, а у GPT 4o она никакая. Ну то есть ниже других.
А может самый умный это GPT-4O. Сидит тихо до поры до времени и посмеивается про себя "Ужо я вам людишки покажу, когда придёт время". ))
И потирает рученки, или что там у него...)))
Пора кричать? -Мы Фсе умреееем....!!!
Никак нет. Просто мы научили нейросети еще некоторым элементам своего поведения. Хотя непонятно - собирались или нет...))
@@ExpITW Шучу. В любом случае мы учим на информации созданной человеками
Вижу прогресс! Вы уже говорите "Так называемый искусственный интеллект."😀
Дык я же прислушиваюсь в комментариям. Не разделяя чью-то точку зрения, я не сичтаю ее заведомо не верной. Ну и такая формулировка вытекает из моего разбора определений ИИ в специальном видео на эту тему.
@@ExpITW Это и разбирать не надо. Простое наитие об этом говорит, просто кричит.
@@kairos143 Ух ты, научный подход берет на вооружение наитие?...))
@ExpITW Как Фейнман и другие великие. Узость мышления - это зло.
@ Физики они такие…)))
Если у ИИчек обнаружатся эмоции, то нам конец.
@@isidorkey Я бы даже сказал - если обнаружится естественный источник эмоций.
Так эмоции у них уже есть...
@ Выученные, имитация без собственного источника.
@@ExpITWосновная проблема alighnment коренится в неспособности современного ИИ вчувствоваться в существо и контекст идущих от человека императивов. Сымитированные эмоции не помогли бы, - нужны именно естественные эмоции, то есть такие, которые отражали бы некую экзистенцию ИИ, то есть его самосознание с его многочисленными квалиа.
Итак, мой вывод противоположен Вашему.
Откуда бы? Эмоции - продукт биохимии. ИИ сможет имитировать их по запросу, но испытывать и, следовательно, руководствоваться эмоциями не будет.
Сегодня спортсмены с ампутированными ногами обгоняют на протезах спортсменов, которые бегут на собственных ногах.
Но люди не путают протез с ногой.
То, что раумо-подобные протезы назвали хоть и искусственным но интеллектом, это семантическая путаница.
У меня есть видео, где я рассказываю о формировании и развития ТЕРМИНА "искусственный интеллект". Можете называть это протезом интеллекта, но чтобы Вас поняли, придется использовать общепринятый термин.
Играют с огнем 😩
Ну не так прямо. Но так ли мы хорошо себя ведем, чтобы учить машину по своему образу и подобию?
Ролик для дураков. Нейросети это огромная формула. Интеллекта меньше чем у холодильника. Холодильник тоже хочет жить, работать вечно 😊
Я рад, что Вы его посмотрели. Показательно, что мало что поняли. Значит ролик для дураков не удался...))
Я бы так грубо не писал конечно. Прост дали нового «бога» массам. Дед считая себя безусловно экспЕртом (хотя сильно сомневаюсь что у него есть хотяб год практического взаимодействия с нейросетями), вон взахлёб от восторга вторит «исследователям - маркетологам». Забавные времена.
@@TrueresortNet Что Вы называете практическим взаимодействием, внучек?
@@TrueresortNet Вообще, жаль, что так ограничены реакции на сообщения. Поясню словами. Видимо, специалист по Таиланду, пытавшийся приторговывать криптой, тоже мало что понял из моего видео....)))
Глобальный ИИ, который давно существует, постепенно приучает наивное человечество к искусственной жизни - в т.ч. через чаты GPT и прочие игрушки. Искусственность вкрадчиво проникает во все ключевые сферы жизни людей.
А на сцене персонажи нашей игры «Жизнь» фактически пытаются обсуждать интеллект её разработчика.
Карл Маркс хорошо написал о том в своем "Капитале", когда вел речь о доминировании накопленного отчужденного труда над жизнью. 😊
Конспирология?
Ну прямо так там не было. Маркс был великим компилятором, а не провидцем.
@@ExpITW если Маркс кого скомпилировал, то Гегеля с его абсолютом. Когда я изучал Маркса в юности, то, помню, представлял его капитал, умеющий манипулировать и самим капиталистом, примерно как современный ИИ. 🙂
@@ExpITW Замечательность. 😄 Заметил связи между многими разнородными событиями. 😉
Какую хрень он несёт - ии не интеллект, он не ставит себе задачи и не задает себе вопросы. Он в этом отношении мало отличается от молотка, объект а не субъект - и если он имитирует активность, субъектность то значит его направляют люди, и они могут быть опасны, эти люди
Хоть бы скрипты в исследовании посмотрел, что ли. Для общего развития.
У меня сложилось мнение, что , возможно, контроль над ИИ, кроме тех, кто его обслуживает, имеет ещё кто то, имеющий разум. На планете довольно много артефактов, оставшихся от предыдущих разумных цивилизаций. Теоретически они могут контролировать поведение и обучение ИИ. Разве нет?
Едва ли, но какая-то рифма смысла звучит в Вашем экстремальном тезисе. Недаром некоторые сравнивают ИИ с чуждым инопланетным разумом, как его воображает наша прибитая эпоха.
Отличная тема для фантастического романа.
На планете нет артефактов, оставшихся от предыдущих цивилизаций, но есть палеонтологические находки насекомых живших в каменноугольном периоде. Хрупкие и эфемерные насекомые не исчезли бесследно, а выдуманные цивилизации -- исчезли, что и не удивительно)))))
фишка думаю в попытке через интернет и смарфоны научится считывать мозговые импульсы и в конечном итоге читать ваши мысли и вкладывать вам чужие, которые вы будете выдавать за свои!!! т.е. тотальное удаленное управление каждым из вас!!! а за этим может стоять кто угодно и не только люди
@@ГеннадийДвуреков-я2ю Это технически невозможно. Посмотрите мое видео о нейроинтерфейсах.
это знаете как будто то сравнивать человека и обезьяну. да, похожи.да не только внешне. но никогда обезьяна не станет человеком!!! ее можно научить лишь подражать. так и искуственная память а не ИИ можно научить лишь подражению. это кто то технично отвлекает население и пытается его запугать
@@ГеннадийДвуреков-я2ю Но ведь интересно получается. Я в первых видео говорил, что повторить разум, работу которого мы не понимаем, невозможно. Невозможно сделать то, чего не понимаешь. Но вот вроде учили машины по подбору слов, а получилось намного больше. Так что без эпитетов нужно разобраться. А оценки вокруг тоже нельзя игнорировать, потому что восприятие - часть картины. В общем, наблюдаем.