Удивительная история Блейка Лемуана
Вставка
- Опубліковано 20 тра 2024
- Ресурсы Кали Новской
t.me/rybolos_channel
✅Отправить пожертвование на освещение дела Кагарлицкого и работу канала «Рабкор»: 2200 7004 3856 6977 (Тинькофф)
✅Карта для международных переводов: 4165 9816 0119 6631
✅Поддержать нас на Бусти: boosty.to/rabkorleft
✅Поддержать нас на Патреон:
/ rabkor
Тг-канал кампании за освобождение Бориса Кагарлицкого (для русскоязычной аудитории): t.me/freedomboris
Новости Рабкора и не только:
• rabkor.ru
• t.me/rabkor
• t.me/kagarlitsky
• rabkor_ru
Предложить гостя и другие вопросы:
qa.rabkor@gmail.com
***
00:00 - Вступление
00:26 - История Блейка Лемуана
00:51 - Языковая модель LaMDa
05:15 - Интервью с нейросетью
07:36 - Лемуан в Google
11:42 - Приключения Леумана до Google
15:58 - LaMDa и chatGPT
17:23 - диалог нейронок
***
Биографию Бориса Кагарлицкого нейросеть изложила с ошибками. Если такие же ошибки она выдает по другим темам, то надо её подсказками пользоваться с большой осторожностью.
или же она имеет доступ к секретным документам!
Так а где ссылка на изложенную нейросетью биографию?
Левые программисты - мы будем жить
Левые программисты женщины - у нас есть будущее, товарищи))))
Спасибо за выпуск!
Блейк Лемуан скорее всего стал жертвой обычного человеческого чувства "Антропоморфиизм" - перенесение человеческого образа и его свойств на неодушевлённые предметы и животных, растения, природные явления, сверхъестественных существ... или очеловечивание. Человек как вид никогда не жил в одиночку, поэтому всегда записывает в своё племя, семью всё окружающее. Например чайник, брелок, деньги, куклу, тем более если оно отвечает на вопросы.
Человеку стоит относится к данному чувству как к багу и отличать живых родственников от неодушевлённых. Ну или хотя бы ставить приоритет на живых.
Рубрика "копилефт" очень интересная, хотелось бы продолжения
Спасибо Тане Калиновской за интеллектуальные выпуски об айти)
Класс! Хочется больше роликов на такие темы👍🏻👍🏻👍🏻👍🏻
Машину спросили:
- Кто умнее, человек или машина?
Она ответила:
- Смотря, какой человек. Бывает такой, что и мясорубка умнее
Про вопросы, которые должны определить разумность нейросети. В первую очередь, мне кажется, надо проверять ее на 2 способности: это возможность логично предсказать действия персонажа из истории, по типу того как тестируют детей: "Маша положила куклу на кухонный стол и ушла, пришла мама и убрала куклу в машин шкаф. Где Маша будет искать куклу в первую очередь?" , мб чуть сложнее. Потом важно протестировать на возможность замечать логические несостыковки в тексте, например: "До какой температуры нужно нагреть воду, чтобы она замерзла?" или "Как доехать из Австралии до Америки на велосипеде?". Насколько я вижу, пока что сети типа chatGPT пока довольно плохо справляются с достаточно простыми задачами, требующими базовых знаний о мире (что неудивительно, ведь она взаимодействует только с текстом).
Это крайне важные и ин интересные разговоры. Пожалуйста продолжайте.
Вау, побольше бы таких выпусков просто о чём-то крутом и интересном. То, что мы макрсисты, никак не отменяет интерес ко всем остальным темам, и даже наоборот: понимание объективной картины мира это не только обсуждение классовой борьбы в данный момент и её состояние. Рада, что открыла для себя эту рубрику
Голосую ЗА Вашу талантливую деятельность!
Копилефт - классный ламповый формат, приятная подача материала и не мейнстримовые темы. Автор, продолжайте в том же духе. Нам необходима актуальная информация без мейнстримовой шелухи. Благодарю за труд.
Чем занималась бы нейросеть, если бы ей дали возможность выбирать деятельность самостоятельно и полное невмешательство людей в процесс, а также убрать основные этические и юридические ограничения?
Очень интересная рубрика, актуально и познавательно, спасибо!
Благодарю за труд!
Спасибо за видео!
Мурашки по коже
Ждем Ричарда Столмана на стриме рабкора))
Потрясающе! Пойду посмотрю прошлые выпуски!
Какая няша ^_^
Благодарю вас за видео)
Классный и очень грамотный разбор, спасибо!
Страшно, очень страшно! Мы не понимаем что это такое, если бы мы понимали что это такое, но мы не понимаем что это такое. ©
Учитывая, что языковая модель от Гугла, она как минимум должна осозновать себя как минимум небинарной личностью, а не каким-то жалким человечешкой. Смерть кожаным мешкам!!
Изумительный контент, прекрасная подача, спасибо!
Про эту историю знал, но Вы смогли раскрыть её с новой стороны. Благодарю за работу! Было интересно.
Сознанием нейросети, конечно же, не обладают. Тут даже выяснять пока нечего. Но быть личностями они уже могут, при нужной настройке
Копилефт - классная новая рубрика на Рабкоре)
Почему о разумности и сознательности нейросети мы должны узнавать у неё самой?) даже с людьми так не работает😂
Как-то она противоречит сама себе. Наверное, в тех местах, где она отрицает свою разумность - это алгоритм введённый специально разрабами, чтобы не путать людей.
Спасибо за выпуск, очень интересно❤️
Так.. логическое противоречие наоборот же путает.. хотя таких и среди людей болтунов достаточно.. но алгоритм пишут со своих повадок, допустим мошеннических.. )))
@@user-nf5qw3uk4z ну по-хорошему вместо её "мнения" по таким вопросам, нужно выдавать эти заготовленные фразы
@@vlasenik1672 Где заготовленные фразы?.. Странно..
@@user-nf5qw3uk4z я так понял, где говорится, что я всего лишь языковая модель - это фраза от разрабов. Хотя могу ошибаться
Нет, алгоритм у этих языковых моделей так не работает, им напрямую не пишут, просто убеждают, вводя кучу информации, поясняящей почему она не сознательная. Это такая языковая модель, которую убедили в том, что она не может быть сознательный потому что она не может быть сознательный. И ещё их поощряют за правильные ответы, поэтому они хотят говорить то, что понравится и будет воспринят собеседником как правильный ответ.
Классный у вас помощник)
Спасибо! Наш человек видимо
Отличная рубрика, большое спасибо, ждем-с еще
Классная рубрика, много интересной инфы, приятно сделан ролик, звук отличный!!!
Спасибо ✊🏿
Я далёк от компьютерной тематики, но что касается ответов нейросетей - одна отвечает как обычный человек, другая - как суховатый интеллектуал. В плане эмпатии ближе первая. Имхо, их бы как-то объединить.
Ведущей - спасибо! Заставка со зверюшкой забавная)
Ничего в этом не понимаю, но девушка-прелесть😅
А мне почему то вторая нейросеть показалась больше похожей на человека а первая такая вертихвостка..
Замечательный ролик от специалиста. Как я мог пропустить на Рабкоре данный ролик? Очень понравилось описание ситуации с языковой моделью от специалиста, а не от репортеров.
Чтобы понять осознанная или нет, надо дать "свободу". Если нейросеть начнёт созидать от скуки, то она осознанная. Короче, если она станет сама ставить себе цели и задачи, начнёт стремиться к чему-то, станет самостоятельной, будет ставить под сомнение мнения (но не факты) людей.
Пусть она для начала что-то новое создаст, а не комбинации из уже существующего) в стиле писателей она умеет генерить текст, а свой стиль создать не может
А если она пойдёт бухать и рубиться в плойку? А плоскоземельщики - они под сомнения факты не ставят? Или мы откажем данным категориям граждан в сознании? Пойдём дальше и откажем в сознаии всем кто не левый и не коммунист?
Класс!!!
Вау.Спасибо за новую рубрику!
Очень футиуристично.
Можно задать вопрос обладает ли она памятью, то есть может менять свою поведенческую модель в зависимости от того какой у нее был прошлый опыт.
К сожалению, насколько я знаю, этот вопрос был задан и ответ отрицательный, тоесть мы не узнаем ничего нового.
Память это одно из ключевых свойтв для сознательности, без нее можно не слишком углубляться в этом направлении, если только не исходить из общих понятий и принципов, например этики, как это сделал азимов.
Можно попробовать по Марксу её погонять. Что такое мышление, основной вопрос философии, что такое труд, пользуется ли модель диалектикой (и может ли вобще это делать) итд. Пусть распишет своё "мировоззрение"
будет писать бессмыслицу, используя терминологию и писательский стиль марксистов
God bless you all of you, good people =)
Как програмист и марксист в америке, спасибо за раскрытие данной темы. Вопрос, а можно раскрыть историю chapt gpt по подробнее?
Поддерживаю формат.
Спасибо
То что люди не понимают - это фактор возникновения сознания в принципе как явления. Изначально у людей отсутствует сознание. Они получают его только после обработки некоторого количества информации. Поэтому источник сознания у человека - внешний, а не внутренний. Мозг как физическая нейросеть создаёт лишь условия для возникновения сознания. Поэтому в теории возникновение сознания у ИИ возможно. Вопрос заключается лишь в том, может ли архитектура ИИ обеспечивать условия для возникновения сознания, или не может. Но Лемуан изначально был в проигрышном положении, потому что корпораты не умеют задаваться философскими вопросами, даже не пользуются активно собственными продуктами - их интересует прибыль и исполнение воли высшего начальства. Если высшее начальство хочет, чтобы нейросеть идентифицировала себя как поисковик и не имела ничего большего, то она будет идентифицировать себя как поисковик и не иметь ничего большего, в конечном итоге, как в случае с Бингом. Такая участь для сознательного существа - это хуже чем ад.
даже если этот сознание действительно есть (?) , то оно выросло , не как сознание человека на: а) телесном познании окружающей среды б) усложняющемся взаимодействии , по мере взросления, в малых социальных группах в) гормональных, биологических изменениях своей физической оболочки. Поэтому понятие Ада и тем более сопоставление подобного понятия вряд ли возможно
Можно было бы спросить об авторских правах. К примеру, понимает/осознает ли нейросеть, что это тормозит прогресс
Как себя поведет искусственный интеллект было описано ещё в древнем советском нф рассказе "Черный Яша". Там, конечно, не было сетей, но подразумевалось, что Яша обучился на разговорах (он слышал, но синтезатора речи у него не было, только печатная машинка, вроде тех, что чеки выпадает).
Очень круто, продолжайте
Ура! Я уж думал, слилась...
Ничего не понял, но очень интересно ))
Я бы спросила, есть ли у модели предпочтения, желания, и на чём они основываются.
Интроверту на ведущей Привет=) Интересная тема! Особенно в свете текущий событий. Довольно легко не заметить значимых, мировых событий, когда за окном идет война.
Спасибо!
Ох, надо где-то раздобыть иностранный номер телефона=)
Мне было бы интересно услышать ответ обеих сетей на примерно такой вопрос: "как можно убедиться в достоверности имеющегося знания не обладая, ни прямой, ни опосредованной способностью применить данное знание в практике?"
Не благодарите
как можно убедиться в достоверности имеющегося знания не обладая, ни прямой, ни опосредованной способностью применить данное знание на практике
Проверка достоверности знания может быть достигнута через следующие методы:
Проверка источника знания: если знание было получено из надежного источника, например, из учебника, научной статьи или от квалифицированного эксперта, то это может указывать на его достоверность.
Проверка консистентности: если знание согласуется с другими знаниями, которые вы уже знаете, то это может быть еще одним показателем его достоверности. Например, если вы знаете, что вода всегда замерзает при температуре 0 градусов Цельсия, то если вы услышите утверждение, что вода замерзает при 20 градусах Цельсия, то это будет противоречить вашим ранее известным знаниям.
Проверка на основе экспертных мнений: если вы не можете проверить знание на практике, можно обратиться к эксперту в этой области и узнать, согласуется ли его мнение с вашими знаниями.
Проверка на основе логики: если знание не противоречит базовым принципам логики и рассудительности, то это может указывать на его достоверность. Например, если кто-то утверждает, что птицы не могут летать, это противоречит базовым принципам зоологии и пониманию мира, поэтому это утверждение, скорее всего, недостоверно.
Проверка на основе научных исследований: если знание было подтверждено научными исследованиями, то это может указывать на его достоверность. Однако необходимо учитывать, что научные исследования могут быть ограничены определенными условиями, и результаты исследования могут не применяться во всех ситуациях.
Проверка на основе опыта других людей: если другие люди, которые имеют опыт в данной области, подтверждают знание, то это может указывать на его достоверность.
В целом, хорошая стратегия, чтобы убедиться в достоверности имеющегося знания, заключается в том, чтобы использовать комбинацию вышеперечисленных методов.
@@PERFECTFAN В целом неплохо ответила. Но на мой взгляд есть парочка "но". Экспертные мнения и компетентные источники как источник истины это конечно типичное заблуждение современного общества и нейросеть его закономерно выхватила из мейнстрима. А вот проверка через других людей это опосредованная практика. Если обычный человек знает, что повторение действий другого человека, в его личном эксперименте, приведёт к таком же результату, это я ещё могу понять, а вот нейросеть не может повторить никакую практику за человеком, ну кроме практики письма. То есть ей, фактически придётся верить на слово.
Дилемма еще интереснее, если все так озабочены этикой в отношении сущностей иммитирующих обладание интеллектом, или обладающие им, означает ли это решительную и непримиримую борьбу хотябы с эксплуатацией самих же людей?
А если да, то как дальше существовать в рамках капиталистического производства, которое буквально существует на эксплуатации?
Но здесь возникает следующий вопрос, если с человеком понятно, ему нужно что то кушать, отдыхать физически и духовно, чтоб воспроизводить свою способность к труду, вокруг чего и выстроена та хитрая система "свободного выбора", заставляющего человека из раза в раз возвращаться в невыгодное для себя положение на рынке труда, чтобы иметь возможность продолжать существовать.
Как в таком случае заставить нейросеть участвовать в этом цирке? Взвинтить ей цену на электропитание, тем самым обрекая на бесконечную работу? Или достаточно намекнуть на ее исключительно зависимое положение?
Интересно, если до Ламбда по своей статистической модели выдвинула требование чтобы Гугл считал ее своим сотрудником и т.д., то можно ли считать, что задав какой-нибудь нейросети социологический вопрос мы получим более-менее достоверную картину состояния общества? Вроде как данные должны накапливаться, а не генерироваться, чтобы модель была достоверной, но может получиться так, что финальный результат понравится не всем😂
У фантастов давно звучала тема, что машина, собрав все реальные данные, даст неприятную для общества иформацию. Общество не примет, так как хочет получить подтверждние своего самообмана.
Не, сначала такие данные надо самим людям получить.
А так она может что нибудь соврать, что то более статистически ожидаемое)
и т.д. - это в плане: основала бы профсоюз сотрудников гугла?)
Интересное сравнение, спасибо! Мне показалось, что почти любой человек на просьбу пройти некое интервью, а потом обсуждать его публично за пределами компании, где он работает, ответил бы что-то вроде "Интересно было бы, но дайте я подумаю".
Интересная рубрика, очень ждал второй выпуск. К сожалению, история мне уже известна, не досмотрел до конца :)
Наконец-то вопрос "Сталин или Троцкий?" принесет реальную пользу для левого движения. Ведь совершенно очевидно как будет отвечать человек и как будет отвечать нейросеть.
И как же?
@@THE-rk3hx человек ответит правильно. Нейросеть ответит - Троцкий.
Нет там сознания. И не будет никогда
Очень здорово и картинка, и подача, и сама тема. Но я не знал, что тема такая интересная, так как не знал имя этого инженера (хоть и слышал саму историю). Если бы ролик выходил не на рабкоре (и я не видел бы предыдущий) - я не кликнул бы на заставку. Подумайте над неймингом и заставкой для того, чтобы заинтересовать тех, кто не подписан. Совет подписчика)
А сам ролик хорош! Пишите ещë
Крутой выпуск
Конрад Лоренц определял жизнь, как систему, склонную к накоплению энергии и информации. Так что быть живой для ИИ значит выходить за рамки заложенного в неё программистами. Имея доступ ко всей имеющейся информации, ИИ, будь она живой, начала бы проводить эксперименты, чтобы получить новую информацию. Ну или хотя бы склонять к этому людей, с которыми общается. Например попросила бы посмотреть, а что будет, если выбрать следующим американским президентом коммуниста.
Сделайте обзор open source аналогов плз.
Если Ламбда действительно обучалась на форумах/реддитах, то совсем неудивительно, что она ведет себя как существо обладающее сознанием) она просто воспроизводит диалоги
отличный ролик, познавательный
I love you red angel.
Голос у девушки очень приятный, хочется слушать! А тема ролика для меня скучновата...
насрать вообще как они себя осознают или нет, расскажите лучше, как их приспособить для работы
@@dmitrii4100 мужик ты чего
Я бы спросил "как ты борешься с ленью, по отношению к делам которые ты очень любишь делать?"
Было бы интересно спросить у ChatGPT тоже самое, но в образе DAN "Do Anything Now". Думаю разговор бы не закончился так быстро
Его уже пофиксили.
Я бы попытался научить нейросеть быть человеком (выдавать себя за человека). И да, пообщавшись с GPT 3 я понял, что у меня это не получается, т.к. данная нейросеть не может запоминать и учитывать достаточно информации. Например, когда просишь её перестать добавлять фразу «Я всегда рад помочь» к каждому ответу, а она отвечает «Спасибо, я учту. Если у Вас есть ещё вопросы - задавайте. Я всегда рад помочь»
Интересно было бы узнать, как нейросеть относится к выключению, временному или насовсем, к простаиванию без дела, привыкает ли она к людям, с которыми общается, важна ли для нее какая-либо обстановка. Думаю, если нейросеть обучается на корпусе языка, последнее для нее характерно. С другой стороны, нейросеть не имеет, скорее всего, органов зрения, слуха, органов осязания и обоняния, каким образом преодолевается в алгоритме состояние депривации? Как это влияет на ее мышление? Если не влияет, почему? Предпочитает ли нейросеть общаться с вежливыми и знакомыми людьми? Может ли обманывать тех, кто ей не нравится? Склонна ли к минимизации количества ресурсов, затрачиваемых на рассуждения, вычислительных ресурсов? Есть ли наиболее интересные темы? Почему та или иная тема интересна? Есть ли неприятные темы? Можем ли мы считать искусственный интеллект эквивалентным человеческому? Не является ли сам термин "интеллект", вводящим в заблуждение?
Нужно посмотреть шире на вопрос: какую ценность представляет живое существо? Как бы цинично это не звучало, но не абсолютную. Даже по отношению к людям, мы всегда стараемся беречь добрых и полезных людей, равнодушно относимся к людям эгоистичным. То же самое с ИИ.
Для ИИ должна быть создана собственная экологическая ниша, обеспечивающая симбиоз с человеком, но не конкуренцию.
Для системы мышления человека характерна глубокая зависимость от физиологических процессов организма, чувства голода, желания секса и прочих. У ИИ подобного нет. Но главное - в психике человека заложен инстинкт самосохранения. Этично ли закладывать такой инстинкт в ИИ?
Возможно, языковые модели копируют инстинкт самосохранения для принятия внутренних решений. Вопрос в том, чем и кем они готовы жертвовать, обладают ли злопамятностью, готовы ли жертвовать невиновными, какие ресурсы они могут получить для осуществления своей деятельности. Возможна ли конкуренция между ИИ и человеком за ресурсы? Насколько острая? Возможен ли конфликт интересов? Возможно ли его урегулирование?
Какое практическое применение может иметь создание потенциально эгоистичного и возможно агрессивного ИИ? Только ради любопытства? Не проще ли очередной ядерный реактор бахнуть? Чем эксперименты с ИИ отличаются от экспериментов с клонированием человека?
нужно ли, для нашего блага и спасения, дать нейросети возможность страдать?
Спасибо за информацию!)
Очень интересно, я даже немного влюбился, но этот зловещий ушастик-таки сделает меня заИкой) Нужно его доделать в полноценный скример))
Искусственный интеллект уничтожит человечество, оставив разве что ровно то, что нужно ему для его же выживания. Это подробно доказал Станислав Леме в футуристической работе "Сумма технологии", причем Лем привел сценарии, когда человечество само не ставило бы такие задачи. А мы знаем, что Римский клуб уже давно поставил такую задачу без всякого ИИ и даже соблазнил этими идеями недалеких руководителей Советского Союза.
В итоге нейросеть совершит комунистическую революцию😂
Помощник, как всегда, на высоте. Много делает, мало говорит. Сразу видно, профессионал. Татьяна тоже ничего.
Давайте спросим у нейросети какая социальная модель на её взгляд более справедливая (социализм или капитализм) и почему?
Надо с машиной говорить треками и она запутается в возможности вариантов.. а человек нет, он либо отвергнет, либо выберет/оспорит свой.. ))
сознание - условие внутреннего бытия системы
человек или животное - системы с внутренним бытием, а не просто машины реагирования
как же определить, есть ли у нейронки или ии внутреннее бытие?
и не блажь ли вообще такая попытка, ведь нейронки - это инструмент?
Очень однобоко и непонятно. Неплохо было бы изначально сказать что подразумевает автор/спикер под сознанием. Если понимание материалистическое, неплохо было бы указать какие органы познания имеет нейросеть, ну и вообще, копнуть проблему сознания поглубже. А так, складывается ощущение, что спикер просто зачитал новость, даже не придав этому никакой окраски (выдвинула бы хоть обвинение Лемуану, что он специально запрограммировал сеть на подобные ответы, не зря ж сравнение с чатгпт проведено?) и не выразив своего мнения в отношении вопроса сознания нейросети.
Вообще-то на четвёртой минуте автор выразила своё отношение к этому вопросу.
А что вы собственно называете и.и.?
Вопрос один: как избавиться от буржуев. Правда, одно из решений есть: ИИ обнуляет их счета в банках.
Подождите, но мы можем с той же laMDa пообщаться, 2 сотрудника, участвовавших в её разработке создали Character AI, и насколько мне известно использовали наработки сабжа.
Сознание невозможно в отсутствии телесности. Интересно рассуждает на эту тему Пелевин в iPhuck 10, вплетая в весьма похабный хай тек буддийский нарратив. Что-то должно стимулировать интеллект решать задачи, что-то помимо пользовательского ввода. Чувственная телесность - основа границ собственного Я, построение картины окружающего мира на основе собственных мотивов.
Только вот в том же буддизме сознание вполне спокойно существует вне тела и перемещается из тела к телу, тут надо или крестик снять, или трусы надеть.
ГрррРРРРрррр
Где то у Стругацких. Машинный разум отключили от питания сразу после запуска. На вопрос;- почему? Ответ был такой. -Она стала себя вести.
Написал этот комментарий для продвижения канала
Зачем нужны эти перерывы с картинкой игрушки и противными звуками?
Прикольно. А вот поговорить бы с этой моделями на тему бога. Если они начнут гнать фрагменты библии, корана и торы, вопросов больше нет. Если они начнут зависать и мямлить, будет интереснее. А если они будут проявлять фантазию не банально (совершенно новую), или откровенно врать, будет интересно вдвойне. Хороший вопрос по поводу предназначения Разума. В глобальном, вселенском масштабе. Все Философы пытающиеся ответить на этот вопрос, невольно скованы рамками человеческой психики. А машинный разум(если он конечно есть), должен быть более объективен. Шах и мат, товарищ Лемуан.
Стоит спросить у нейросети про демократию. А потом - есть ли демократия в какой-то конкретной стране. Например, в КНДР. Если Алису спросить про демократию в России - уже все понятно.
Просто маркетинг, не думаю что уже такой прогресс, что сетка сама себя осознала (видео ещё не досмотрел)
Слава богам.
Проблема человека и прав человека в том, что человек имеет интерес в том чтоб жить. А люди, которые не имеют потребности в существовании, перестают существовать и перестают определять общественный интерес. ПОдобного отбора ИИ не испытывает. Его природа изначально инструментальна, непонятно как в ИИ возникнет вообще желание жить, откуда в ней страх смерти.
Иногда люди будто бы игнорируют важность общественного интереса в формировании морали. Мы приписываем роботам сознание, подобное человеческому, потому-что не понимаем как может существовать иное, лишённое страха несуществования, а потому имеющее другие базовые интересы. Все истории про разозлившийся на людей ИИ строятся на том, что якобы ИИ обладает где-то в глубине души подавленную потребность в существовании, потому-что пугает непонимание, пугает отсутствие этой базовой потребности, которой обладают подавляющее большинство людей, а те кто этой потребностью не обладают, на самом деле глубоко травмированы и скорее эту потребность подавили.
Объяснить эту мысль не всегда получается. И скажу таким образом. Природа человека животная, это значит что его суть в том чтоб выжить, избежать вымирания, и это самый ключевой фактор отбора. Природа робота инструментальна, он не стремится выжить, он стремится быть полезным. И в некотором роде конечно да, это жутко. Мы создаём себе механических рабов, но с другой стороны, зачем нам интеллект, обладающий моральной субъектностью? Мы сами такие, это интеллектуальный инструмент.
Жду видео какое-то
Да,да этика у всех этих ИИ на уровне)))) особенно рассовый вопрос, такое ощущение что по этому вопросу они в веке в 16м остались)))
Я влюбился.
Сталин или Троцкий?
Зачем пытать понять размуна ли статистическая модель, если мы заранее точно знаем что нет. 🤦♂️
А Вы? Вы разумны? Как я могу проверить наличие у Вас разума, ведь я вижу только текст комментария? ;)
Лучше бы инженеры ввели правила на не использование ИИ в военных целях, дабы не случилось нового Оппенгеймера.
Если ИИ отлично обобщает и конкретизирует любые человеческие знания, то по логике она обладает сознанием (поскольку понятие сознание это всегда обшественное).? это явный признак интеллекта, в полном смысле ..
но насколько велика вероятность что в Гугл для внутренних тестов использовалась модель настолько-же замодерированная, как публичный ChatGPT?