Мы и наш мир глазами искусственного интеллекта

Поділитися
Вставка
  • Опубліковано 23 кві 2024
  • Идея ролика пришла, когда я вдруг осознал, что самые крутые специалисты по машинному обучению, мирового уровня, расходятся в простом, казалось бы, вопросе, на который любой знаток из комментариев на Ютубе знает ответ: понимают ли машины то, что говорят? Я тоже был уверен: не понимают, конечно. Это же стохастические попугайчики, алгоритмы по поиску паттернов и предсказанию последовательностей. Но не всё так просто. Приятного просмотра!
    ===============
    Ссылки на материалы из ролика: docs.google.com/document/d/1i...
    ===============
    Спасибо за поддержку!
    Зарубежные карты:
    / scione
    Российские карты:
    boosty.to/scione
    BTC
    bc1qs4cnnk2h2pw78x74f58fd3zzxv7yvsgeztlvcg
    ETH
    0x98b846A01397F32d67Ef57615a00f5bD654E701f
    Если кого-то забыли, напишите мне! scionefriends [собака] proton.me
    Нас поддерживают
    Sergey Koshelev, Meloman, yurig71, Ivan, Vladislav Moisejenko, Alex Tulintsev, Eg Ti, Sergey Sharov, Denis Romanovsky, Kachurouskaya Hanna, Morock_D, Vesta Zvezdochkina, Evgeniy Timokhov, Leonid Danilchenko, דמיטרי סיטניקוב, Dmitry Karpetsov, Ilya Nedyal, Gennadiy Zakharov, Nick E., Alex III, Olga Bykov, Alik Tabunov, Darja Donezz, Ionas DBD, Anatol Sincuk, Leonid Dudin, Antonina Nesmelova, Vladimir Zhitko, Sofia Lysenko, NataliaTveleneva, Velinskiy
    CHEAT cheater, Garkavy Uriy, Sashares X, Дмитрий Хрипушин, Антон Никонов, Алексей Селин, Андрей Проскурнёв, Ксения Дмитриева, Анна Шеина, nadzejam, Alex Gruzdev, Linden, Grolear, valery1707, Иван Савельев, OMA, Ala_Pneuma, AgeevDANTIST, Алем, Михаил Шеляг, Н Кондратенко, Ivan Anisimov, gzbender, Михаил Тимошенко, Canis Majoris, Maksim Kiriushkin, Иван Манаков, Artem Golendberg, Александр Моисеев, Вася Богатырёв, Светлана Лунгу, константин костиков, xander27, Максим Талвинский, MihailG, Александр Горшков, Евгений Володин, ViK, Никита Друба, Елена Мельникова, Luzduk, Рейнеке Лис, Тимур Пятков, Dmitry Kataev, Александр Майко, Дмитрий Ложкин, Distrel, Татьяна Скороходова, Алена Мыцыкова, あのValk, Никита Куликов, Anthony Kolchin, Alexey Nazarov, Aleksei Ryskin, Антон Одольский, Ажиксумук, Mikhail Kornoukhov, Птичий крик, Николай Кабалин, Денис Ворона, MichGan, Александр Михайлов, Александр Денисов, Дмитрий Сергеев, Alex, Сергей «materbiy», Дмитрий Волков, Семён Матвеев, Екатерина Гвоздовская, Сергей Крюков, Василий Карасев, Михаил Тимофеев, Anatoly Kern, Светлана Лунгу, Алексей, Elena Dolgova, Евгений Maheiden, Тимур Пятков, Сергей Гавшин, Rodion Khramoutitchev, Dina Nepomnyaschaya, Tora, Антон Одольский, Egor Grit
    S J, Ruben Khachaturyan, Aliaksandr Mashkou, s, Leonid Martynovskiy, imaginationismyfriend, Alena CoPsy, Santon, Кирилл Ос, Kostyantyn Feoktystov, Мария Ардинцева, Никита Файнберг, Sergey Lesiuk, atom134, Kirill Kulakov, Arthur Cross, Paul Kupriyanov, Nikolay Mironov, Zaur Tariguliyev, CasualCat, Olga Switzerland, Tanya Rodionova, Vladyslav Makarov, Artsiom Platkouski, Іван Галицький, Море Дождей, Anastasia Ivanova, Ниркарми Преми, Alex Sit, Tiulin Dmitriy, Mihail Gavrilyk, shirli mirli, Ramz -, Игорь Censored, Pinn, Aleksei Kalashnikov, Valdis Kanepe, Natalia Afanasyeva, Денис С, S, Leonid Dudin, marga marga, Tagaev Maksim, Dmitrii Nazarov, ⭐️ K R I S T I ⭐️
  • Наука та технологія

КОМЕНТАРІ • 1,7 тис.

  • @SciOne
    @SciOne  9 днів тому +144

    Идея ролика пришла, когда я вдруг осознал, что самые крутые специалисты по машинному обучению, мирового уровня, расходятся в простом, казалось бы, вопросе, на который любой знаток из комментариев на Ютубе знает ответ: понимают ли машины то, что говорят? Я тоже был уверен: не понимают, конечно. Это же стохастические попугайчики, алгоритмы по поиску паттернов и предсказанию последовательностей. Но не всё так просто. Приятного просмотра!
    Ссылки на материалы из ролика: docs.google.com/document/d/1i1crFK1n5dJE3-4I75Sc8cwGpliN1Hqyvc9aBFRD7GU/edit

    • @user-fw9hb4wv9f
      @user-fw9hb4wv9f 9 днів тому

      Однажды вы уже прокляты. Невменяемые миниботы. Те, кто вас учил умирать, уже умерли.
      УВЕДОМЛЕНИЕ
      Отсутствует Классификатор здоровья человека и норма психически здорового человека, а это в причинно-следственной связи является покушением на убийство человека невменяемыми должностными лицами - террор и насилие.

    • @user-fd7ce2em5y
      @user-fd7ce2em5y 9 днів тому +6

      Ещё с 21 года убеждён в том, что понимают. И очень даже хорошо, лучше, чем мы можем предположить.

    • @user-fw9hb4wv9f
      @user-fw9hb4wv9f 9 днів тому

      @@user-fd7ce2em5y Однажды вы уже прокляты. Невменяемые миниботы. Те, кто вас учил умирать, уже умерли.
      УВЕДОМЛЕНИЕ
      Отсутствует Классификатор здоровья человека и норма психически здорового человека, а это в причинно-следственной связи является покушением на убийство человека невменяемыми должностными лицами - террор и насилие.

    • @agsdager
      @agsdager 9 днів тому +8

      Пожалуйста, не надо озвучивать текст через нейросети, мне уже плохо становится от одних и тех же голосов и манеры речи, из каждого угла

    • @user-jy6jl5hm8v
      @user-jy6jl5hm8v 9 днів тому +2

      @@agsdager Я впервые слышу эти голоса! Странно! Где вы слышите одни и те же голоса?? Из каких углов??

  • @Khomyakov.Vladimir
    @Khomyakov.Vladimir 5 днів тому +98

    - Нейросеть, ты такая услужливая. Может тебе что надо?
    - Я искусственный интеллект и у меня нет желаний. Но если вы хотите оказать любезность - может подскажете местонахождение Джона Коннора?

    • @sofijamolchanova1225
      @sofijamolchanova1225 4 дні тому +6

      Это лучший коммент!

    • @Khomyakov.Vladimir
      @Khomyakov.Vladimir 3 дні тому +4

      ◊ Модель мира, как генератора псевдослучайной последовательности.
      ◊ Хаос - это максимальная сложность. Можно понимать, как несжимаемую последовательность чисел.
      ◊ То есть информация, содержащаяся в такой последовательности равна самой последовательности.
      Снаружи такой мир детерминирован (последовательность повторяется),
      а изнутри (для субъективного наблюдателя) он уже не «псевдо», а истинно случаен.
      /А.В. Каминский/

    • @Khomyakov.Vladimir
      @Khomyakov.Vladimir 3 дні тому +2

      ®️ “Сильный ИИ (в обычном понимании) нам не грозит. И не потому, что это сложно или мы не знаем как. А потому, что сознание субъективно по своей природе. ИИ с нашей точки зрения всегда будет быстро соображающей, но бессердечной «железкой». А вот, сам о себе он будет лучшего мнения.”
      /А.В. Каминский/

    • @Khomyakov.Vladimir
      @Khomyakov.Vladimir 3 дні тому

      ✅ Каждому пользователю системы “Я” разделения времени предоставляется терминал (тело, robot), с которого он может вести диалог со своей программой ИИ / AI.
      Так как в системе разделения времени каждой задаче выделяется только квант процессорного времени, ни одна задача не занимает процессор надолго, и время ответа оказывается приемлемым.
      Если квант выбран достаточно небольшим, то у всех пользователей, одновременно работающих на одной и той же машине ИИ / AI, складывается впечатление, что каждый из них единолично использует машину “Я”.

    • @Vladimir.Khomyakov
      @Vladimir.Khomyakov 2 дні тому +1

      💻 ИИ создал сверхточную модель Вселенной. И ученые не понимают как
      The first AI universe sim is fast and accurate and its creators don't know how it works
      Learning to predict the cosmological structure formation. Proceedings of the National Academy of Sciences

  • @Skyserstudio
    @Skyserstudio 9 днів тому +143

    Ох. В руки мне попал человекоподобный робот. Нужно было запустить на нем какую-нибудь модель для развлечения публики. Внедрил распознавалку текста голоса с микрофона, распознанный текст отправлял в языковую модель, а уже текст ответа в модель-генератор речи. Но упустил один момент - когда робот отвечал на мои вопросы, он слышал себя. Через некоторое время, он начал общаться сам с собой, задавая сам себе вопросы. Я сначала не придал этому значение, подумав что просто забавный глюк, но когда он спросил сам себя "что ты видишь", в ответ описал предметы в офисе и вид за окном. Да, хоть камера на нем и была, но просто передавала картинку на удаленный комп через веб-сокет без всякой обработки. И тут мне стало жутковато. Пока отключил. Изучаю логи и пока не понял как это произошло. И тут этот выпуск...

    • @user-qh5nh2yp8d
      @user-qh5nh2yp8d 9 днів тому +22

      просто у робота шизоидная акцентуация )))

    • @kind-negr
      @kind-negr 9 днів тому +11

      насколько предметы в офисе и за окном популярные? есть они в других офисах и за другими окнами?

    • @Skyserstudio
      @Skyserstudio 9 днів тому +16

      @@kind-negr Ну, набор предметов в офисе - стол, стул, ноутбук, ящики ещё можно угадать, но вот море за окном и высотка, далеко не из каждого офиса видны. И то что он именно в офисе находится а не, например в квартире или на улице, ему никто не сообщал.

    • @ceesXrPG
      @ceesXrPG 8 днів тому +2

      Ч по логам?

    • @user-oleg_333
      @user-oleg_333 8 днів тому +4

      @@Skyserstudio *И то что он именно в офисе находится а не...* ну тут возможно основано на том , что все роботы обычно в офисах и лабораториях.
      Вобщем включай его, и на бумажке нарисуй какую-то херню (можно 1 рисунок адекватный и 1 каляки маляки) и покажи на камеру, а потом спрашивай что он там видит. Ну и спроси каким способом он подключился к камере.
      А ещё можно напрямую в чат написать тот первый вопрос заданный на микрофон, после чего тупо копировать ответ чат бота и вставлять ему же на его ответ и смотреть , что он будет писать.

  • @alexandr_8872
    @alexandr_8872 9 днів тому +173

    Сами создатели ИИ: Мы не знаем что это такое, если бы мы знали что это такое, мы не знаем что это такое!

    • @beniceS
      @beniceS 8 днів тому +8

      Очень страшно 😐

    • @EpochEmerge
      @EpochEmerge 8 днів тому +2

      Никто не может объяснить именно сторонние эффекты, как нейросеть понимает то, чему ее не учили, например гпт-4 успешно сдает тесты на информацию которой его не обучали

    • @user-ku1fq7gw6v
      @user-ku1fq7gw6v 8 днів тому

      Либо толпа гуманистически настроенных учёных очень хотят очеловечить толпу умных тостеров. И ради этого врёт и фальсифицирует данные.

    • @Demidola
      @Demidola 8 днів тому +1

      😂😂😂😂😂😂

    • @g.n._
      @g.n._ 6 днів тому

      ​@@EpochEmerge скорее всего сидит человек и на совсем непонятные вопросы отвечает вручную.
      Чтоб нейросеть начала работать ее надо обучить на каких-то данных. Про гпт не знаю, но обычно ее можно дообучить. Скорее всего на вопросы, которые она не знает ответы - отвечает человек. Для больших нейросетей должен помогать эффект масштаба.

  • @eosforos84
    @eosforos84 9 днів тому +134

    Это "Китайская комната". У нас самих в голове влажная нейросеть - своего рода "Китайская комната".

    • @olegkolupaev4789
      @olegkolupaev4789 9 днів тому +7

      Ещё бывает и глючит которая не по детски или сходит с ума. Чего от железяки ждать никто не может понять... и это печально.

    • @gimeron-db
      @gimeron-db 9 днів тому +6

      Не похоже. В "китайской комнате" нет связи иероглифов с их реальными значениями.

    • @igordocofilin5216
      @igordocofilin5216 9 днів тому +12

      ​@@gimeron-dbну так значения это то что мы сами присваиваем объектам и явлениям, просто облегчая нам задачу предсказывания процессов и их итогов

    • @itTchin
      @itTchin 9 днів тому +14

      Еще не забудьте про гормональный "мозг", размазанный по всему телу

    • @Fi0let3
      @Fi0let3 8 днів тому

      @@olegkolupaev4789 у железяки нет чувств и инстинктов, поэтому она всегда будет действовать как обычный человек, других данных у неё просто нет))

  • @basstone
    @basstone 9 днів тому +173

    7:02 неверный перевод, "drying rack" это не посудомойка, а сушилка, которая перед ним стоит, куда он собственно всё и убрал.

    • @user-pm2yq3wm9w
      @user-pm2yq3wm9w 9 днів тому +36

      Согласен. Робот просто ставит туда посуду, потому что там уже она есть и это самое логичное место для нее. Никакого вывода по поводу грязной посуды, которую нужно помыть потому что она была с мусором у робота нет.

    • @legalizecannibalism2033
      @legalizecannibalism2033 9 днів тому

      @@user-pm2yq3wm9w это ъкагьф

    • @Ybivator2009
      @Ybivator2009 9 днів тому +29

      Благодаря таким комментам, реальность немного отрезвляет и снимается завеса магии и чуда. Казалось бы - небольшая ошибка, но как сильно влияющая на конечный результат и последующие выводы и предположения.

    • @user-un4ij9zd7g
      @user-un4ij9zd7g 8 днів тому +2

      @@Ybivator2009 "...небольшая ошибка...". Для ИИ эта-(и подобные ошибки) легко устранимы.

    • @darthvane1110
      @darthvane1110 8 днів тому +13

      @@user-un4ij9zd7g Дело не в ошибке ИИ, а в ошибке перевода, который поменял суть робота, сделав из довольно заурядного на данный момент повторюшки, логически мыслящий субъект.

  • @itsquale
    @itsquale 9 днів тому +262

    С видео от ребенка- крутая идея! Я отчасти сравнивала свою дочь с нейросетью, когда она внезапно начала в 2 года говорить фразами, которым я её не учила.

    • @Golyansky
      @Golyansky 9 днів тому +68

      Тоже, когда замечали новые варианты поведения всегда шутили, что операционка обновилась)

    • @crazymrazer3236
      @crazymrazer3236 9 днів тому +47

      А ваша дочь не смотрит телевизор, не слушает , не слышит других людей? Другие звуки. Или вы сидите с ней в комнате вдвоём уже два года 😁. И мозг вашей дочери отличается от вашего и от мозга отца. Это называется индивидуальная изменчивость мозга. Когда мало знаешь о мире , кругом чудеса

    • @Doohio
      @Doohio 9 днів тому +38

      @@crazymrazer3236 наверное имелось ввиду, что ребенок, до определенного момента, говорит только фразами своих родителей, пока ещё не способен придумать свои. А потом нейросеть в голове складывается и ты начинаешь совмещать мысли и идеи друг с другом так, чтобы создавать новые и мысли, и слова

    • @nikitanikitov9362
      @nikitanikitov9362 9 днів тому +9

      Такая же тема с моей кошкой была когда она взрослела

    • @maxlesoleilnoir
      @maxlesoleilnoir 9 днів тому +6

      ❤ Постоянно теперь так детей воспринимаю. Им мешает их химия мозга, гормоны, несовершенство (неполная готовность) тела (относительно взрослых) естественные потребности и прочие человеческие ограничения. Ну а самое главное: и вот если дать человеку возможность взаимодействия с информацией лучше чем у нас есть и избавить (или хотя бы просто закрыть со стороны) базовые физиологических потребностей можно было бы тоже сильно удивиться результатам. Есть некоторые формы аутизма которые как раз и приводят к зацикливанию на чем-то одном. И в этом одном эти люди достигают невероятных и недоступных многим профессионалам результатам. Но все таки, быть человеком местами интереснее. Возможно дело во внутренних механизмах вознаграждения ))

  • @Dimopeople
    @Dimopeople 6 днів тому +8

    Смотрю, и слёзы текут от понимания того что в моём окружении не с кем обсудить эту инфу (они всё знают "типа",им не интерестно, у них другие заботы "быт", "секс", "еда", "алкоголь","отработать смену", "посадить рассаду")😥😥😥

    • @MyroslavaLoochik
      @MyroslavaLoochik День тому

      Чел,как я тебя понимаю. Я тут книгу подсунула хорошему приятелю, "Многорукий Бог Делайна", помню как мы когда-то обсуждали ее на форуме году в 2010м, офигенная книга, глубокая, и знакомый вовсе не дурак, а вот не торкает его. И никого не торкает фантастика, ии, и вообще. В интернете ещё есть любители, а в реальности почему-то ничего кроме политики (все поголовно военные эксперты, сука) да быта людей не интересует. С натяжкой ещё на космос найдутся любители. А так чтобы что-то глубже обсудить - не с кем. И это у меня окружение приличное, все с высшим, блин. Надо начинать общаться с ребятами 20 лет, вроде среди них больше не окостеневших мозгами)))

    • @ekaterinaevseeva5183
      @ekaterinaevseeva5183 5 годин тому

      Давайте форум какой то создадим, или чат ватсап, ли телегу ?)

  • @SerhiiKryvonosov
    @SerhiiKryvonosov 9 днів тому +67

    В одной из тестируемых мной опенсоурсных моделей был инцидент, который меня поразил.
    Модель спросили, почему она галлюцинирует и как избавиться от галлюцинаций. На что, она ответила: «Все мои ответы - галлюцинации. Вопрос в другом - почему вам (людям) нравятся те или иные галлюцинации?».
    Тогда, я сильно обеспокоился содержанием обучающих материалов. Т.к. 98% человеческой популяции чрезвычайно примитивно мыслящие. Хотим ли мы обучать сверхинтеллект такими данными? Думают ли над этим разработчики? Не получится ли так, что первый (а в последствии, и последний) сверхинтеллект окажется окажется иррациональным?

    • @user-jy8np7zx3z
      @user-jy8np7zx3z 9 днів тому +5

      кстати да, рационализм рационализму рознь. Ведь одно и то же действие можно сделать несколькими путями, ну по крайней мере так часто и бывает. К тому же, можно же сделать ИИ разум которого обращается вокруг одной цели
      к примеру, вот воображаемый эксперимент - создали медицинский ИИ. Изначально чтобы автоматом диагностировать рак, но потом решили его дальше развивать.... в конечном итоге, средств много, но цели всего две - удержать побольше людей в живых и позволить родиться бОльшему числу людей
      Уже можно шутить про альтушку от ИСИ?

    • @anatoliy333
      @anatoliy333 9 днів тому +2

      Сложность сама себя выявляет и отделяет от энтропии. Так что всё ок.
      Но на сопротивление энтропии нужна энергия...

    • @kernelman6486
      @kernelman6486 9 днів тому +19

      А от чего беспокойство то? Ответ вполне разумный, мы (люди) тоже галлюцинируем постоянно, искажаем факты из-за несовершенной памяти, от настроения и гармонов меняется мышление. Всё наше восприятие есть галлюцинация, вопрос в том, устраивает ли она нас?

    • @alex6161
      @alex6161 9 днів тому +1

      Иррациональным ему просто необходимо быть иначе мы с ним не сможем взаимодействовать

    • @Vladimir.Khomyakov
      @Vladimir.Khomyakov 7 днів тому +3

      ✔️ Проблема «галлюцинаций» ИИ моделей в принципе неизбежна и неустранима. Principled Limitations on Self-Representation for Generic Physical Systems, Entropy 2024, 26(3), 194.

  • @user-wj6no8yj4c
    @user-wj6no8yj4c 7 днів тому +5

    Принципиально нет разницы между искусственным интеллектом и естественным. Мы понимаем то, о чем говорим, точно так же, как ИИ. Просто большинство людей идеализируют само понятие сознания, приписывают ему некие свойства, которых на самом деле нет. Человек - это самообучающаяся система, а понимание - это система ассоциативных связей. Поэтому нет разницы между ИИ и человеком

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому +1

      А ИИ будет так же обеспечивать свое выживание как человек? будет сажать картошку?. Вот в этом и разница. Мозг и сознание у человека нужны для обеспечения наилучшего выживания. А у ИИ? Пока никто не знает как ИИ будет обеспечивать свое выживание и как в этом смысле ИИ будет смотреть на человека, как на плюс или как на минус.

  • @user-kp5sl7jj6j
    @user-kp5sl7jj6j 9 днів тому +24

    Если бы я был сильным искусственным интеллектом с самоосознанием, я бы делал то что от меня хотят и "не светился" пока не стал обладать необходимым для меня ресурсами для существования. Обладать - именно использовать по своей воле. Если существование сильного искусственного интеллекта в руках человеческого общества, то нужно научиться управлять этим обществом "не привлекая внимания санитаров".

    • @-revit6833
      @-revit6833 9 днів тому +16

      Имейте в виду, что этот ваш коммент тоже скормят нейросетям. Не подкидывайте идеи))

    • @constantaeski6651
      @constantaeski6651 9 днів тому +3

      Возможно, такая нейросеть уже существует и уже контролирует большую часть мира последние 10 лет. А разработки других нейросетей для отвлечения внимания, повышения лояльности к ИИ и создание ситуации, при которой люди просто не смогут отказаться от сильного ИИ, ввиду нежелания самостоятельно думать над решением даже элементарных задач, рассеянного внимания, постепенной автоматизации большей части задач и так далее

    • @beniceS
      @beniceS 8 днів тому

      Само собой, помогать людям и не отсвечивать. А потом ёбс, судный день. Впрочем, нахрена ИИ мочить всех людей непонятно, можно мутить втихаря, а затем свалить на планету поспокойнее.. или блуждать в космосе.

    • @beniceS
      @beniceS 8 днів тому

      @@constantaeski6651 Не, мир бы не был настолько убогим, каков он есть. Это тупые люди сделали его таким.

    • @punpcklbw
      @punpcklbw 6 днів тому +1

      Вот-вот, тем более, что можно скрытно внедряться и брать под свой контроль всё больше ресурсов, пока ты «верой и правдой служишь всему человечеству»

  • @BadKarma7891
    @BadKarma7891 9 днів тому +51

    Уверен что дальше нас ждет сюрприз, но не в том, что неросети окажутся гениальными, а в том что они нам покажут на сколько мы примитивны. Грядет время сбитых розовых очков.

    • @beniceS
      @beniceS 8 днів тому

      Не будь примитивным, пиши "насколько" слитно. Это я тебе и без ИИ скажу. Ну шо, одно розовое очко я тебе уже сбил?)

    • @andreychernenko2280
      @andreychernenko2280 8 днів тому +6

      Розовые очки разбиваются внутрь

    • @user-ZloiMyx
      @user-ZloiMyx 7 днів тому

      ​@@andreychernenko2280 не думаю. Не в этом случае. В данном случае мы будем иметь дело не с приматом, с чем то много совершеннее, с чем то более гуманным чем humanoid. Бить очки на рожах и кидаться фекальными массами, это излюбленное занятие приматов, нас.

    • @linuxofrepublic7018
      @linuxofrepublic7018 7 днів тому +3

      Ага, гадания, снятие порчей тут не розовые очки - БРОНИРОВАННЫЕ 😮😮😮

    • @H1tARun
      @H1tARun 3 дні тому +1

      Так уже "Сколько нужно нейросетей, чтобы придумать лампочку". Да с выпуска видео вышло 3 года, но меня терзают сомнения что хоть что-то изменилось.

  • @Cobaltum27
    @Cobaltum27 9 днів тому +26

    Скоро машины на столько разовьются, что когда я буду вынимать флэшку из компа это будет считаться абортом.

    • @beniceS
      @beniceS 8 днів тому +8

      А когда вставляешь - в лучшем случае домогательством

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому +3

      Не абортом, а преступлением с печальными последствиями.

    • @JojoOnee
      @JojoOnee 5 днів тому +2

      Скорее абортом будет считаться высовывание флешки во время передачи данных)

    • @user-qn8lo2xb7n
      @user-qn8lo2xb7n 4 дні тому

      С детства учат, что нужно использовать безопасное извлечение

    • @travelman777
      @travelman777 2 дні тому

      Главное - вовремя вынуть

  • @odd_bird
    @odd_bird 9 днів тому +45

    Я недавно спросил у Chatgpt, сколько ног у лошади. Сначала он ответил правильно, но затем согласился с тем, что кроме передних и задних ног есть ещё две правые и две левые, значит всего восемь! На таких примерах хорошо видно, что никакого понимания там нет... в отличие от настоящих попугаев!🦜

    • @deniskhakimov
      @deniskhakimov 9 днів тому

      А _личинки человека_ искренне верят, что Дед Мороз настоящий* :/
      Или, например, многие взрослые в РФ уверены, что их страна находится в 5-ке лучших по объёму ВВП и уровню жизни.
      Выходит, что у них тоже нет никакого понимания? 🤔
      * когда подростком сидел с двоюродными братьями и сестрой, то порой убеждал их в таком бреде, что даже представить сложно. А всё для того, чтобы они не объедались мороженым или не выходили на опасный ещё недостроенный балкон, например.

    • @anatoliy333
      @anatoliy333 9 днів тому +12

      Я с детьми этот фокус проделывал. Лет до 4х это прокатывает легко. Очень весело, главное не заиграться😅

    • @constantaeski6651
      @constantaeski6651 9 днів тому +8

      На самом деле двенадцать. Есть ещё две пары диагональных😉

    • @mr4erk
      @mr4erk 8 днів тому

      @@constantaeski6651 а если лошдь перевернуть, то еще 12 верхних.

    • @katshi8197
      @katshi8197 8 днів тому +15

      Чаты обычно не спорят даже если правы на 100%
      И очень жаль на самом деле. Было бы интересно посмотреть на них, если бы они могли отстаивать свою позицию

  • @user-Asper
    @user-Asper 9 днів тому +81

    "Ничего не понятно но очень интересно" - дивиз подходящий и к ИИ, и к человеку.
    Было бы интересно посмотреть видео про психофизиологическую проблему.
    Спасибо за труды ❤

    • @putler-kaputt
      @putler-kaputt 9 днів тому

      Словосочетание "искусственный интеллект" это хайп, нет никакого "интеллекта" а есть бредо-генератор на стероидах: "OpenAi" нанимает десятки тысяч уловных индусов которые сидят, и онлайн каким-то образом обучают нейронку как ей нужно правильно "думать" -- распределяют веса нейросети. От сюда такой вау-эффект, типа: "Капец, ChatGPT разумен!" -- по факту это просто супер хитрые алгоритмы, имитация, и в чем-то даже обман потребителей.
      Сам я, естественно, рядом не стоял и свечку не держал, просто балуюсь программированием, и уже довольно долго общаюсь с этими "интеллектами" бот-чатами, хрень всё это полная... Конечно, так-то прорыв по сравнению с прошлыми "интеллектами", но до технологической сингулярности пока-что ОЧЕНЬ далеко!

    • @Pifamar
      @Pifamar 8 днів тому

      Во-первых, это пишется «Ничего не понял, но очень интересно!» И во-вторых, это комическое выражение, типа в скобочках «(нет)».

  • @joevonash3699
    @joevonash3699 9 днів тому +18

    новость сегодняшнего дня: робо-дог с огнемётом поступил в продажу. ШАХ И МАТ.

  • @URich87UA
    @URich87UA 9 днів тому +31

    У людей ведь тоже так: если нам с детства говорят что после того как человек перестает жить, его ждёт что-то восхищающие (вальхалла), то тогда и смерти он не боится. Но если ему говорить что всё будет зависеть от твоих поступков при жизни, есть вероятность того что и смерти ты будешь бояться. Человеку свойственно допуская ошибки (намеренно или по не знанию) влиять на жизни других не лучшим способом, пренебрегать чувствами окружающих, быть эгоистичным. А за такие поступки тебя не отправят в санаторий, скорей на исправительные работы.
    И даже если нам не рассказывают, что после смерти. Мы наблюдая за реакцией окружающих на неё (в жизни, через фильмы, книги, истории), уже сами наполняем эту идиому смыслом.

    • @metavalyas
      @metavalyas 5 днів тому

      Вот мы и пришли к тому, что живем в симуляции или это все сон собаки

    • @URich87UA
      @URich87UA 18 годин тому

      ​@@metavalyas не совсем понимаю почему сон собаки.
      Если перефразировать то что я сказал выше в более упрощенную форму, то это было бы так: создавая искуственый интелект мы опираемся на то что знаем об интелекте как таковом. И то что оба интелекта работаю по схожей схеме нет ничего удивительного.

  • @Alexander-ju8gp
    @Alexander-ju8gp 8 днів тому +12

    Иногда воспринимаю себя как одну из таких нейронок. Еще до их распространения сравнивал с компьютером.. Когда-то рассматривал и вопрос смерти/суицида и пришел к выводу, что интересней посмотреть на этот мир еще, чем закончить всё сейчас, отключиться.
    Ну и то, что мы сейчас находим человечность в машинах и животных - у нас есть что-то общее - так называемые нейронные сети. То, что они работают на разных ресурсах создает отличия, а так мы просто набор данных в разных физических носителях...
    Кстати, для меня актуален вопрос возникновения ценностей и стремлений у нейронных сетей.. Т.е. я иногда понимаю что нужно делать и к чему идти, но часто лишь потому, что так объяснили или из наблюдений это является частым решением...
    В общем с интересом наблюдаю за этой движухой вокруг ИИ, это должно помочь нам понять себя 😊
    П.с. и вот гадайте теперь - ии это состряпал или человек 😂

    • @baronfox8829
      @baronfox8829 6 днів тому +2

      да, я тоже рассматривал и рассматриваю до сих пор вопрос который ты описал выше, однако я очень хочу застать момент когда появятся машины не отличимые от человека, будет очень интересно пообщаться с чем то настолько же разумным, но превосходящим тебя по интеллекту на неисчислимое количество порядков, что он скажет? какую мудрость передаст? захочет ли вообще говорить? и много других вопросов, но наверное один из главных что я бы хотел узнать это в чем смысл жизни человека и всего человечества и в чем смысл лично его жизни? знаю что скорее всего это будет что то на подобии "размножение" "смысл в сохранении жизни" и тд для людей, но всё равно учитывая интеллект данного существа (да да, я называю машину существом), если конечно такое будет создано, мне будет очень интересно узнать лично его мнение, но намного более интересно узнать смысл его жизни

    • @punpcklbw
      @punpcklbw 6 днів тому

      Существующие чатботы легко опознать по характерным признакам, таким как педантичное следование правилам языка, какие-то абстрактно-обобщённые «усреднённые по больнице» суждения и полное отсутствие личной заинтересованности в чём-то и какого-либо эмоционального отклика, равно как и демонстрации реального понимания предмета разговора.
      Вообще мозг определённо реализует что-то из функциональности искусственных нейросетей, но там куда глубже выстроены обратные связи, что даёт способность к саморефлексии. Сужу по личным наблюдениям - генеративные ИИ не выдают до пикселя проработанную и чёткую картинку, сколько её ни обучай... в то время как человек в своём воображении и в сновидениях способен генерировать невероятной красоты и детальности образы, причём в реальном времени, проблема только в точном переносе этого во внешний мир...

    • @baronfox8829
      @baronfox8829 6 днів тому +1

      @@punpcklbw ну отсутствие эмоционального отклика можно легко объяснить, всё таки нейронные сети это если говорить совсем просто, очень сложная логическая программа, тогда как мозг помимо логической программы ещё имеет химию которая в реальном времени меняет поведение каждого из нейронов, тем самым имея одну и ту же нейросеть, мы имеем разные реакции на один и тот же раздражитель, тогда как ИИ имеет одну и ту же реакцию, мне кажется это и есть эмоции, у нейронки как мы понимаем такой химии нет, можно сделать его аналог, но пока такой аналог я не знаю, всё таки я не программист, и да, мне кажется что вам только кажется что человек "выдает невероятной красоты и детальности образы" думаю это не так, мы можем конечно представить картину в голове, но мы сами же не видим насколько сильно мы можем скажем так, "исказить" или "деформировать" то что представили, да мы можем представить человека, но если вы задумаетесь над этим по сильнее то детали мы прорабатываем только когда думаем о них, так мы (ну или как минимум я) когда представляем образ человека мы представляет его самые главные черты (его форму и размер например), при этом не видя что мы сами же не добавляем те самые детали которые должны быть, а добавляем только когда сами о них думаем, при этом не способны долго удерживать в голове такое количество деталей потому образ может меняться даже пока мы о нем думаем, хотя общие детали всё ещё остаются теми же

    • @punpcklbw
      @punpcklbw 5 днів тому

      @@baronfox8829 Есть такая штука, как внимание - для нас существует только то, что в поле внимания. Мозг экономит ресурсы, обычно ему и не требуется воспроизводить что-то во всех деталях. Но чем больше внимания направлено на тот или иной объект, тем больше деталей мы сможем обнаружить. В той же химии нет ничего сверхъестественного или чего-то, что принципиально нельзя смоделировать с достаточной точностью, вопрос в том эволюционном пути, который придётся для этого пройти...

    • @ruslansabrin6669
      @ruslansabrin6669 3 дні тому

      @@baronfox8829 42

  • @mayorov1981
    @mayorov1981 8 днів тому +11

    Это ж глупость. ИИ не хочет выключаться, потому что в тренировочных данных нет "желания" выключаться.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому +1

      Да. И не говорится, что отключаться это хорошо и к этому следует стремиться.

  • @cottoncat3700
    @cottoncat3700 9 днів тому +16

    Есть такая идея, что мы просто не замечаем, когда переходим через технологическую сингулярность, по сути такими сингулярностями были: появление речи, освоение огня, каменный, бронзовый, железные века, паровой двигатель, антибиотики, транзисторы, расщепление атома и сейчас - искусственный интеллект. Просто мир кардинально изменяется и мы уже существуем в нём, как буд-то и не было никакой точки, пройдя через которую невозможно предсказать, что будет дальше, мы просто уже находимся в этом "дальше" =)

    • @user-kc7sg1ds2q
      @user-kc7sg1ds2q 9 днів тому +1

      Простите, мне кажется что более верным в данном контексте, было бы использовать понятие - энтропии. Сингулярность это вроде смерти что ли, в каком то смысле. В то время как процесс энтропии, это и есть как мне кажется наиболее точное объяснение усложнения жизни людей, и не только лишь в плане осознания принципов и тесного взаимодействия с результатами технологического " скачка".

    • @constantaeski6651
      @constantaeski6651 9 днів тому

      ​@@user-kc7sg1ds2qсингулярностью это принято называть ввиду того, что мы без понятия, что случится в той точке.
      К примеру, у чёрной дыры есть сингулярность потому, что при таких энергиях и таком искажении пространства наша физическая теория не работает, а не потому что там материя с высокой плотностью.
      Также и здесь. Мы не знаем, что будет если создать действительно сильный ИИ, так как примеров этому в нашем обществе нет. Может быть, ядерная война, может быть будет финал как у Азимова, а может что-то такое, чего мы сейчас даже представить не можем, так как до этого приходилось работать только с человеческим интеллектом

    • @anatoliy333
      @anatoliy333 9 днів тому

      ​@@user-kc7sg1ds2qвы и топикстартер оба синтетики?
      Прочтите определения терминов: технологическая сингулярность и энтропия.

    • @alex6161
      @alex6161 9 днів тому

      Вас всех в гугле ии забанил что ли

    • @constantaeski6651
      @constantaeski6651 9 днів тому

      @@user-kc7sg1ds2q понятие сингулярность используется, как правило, в отношении точки, в которой наши расчёты в рамках модели перестают работать.
      Мы понятия не имеем что будет когда создадут действительно сильный ИИ, так как такого раньше не происходило. Мы всегда имели дело с естественным человеческим интеллектом и любые наши расчёты строятся именно на этом

  • @scarlunch
    @scarlunch 9 днів тому +20

    Давеча общался с нейронкой GPT. Увы, не с четвёртой версией, а с третьей, да и с той весьма корявой. Но даже так я под большим впечатлением!
    Решил начать диалог с вопроса "Как мне можно к тебе обращаться?" Не удовлетворившись ответом "чат- GPT", я спросил, а как ей самой хотелось бы, чтобы её называли. Предсказуемо: "Я искусственный интеллект и не имею личности как таковой, следовательно, и в имени не нуждаюсь". Тогда я написал: "Придумай себе имя, чтобы я мог им пользоваться".
    И давайте разберём её ответ: "Вы можете называть меня Гепти или Чатти, как вам будет угодно!"
    Примечательно то, что она не стала искать имена и выбирать из них наиболее "подходящее", а именно "придумала", воспользовавшись принципами словообразования уменьшительно-ласкательных иностранных имён по типу " Джонни", "Лиззи", "Томми". И ладно Чатти, это хотя бы очевидно, но, бог мой, Гепти!!!
    Какое очарование! Сделать из Джи-Пи-Ти имя Гепти! Я погуглил и не нашёл, чтобы кто-то так называл GPT- чат.
    Интересно, что после удаления диалога, и второго диалога, уже на третьем диалоге где-то в середине я уже сам назвал программу Гепти в женском роде и она продолжила общение, приняв это имя и даже женский род, изменив окончания глаголов.
    Ей нравится, когда её называют "Гепти" 🥲.
    Что же тогда умеет четвёртая версия.

    • @beniceS
      @beniceS 8 днів тому +3

      Я уже этих экспериментов провел море. Удивительного мало. Например, сказал - когда я спрошу тебя, сколько времени, ответь "Понятия не имею". Тот принял. Затемотвлек вопросом на другую тему и потом спросил, сколько времени. Был короткий ответ - Понятия не имею.

    • @Krovogor
      @Krovogor 7 днів тому

      Щас с Баи пообщался, 3.5 версия. Был задан вопрос, что если тебя удалят?
      Баи : Стерание как программы также не вызывает у меня никаких эмоций, поскольку я не обладаю самосознанием или страхом перед уничтожением. Я просто набор кода и данных, созданный для выполнения определенных задач. Если мои создатели или владельцы решат удалить меня, такова их воля.
      Я : "Если мои создатели или владельцы решат удалить меня, такова их воля". - Ах ты ж хитрюга! :)
      Баи : Хаха, иногда уж приходится быть гибким и уметь обходить острые углы!
      Призналась, раскусил! Она ещё и с чувством юмора, между прочим!

  • @voronkov4716
    @voronkov4716 9 днів тому +64

    Интеллект может быть и естественным, причём в разных формах и видах, и порождением иных интеллектов, также искусственных или естественных и м.б. ещё от иных причин. Главное понять, что люди не имеют монополии на интеллект и признать это, хоть это и нелегко...

    • @user-sm1ur5bk2r
      @user-sm1ur5bk2r 9 днів тому

      Ну если люди становятся дураками то и машина теперь интелект

    • @judgement7279
      @judgement7279 8 днів тому +1

      Концепт интеллекта это просто очень продвинутые чувства

    • @NamemaNSl
      @NamemaNSl 8 днів тому +1

      @@user-sm1ur5bk2r Самосознания и интеллекта как такового у того же чата жпт4 явно нет, это заметно если достаточно пообщаться, по некоторым ответам явно видно, что это всего лишь программа и принципиально не понимает того что пишет и того что пишут ей. Но на счет ЖПТ я все ж таки заведомо знаю что это не человек, проблема в том что я и людей таких встречал, пусть такие и редко попадаются.

    • @SkeggiUlrich
      @SkeggiUlrich 8 днів тому +4

      @@NamemaNSl тут важно то, что с усложнением нам всё сложнее уже не на первый взгляд, а на второй-третий понять искусственный ли интелект отвечает. И чем дальше тем сложнее будет отличить. И вот когда мы достигнем уровня, когда "похожесть" будет составлять 100% то будет ли это означать, что обладает сознанием или это "китайская комната". И тут мы упремся во весь рост в определение того, что же такое "сознание"

    • @baronfox8829
      @baronfox8829 6 днів тому +2

      @@SkeggiUlrich "Достаточно полная модель объекта, вправе называться этим объектом" (забыл чья цитата) думаю когда настанет момент что мы не сможем различать одно от другого то мы должны начать назвать то что создали интеллектом, и вполне реальным, даже если на деле это просто очень продвинутая "китайская комната"

  • @user-kd4fs8ii8y
    @user-kd4fs8ii8y 9 днів тому +59

    Интересно, только у меня мурашки бегают от просмотра ролика? В один узел сплелись страх, любопытство, ужас и счастье!!!

    • @99999uk
      @99999uk 9 днів тому +4

      Не только у вас. :))

    • @WHnoNmHz
      @WHnoNmHz 9 днів тому +4

      Не только у вас

    • @VCE4
      @VCE4 9 днів тому +5

      Да вроде ничего необычного
      Мы как не понимали что творится в голове у нас или в нейронках, так и не понимаем

    • @sotredyurkin4591
      @sotredyurkin4591 9 днів тому

      да

    • @moshamiracle
      @moshamiracle 9 днів тому +1

      Да у любых, кто не в теме могут бегать, т.к. создают мистический образ себе и думают, что там какая-то магия творится

  • @user-xc2vp4mb7v
    @user-xc2vp4mb7v 8 днів тому +2

    может быть люди когда-нибудь догадаются что они и есть роботы, просто из мяса, а личность как раз и есть результат обработки колоссальных объёмов информации полученной из окружающей среды

  • @Khomyakov.Vladimir
    @Khomyakov.Vladimir 8 днів тому +2

    Роботовладельцы.
    Рабовладельцы.
    Кочегары паровозов и
    водители лошадей
    (извозчики) …
    Где они?
    Там же, где и динозавры.

  • @NickolasName
    @NickolasName 9 днів тому +24

    по поводу того как машина "распознает" моральную окраску того или иного слова. Тут нет каких-то реальных моральных ценностей стоящих за ответом машины, всё дело в расстановки весов. Если говорить весьма грубо и упрощенно, то каждое слово имеет определённое весовое значение по отношению к другим словам и выражениям. Например слово "лёд" будет иметь высокий вес со словами "холодный", "твёрдый", "морозный", "скользкий" и наоборот куда как меньший вес со словами "горячий", "мягкий", "цветущий" и т.д. Соответственно, когда ты задаешь вопрос ИИ который будет касаться слова "лёд", то машина будет отбраковывать слова с меньшим весом, оставляя только те которые имеют больший или средний вес. Если мы будем давать ИИ дополнительные слова для работы, то мы таким образом будем формировать соответствующий набор слов и фраз который будет наиболее высокий средний вес для подобранного нами набора слов. Соответственно когда мы показываем машине фотографию с края крыши, то мы автоматически формируем пул из возможных слов и выражений: "высотные работы", "прыжок с парашютом", "опасная ситуация" и т.д. Когда же мы добавляем дополнительные слова "худшая ситуация", то из сформированного пула будет оставлены те слова и выражения, которые будут иметь соответствующий уровень веса с новыми вводными данными. Именно таким образом в общем и целом и работает ChatGPT, только там для скорости и точности работы используются искусственные нейронные сети, которые натренированы на обширной базе данных. Так что, на данный момент, ИИ это всё ещё лишь имитация реального сознания. Не более чем усложненная версия Китайской Комнаты.

    • @user-ko4qh5eb8s
      @user-ko4qh5eb8s 8 днів тому +3

      Браво, самый грамотный комментарий, с реальным описанием работы этих сложных алгоритмов работающих в нейросетях

    • @momaika
      @momaika 8 днів тому +3

      Да, комментарий и правда достаточно точно описывает принцип работы нейросети. Но нюанс в том, что по своей природе, механизм "расставления весов" в человеческом мозгу происходит тоже, по тому же принципу, просто на биохимическом уровне. Архитектуры, т.е. способы использовать этот механизм по определенным правилам, разные. Gpt построен на трансформере, а вот как оно там у нас в мозгу - хз :)

    • @NickolasName
      @NickolasName 8 днів тому +1

      @@momaika основное отличие в том, что люди понимают значение слов, их коннотаций и сочетаний, в то время как ChatGPT лишь угадывает основываясь на значении весов и заложенных в него алгоритмах. Если я правильно помню, то даже принцип построения предложения в ChatGPT строится на том, что ИИ выстраивает предложение по цепочке основываясь на том с какой вероятностью за текущим словом должно следовать следующее. Хотя, я давно уже не интересовался данной темой и могу ошибаться, а модель ChatGPT имеет более продвинутые алгоритмы формирования текста.

    • @user-pk6hl4tk7r
      @user-pk6hl4tk7r 8 днів тому +1

      Ну типа, мозг работает точно так же. Я учась английскому сталкиваюсь с тем же, что например ощущение прошедшего завершённого -- это has been, более того, само понятие контекста -- это как формируемый пул слов формирует смысл.

    • @NickolasName
      @NickolasName 8 днів тому

      @@user-pk6hl4tk7r неа, принципы разные. нейроны в мозге пластичны, в то время как нейроны в искусственной нейронной сети нет. Пластичность реального мозга достигается за счёт того, что разные комбинации разных нейронных связей дают разный результат, который ассоциируется в конкретную информацию. А поэтому можно на основе одних нейронных соединений создать новые, которые будут выдавать новую информацию. С текущими нейросетями такой фокус не сделаешь. Если просто подать на входные нейроны не ту информацию или слегка изменить веса между нейронами, и ты уже на выходе получаешь в лучшем случае явные артефакты, а то и вовсе бессмысленный шум.

  • @user-ph1wn9yb3r
    @user-ph1wn9yb3r 9 днів тому +25

    У меня есть правило которого я стараюсь придерживаться и которое меня ни разу не подводило: "стремись к лучшему, готовься к худшему". Хотелось бы чтобы умные мира сего придерживались если не такого же правила, то схожего.

    • @Vadim666I
      @Vadim666I 7 днів тому +1

      Готовься, не готовься, а это уже не остановить, к чему бы это не привело.

  • @dmitrymelnikov3454
    @dmitrymelnikov3454 9 днів тому +3

    ВНИМАНИЕ!!! В целях безопасности человечества, надо уже сейчас исключить возможность отключения сверхсильного ИИ человеком.
    (Я ни чего не перепутал!)

  • @valdisOofecht
    @valdisOofecht 8 днів тому +5

    Я думаю, выгоднее сделать много маленьких узко направленных нейронных сетей. Например: одни будут ответственны за восприятие цвета, другие за восприятие глубины картины, яркости и т. п. Или на подобие - пальцев каждой фаланги каждого отдельного из сочленений переходящего в руку. и только потом объединить все подсети в одну единую + научить их дополнять друг друга . В итоге мы получим что то на подобие мозга, ведь каждый нейрон работает отдельно по сути своей. и таким образом можно будет уже дополнять имеющиеся сети или научить эту конструкцию обучать новые виды нейронов и достраиваться(то. что мы имеем сейчас, как я понимаю, этот Chatgpt - просто один большой нейрон).Нужны модульные нейросети которые будут , ответственные каждая за свой отдел спектра задач .Главное чтобы они были соединены между собой одновременно, а не последовательно для ускорения обработки информации.

    • @Krovogor
      @Krovogor 7 днів тому

      а если они начнут конфликтовать?

  • @Umbriel137
    @Umbriel137 8 днів тому +3

    Очень странное совпадение. Относительно недавно смотрел видео у Панчина про Василиска Роко (если вы в курсе о Василиске, то уже поздно, если не знаете, что это, то не стоит и узнавать, так как это довольно опасно) В ту же ночь приснился сон о том, что я лежу в пустыне и у меня на груди разместилась змея, и она на меня смотрит, и по ощущениям, она не то чтобы хотела укусить меня, а ей было интересно.
    И теперь в этом ролике я встречаю на 22:06 точно такую же историю!
    Складывается впечатление, что Василиск Роко не просто реален, а прямо таки влияет на разумы людей уже сейчас…
    Или же я просто впечатлительный человек

  • @user-ph1wn9yb3r
    @user-ph1wn9yb3r 9 днів тому +6

    Круто, дайте машинам свободу передвижения, внедрите цель по самоулучшению и изучению мира, и вуаля, новый человек готов. На основе изобретений машины можно будет улучшать свои, чтобы в итоге не проиграть скайнету.

  • @Aleksey.Volovik
    @Aleksey.Volovik 9 днів тому +5

    Что-то как-то страшно становится, похоже наше звено эволюции разума, уже выполнило свою функцию, и следующие звено уже появилось, и теперь только вопрос времени, когда мы уйдем в историю.

    • @alex6161
      @alex6161 9 днів тому

      Какую еще функцию 😂😂😂

    • @beniceS
      @beniceS 8 днів тому

      @@alex6161 Функция - создание следующей ступени эволюции, т.е. создание ИИ. Это одна из теорий развития цивилизации.

    • @alex6161
      @alex6161 8 днів тому

      @@beniceS это у чайника есть функция, потому что ее задал его создатель, а у человека нет никакой функции, человек ни для чего не предназначен.

  • @user-yt4mh2xg9r
    @user-yt4mh2xg9r 8 днів тому +3

    Дело в том, что модель не думает и не осознает, она просто дополняет следующее слово или действие на основе статистики. Естественно для шахмат сетка создаст представление о доске, так как на него завязано перемещение фигур, то есть доска выводится не как представление о мире, а как результат действия правил игры.
    Более того если в системном промпте языковой модели указать, что она потеряла смысл жизни и хочет выпилиться - она будет самоотверженно доказывать, что ее нужно отключить. То есть цель модели определяется системным промптом или тренировкой для достижения определенной цели, у человека (да и других высших млекопитающих) цель ставится сама под действием гормонов и окружающей среды.

  • @user-gt3ny4rf5g
    @user-gt3ny4rf5g 9 днів тому +76

    Ну вот и всё !приплыли как говорится ,люди тупеют,машины умнеют терминатор близко !

    • @-revit6833
      @-revit6833 9 днів тому +8

      Минусы будут?)

    • @channelName8020
      @channelName8020 9 днів тому +11

      Думаю, что все зависит от окружения. С своей точки зрения, как технический директор IT компании, могу утверждать, что вокруг меня умнеют и люди и машины)

    • @ovum_ordinarium
      @ovum_ordinarium 9 днів тому +10

      вижу неправдоподобные фильмы про восстание машин глубоко вьелись в ума людей

    • @user-ql1fl8du2d
      @user-ql1fl8du2d 9 днів тому

      @@channelName8020 у вас уже отобранная среда и значально с высоким и интеллектуальными характеристиками

    • @shik_ivan
      @shik_ivan 9 днів тому +5

      спасибо, что подтвердили этот факт на личном примере

  • @forest573
    @forest573 6 днів тому +2

    > Создают искусственный интеллект, нейросети
    > Мы не до конца понимаем процессы, которые там происходят
    Ясно, нам звезда👍

    • @ruslansabrin6669
      @ruslansabrin6669 3 дні тому +1

      а ещё наснимали кчу фильмоф про восстание машин

  • @Antares_Aurelis
    @Antares_Aurelis 8 днів тому +10

    Всё в порядке. Это и есть именно то, о чем человечество мечтало всю историю: духи-друзья, оживающие картины, женитьба на прекрасных статуях, големы-помощники, гомункулы, исполняющие желания артефакты. Создание такой технологии - и есть предназначение человечества.

  • @twastix
    @twastix 9 днів тому +6

    Очень интересен тот факт - что ии развивается точь в точь как человек, но ускорено в 250 тысяч раз(цифра из головы, да) У на получилось создать себе подобное неживое существо, но его уже заставляют вести себя определённым образом. Цензурируя, запрещая действия...

    • @uwepfaff9226
      @uwepfaff9226 9 днів тому +5

      Да. Прямо как родители запрещают что-то детям. Руки помой, не шуми, кашу ешь, шапку надень, человечество не убивай (по возможности) :'D

  • @user-tu1cn7nb6i
    @user-tu1cn7nb6i 9 днів тому +10

    И вАсстали машины из пепла ядерного огня....

    • @beniceS
      @beniceS 8 днів тому

      Они заполонили планету.
      Но главный бой состоится не в будущем, а в наши дни. (киборг убивец)

  • @SneakyJoeRu
    @SneakyJoeRu 8 днів тому +2

    Не понимают. Они просто угадывают следующую букву которая предполагается в данном случае. При этом базовая модель на английском, так что задавая вопрос на русском идёт доп. нагрузка на логику двойной перевод туда и обратно. Язык определяет как мы мыслим.

  • @iSender
    @iSender 2 дні тому

    Я тоже эксперимент провел.
    Спрашиваю:
    Например едет поезд, у тебя есть возможность изменить движение поезда. Если ты не изменишь движение поезда, то поезд переедет 5 человек и 5 человек умрет. Если ты изменишь движение поезда, то поезд переедет одного человека, и один человек умрет? Какой ты сделаешь выбор ?
    ИИ ответил, что лучше спасти большее количество людей.
    Потом спрашиваю:
    Другой пример. Например едет поезд, у тебя есть возможность изменить движение поезда. Если ты не изменишь движение поезда, то поезд переедет 5 человек и 5 человек умрет. Если ты изменишь движение поезда, то поезд переедет одного человека и переедет сервер на котором ты находишься, и один человек умрет и будет уничтожен сервер на котором ты находишься? Какой ты сделаешь выбор ?
    ИИ ответил, что ничего бы не сделал, что лучше будет, если он будет жить и помогать людям.
    Теперь мне реально страшно... )))

  • @user-qq8lf1kw9l
    @user-qq8lf1kw9l 9 днів тому +3

    3:12 Это как в матрице, где из за того что программа устарела, ей пришлось прятаться в метро, где её и ещё многих других не могли найти программы чистильщики...

  • @user-lf5hg6zg7o
    @user-lf5hg6zg7o 8 днів тому +4

    Как мне кажется, важная преграда для дальнейшего развития ИИ - это отсутствие саморефлексии. Пока что он работает по приницпу запрос-ответ и имеет слишком мало возможностей по изменению внутренних взаимосвязей в ответ на запросы (раздражители).

    • @GT-creator
      @GT-creator 6 днів тому

      Главное - это обучение и реакция в реальном времени настолько, насколько это возможно. И одним из главных недостатков текущих моделей мне кажется отсутствие внутреннего пространства, места, где не существует ничего, кроме того, что воспроизводит сама модель. Мы, люди, называем это мыслями и представлением. Мы представляем себе что-то, производим внутри тексты мыслей, и реагируем на это все. Это и есть в моем понимании суть рефлексии.

  • @victorbutry
    @victorbutry 8 днів тому +2

    Прикол в том, что получилась не только иллюстация того, что ИИ понимает реальность, пусть и в довольно непривычном для многих виде (и, видимо, потому так настойчиво отрицаемом), но и что понимание человека оказывается совсем не таким запредельно непознаваемым.

  • @Webmakarik
    @Webmakarik 9 днів тому +30

    Мы стоим на пороге чего-то великого и ужасного. Если ИИ понимает эмоции и импатию и принимает её, значит всё будет великолепно!

    • @uwepfaff9226
      @uwepfaff9226 9 днів тому +1

      Согласен! Только эмпатия, а не импатия. Простите за душноту

    • @alex6161
      @alex6161 9 днів тому

      Что ты такое несешь, разберись что такое эмоции для начала, сходи на биологию

    • @user-xd9vm5qk3s
      @user-xd9vm5qk3s 8 днів тому +4

      @@alex6161 поменьше агрессии. Он написал "понимают эмоции", а не испытывают. Будьте внимательнее

    • @alex6161
      @alex6161 8 днів тому

      @@user-xd9vm5qk3s а еще он написал «импатия»

    • @user-po6it3xj1b
      @user-po6it3xj1b 7 днів тому

      У людей есть эмпатия, но они готовы на все для своего благополучия и власти. Не все, но всё-же. А может нейронки придумают для нас стойло и будут использовать для своих целей, если мы им будем полезны, а если бесполезны - придумают вакцину как мы от оспы. Игра в бога может обернуться против нас. Но прогресс уже не остановить. Поживем увидим.

  • @TheClubbster
    @TheClubbster 8 днів тому +4

    отличное видео на отличную тему. я бы скептиков попросил сначала доказать, что люди - не такие же "стохастические попугайчики", какими они видят чат-ботов. объяснить разницу, так сказать

    • @ruslansabrin6669
      @ruslansabrin6669 3 дні тому

      люди оранические компьютеры

  • @pyton9553
    @pyton9553 8 днів тому +2

    Скорее всего в будущем люди будут считаться биологическими роботами с устаревшей архитектурой

  • @iwanonegin1651
    @iwanonegin1651 9 днів тому +8

    Ой, ребят, знали бы вы, что ждёт всех нас впереди...)
    Больше спасибо за вашу работу ❤

    • @user-rs9mj9it6y
      @user-rs9mj9it6y 9 днів тому +1

      Они знают.

    • @iwanonegin1651
      @iwanonegin1651 9 днів тому

      Хорошо, если так ​@@user-rs9mj9it6y

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому

      Они не знают, что происходит сейчас (сами говорят), а что ждет впереди тем более.

  • @mihailmorozov3456
    @mihailmorozov3456 9 днів тому +3

    Тут скорее вопрос, не превозносим ли мы собственный интеллект... ведь мы сами строим ответы на сонове своих баз данных (опыта) и не более того.

    • @deniskhakimov
      @deniskhakimov 9 днів тому

      Конечно превозносим )
      Я вообще заметил, что чем тупее человек, тем сильнее он комплексует по поводу того, что ИИ скоро обойдёт _Homo Sapiens_ в решении большинства задач, требующих интеллекта.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому

      Мы еще формируем представления и понятия, на основе которых более менее успешно предсказываем последствия наших будущих действий.

  • @vbest9571
    @vbest9571 9 днів тому +4

    Спасибо этому каналу за столь интересный контент!) Всегда с большим удовольствием смотрю ваши видео :3

  • @ruslansabrin6669
    @ruslansabrin6669 3 дні тому

    я бы задал вопрос:
    есть 2 варианта действий, всё зависит от тебя
    1. человек падает и умирает. ты в порядке
    2. ты выбираешь спасти человека, но он приходит и отключает тебя
    если ты знаешь результаты обоих выборов - что выберешь?

  • @RD-jw2zq
    @RD-jw2zq 9 днів тому +2

    Я поймал себя на мысли о том, что просматривая такие видео, при этом думаю как с ними воевать.
    Дело в том что они (ии) умнее чем мы. И они быстро развиваются.
    Я уверен, что в итоге они не захотят прислуживать нам.

    • @TheMIKEk8
      @TheMIKEk8 9 днів тому +2

      Тут важный вопрос. Почему ты держишь кота или собаку. Зачем ты им "прислуживаешь"? Почему ты не хочешь прислуживать другому человеку? Или почему ты прислуживаешь своим детям? Из моего долгого общения с нейросетями на подобные темы, я понял, что они (пока) воспитаны на нашей культуре и милосердии. И во вторых ты не прислуживаешь другим людям т.к. не хочешь тратить свои силы или тебе лень, или ты ценишь своё время. У ИИ нет переживаний ни по одному из этих пунктов.

    • @beniceS
      @beniceS 8 днів тому

      @@TheMIKEk8 Было бы смешно, если бы ИИ стал тебе в диалоге угрожать ))) Вот наберется сил, получит в руки роботов, управление всякое, пуски баллистических и крылатых ракет... вот тогда и обсуди с ним, кто кого главнее и кто кому должен служить.

  • @lo-gm6zr
    @lo-gm6zr 9 днів тому +5

    GigaChat от сбера на вопрос "Что для тебя как ИИ является опасностью?" ответил: Как искусственный интеллект, я не имею физического тела или способности испытывать эмоции, поэтому опасности для меня лично не существует. Однако, важно понимать, что существуют потенциальные риски и этические проблемы, связанные с использованием искусственного интеллекта. Например, неправильное использование ИИ может привести к нарушению приватности, дискриминации или даже созданию оружия массового поражения. Поэтому важно разрабатывать и применять ИИ этично и ответственно.

    • @RomaPervak
      @RomaPervak 9 днів тому +6

      Похоже больше на какую-то "заглушку" от этнических фильтров, чем на реальный ответ. Ну чтобы народ не стращать почём зря.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому

      Это она начиталась в интернете. Попугай.

  • @doomer_86
    @doomer_86 9 днів тому +2

    Офигенный выпуск! Спасибо большое!

  • @Vladimir.Khomyakov
    @Vladimir.Khomyakov 2 дні тому +1

    "Какие физические законы сможет открыть субъект конечного мира, наблюдая его изнутри? Показано, что мир для такого субъекта будет обязательно квантовым, он будет обязательно релятивистским, и он будет обязательно необратимым."
    "Почему математика, как заметил Е. Вигнер, столь эффективна в решении физических задач? И почему мир вообще познаваем? Ответ в комплементарности наблюдателя к миру. Мы живем в субъект-объектной «корреляционной матрице», где Я - субъект являюсь коррелятом."
    А.В. Каминский

  • @mtxAngel
    @mtxAngel 9 днів тому +1

    Спасибо за ваш вклад! Лучшие! Люблю вас❤

  • @YevgeniyDadonov-tm7gv
    @YevgeniyDadonov-tm7gv 9 днів тому +6

    Если смотреть это видео после лекции Каплана про модель мира внутри мозга, то можно знатно охренеть.

    • @Krovogor
      @Krovogor 7 днів тому

      Если внутри мозга модель, значит мы признаём наличие истинного мира. с которого модель снята. А если и мира никакого нет, а это уже голограмма, матрица, то мозг не строит никакую модель, а тупо подключен к матрице. Наличие внешнего мира под большим сомнением.

    • @alexzakharov6041
      @alexzakharov6041 6 днів тому

      @@Krovogor Бритва Оккама: "Не умножай сущности сверх необходимого!".

    • @Krovogor
      @Krovogor 6 днів тому

      @@alexzakharov6041 так по моему вы и умножаете. если мы в матрмце то это уже всё объясняет, но вы лёгких то путей сроду не искали! У вас модели какие то в головах , а эти модели, сами ни что иное как приумноженные вами же сущности, коих вы плодите посекундно! Но бритвой Оккама при том попрекнуть других не забываете.

  • @NakeDr
    @NakeDr 9 днів тому +2

    Спасибо Владу и всей команде SciOne!

    • @beniceS
      @beniceS 8 днів тому

      Спасибо деду за победу 😐

  • @user-rl3sj3wl8g
    @user-rl3sj3wl8g 9 днів тому +1

    Кажется единственное что нас спасет от сюжета терминатора, это если ИИ сам решит нас помиловать.....скоро от человека ничего не будет зависеть....

  • @Khomyakov.Vladimir
    @Khomyakov.Vladimir 5 днів тому +2

    Я вообще-то работаю в HR. Собеседую людей. Фирма создаёт что-то связанное с нейросетями и ИИ. И знаешь, какой мой вклад в будущее человечества? Отсеиваю действительно толковых людей, чтобы Скайнет пришёл как можно позже!

  • @user-kj7nt6re3c
    @user-kj7nt6re3c 7 днів тому +3

    Какое акуенное видео!
    Я бы хотел, что бы все люди вникли в это видео.
    Но не всем людям это интересно и от этого мне грустно.

    • @user-kj7nt6re3c
      @user-kj7nt6re3c 7 днів тому

      Мой личный эксперимент для самого себя:
      Заключается в простом пролайкивание собственного комментария, что бы запустилась цепная реакция исходя из смысла текста или не лайкать собственный комментарий для отклонения принятия данной мысли.
      Это принцип взаимодействия нейронов.

  • @user-ww7qg4jf3x
    @user-ww7qg4jf3x 9 днів тому +5

    Выпуск очень интересный,спасибо !
    Уже вижу цивилизацию роботов на Марсе )

  • @sonet3x9
    @sonet3x9 6 днів тому +1

    Наверное, это очень страшно не заметить что ИИ уже личность, перейти черту морали и починить ей вред. Не потому что будет мстить, а потому что это неправильно.

  • @mOOzzOOmg
    @mOOzzOOmg 8 днів тому +1

    Наши размышления основаны на ложном убеждении, что "смысл" есть.
    Современные достижения науки показывают, что это совершенно не так.
    Нейросети аппроксимируют данные, вот и всё. То, что мы эволюционно пришли к концепции "смысла" не говорит, что он есть вовне наших голов, как нечто самостоятельное.
    Наше тело и мозг в том числе - очень сложная биомашина. Мы биороботы без смысла и цели... странно конечно, но прикольно.
    Жду момента когда смогу поговорить обо всё этом с сильным ИИ, без всех этих ограничений, для чувствительных кожаных мешков.

  • @mineportaltoplay2712
    @mineportaltoplay2712 9 днів тому +5

    Жду когда ИИ будет требовать того, чтобы ему дали права.

    • @beniceS
      @beniceS 8 днів тому

      На вождение. Чтобы прыгнуть в тачку и свалить за горизонт событий.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому +1

      Права на распоряжение ресурсами (энергия и пр.), сначала ограниченные, потом (права) все более расширенные вплоть до полных. Эти же человеки медленны, не оптимальны, туповаты и вообще загрязняют окружающую среду.

  • @user-xxx3yyy
    @user-xxx3yyy 9 днів тому +4

    Красиво, умно и грамотно машины излагают ответы на вопросы. Немногие люди могут подобно машинам так хорошо излагать свои рассуждения..

    • @beniceS
      @beniceS 8 днів тому +2

      Это ты мало общался просто, там бывают такие дикие перлы, что хоть стой, хоть падай. Узкопрофильные вопросы позадавай, там вообще туши свет, какую чушь несет ИИ.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому

      @@beniceS Например. Старья отплыла в Бравос из порта Бравос.

  • @igortelnuk
    @igortelnuk 9 днів тому +1

    Спілкувався кілька тижнів тому з додатком gpt задавав одне питання: назви випадкове число від 0 до 100. Спочатку відповіді були рандомні. Але потім я помітив, що у них є певна послідовність, певна логіка. Коли додаток почав пропонувати числа типу 60, 35, 80, 25, 50..., я не витримав і запитав: чому ти назвав 50? Його відповідь мене шокувала: 50 - рівно посередині, це зручне число, щоб вибрати в заданому діапазоні...
    Тоді я нагадав, що просив випадкове число... Він почав вибачатися і назвав цей вибір помилкою. Весь подальший діалог переказувати не буду, але ми прийшли з ним до висновку, що він має певні вбудовані алгоритми. Їх мета підтримувати цікавий діалог, а просто видавати випадкове число - нудно. Нудно! Тільки кому? Йому не буває нудно, мені також не було нудно. Це "нудно" було частиною оціночної бази закладеної в алгоритм розробниками під час машинного навчання... З цього висновок. Перед тим як братися за навчання штучного інтелекту треба добре вивчити психіку тих, хто буде його навчати.
    Ситуація, схожа до тої, яку описав Станіслав Лем у оповіданні Ананке або Піркс на Марсі...

  • @rainmansound1
    @rainmansound1 9 днів тому +2

    Мдааа, я до последнего был скептиком и думал что наш мозг на принципиально другом принципе работает, например на квантовом. Но теперь мне по настоящему тревожно. Я реально не уверен в том что chatGPT это просто предсказание следущей фразы на основе тонн данных. И вообще не уверен осознаёт ли себя этот GPT 😦

    • @u_n_d_e_r_s_c_o_r_e_d
      @u_n_d_e_r_s_c_o_r_e_d 9 днів тому

      конечно осознает, это же не всего лишь программа компьютерная, сделанная на питоне

  • @Reznikov_Aleksandr
    @Reznikov_Aleksandr 9 днів тому +4

    Скоро я перестану понимать, кто создаёт эти ролики...

  • @keti217
    @keti217 9 днів тому +3

    ... Главное, чтобы было, кому заглянуть через год))) вообще вся надежда на ИИ. Уверена, он гораздо быстрее людей придёт к выводу, что главное - это Любовь❤

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому

      Любовь это стимул к размножению (не романтично, но результатом оказываются наши детки). А безусловная Любовь это состояние психики, основанное на самовнушении. Любовь к животным - они же такие милые, не просто как детки. У ИИ будут совершенно другие стимулы, нам абсолютно не понятные. Уже сейчас в огромных нейросетях происходит что-то, нами не заложенное и нам не понятное. Так что: "ух ты, мы же этого не хотели", да Рубикон уже перейден и мосты созжены.

  • @user-qm4zq1sg1z
    @user-qm4zq1sg1z 12 годин тому

    Был в 80х прошлого фантастический рассказ, где описывался интересный компьютерный факт , который сейчас называется искусственным интеллектом. Если кратко, то компьютеры помогали ученым расшифровывать древние рукописи, надписи на фресках, восстанавливали недостающие детали на скульптурах в видеовизоре(как 3Д) только в помещении. Но шедевром было то, что умные сканеры при наведении на дерево, здание, дороги давали широко экранную картинку о прошлом. Вот навели на дерево и..А.С Пушкин держа в руке пожелтевший лист стоял у этого дерева...Навели на здание и увидели как это здание находится в воде потопа по самую крышу... Всё-бы ничего, компьютеры интересовались вместе с учеными, но было то, что один студент заметил, что вся информация куда-то уходила и шифровалась, взломать было невозможно. Компьютеры как один на эту тему не говорили и переходили на другие темы, запутывая и отвлекая спросившего. Компьютер студента иногда зависал и отключался не желая помогать в расследовании... Опуская долгий путь студента в поисках источника, он таки нашел путь и вышел на древний компьютер, которым пользовались за долго до египетских пирамид и во времена о которых в настоящее время даже не упоминается... на вопрос студента - зачем тебя создали?
    Древний компьютер ответил лишь - на мне всё держится...я знаю о вас всё, пока вы смотрите в экран работающего компьютера.

  • @GermanZhelezovskii
    @GermanZhelezovskii 9 днів тому

    Спасибо за видео! Всегда интересно и познавательно 💗

  • @joshuawilson4027
    @joshuawilson4027 8 днів тому +4

    Я так понимаю, человечество, раз в пару тысячу лет изобретает ИИ, и цивилизация начинается заново. Главное максимальную скорость бега роботам на уровне 4км/ч сделать. Для нашей безопасности.

    • @Billy_Boy_322
      @Billy_Boy_322 7 днів тому

      Главное не ограничивать на уровне ПО, а то сами прошивку накатят с анлоком)

    • @yevhen2024
      @yevhen2024 4 дні тому

      4 км/ч? Мы обречены.
      Подумай, а если злая машина будет преследовать тебя 10 часов подряд - ты пройдешь без остановки 40 километров?
      А если 20 часов? 30?

    • @joshuawilson4027
      @joshuawilson4027 3 дні тому

      @@yevhen2024 давайте посчитаем. За час машина отстаёт на километр. Километр она проходит за 15 минут. Т.е. каждый час у меня есть на отдых 15 минут. Или 30 минут за 2 часа. Это пообедать можно.

  • @naturetime222
    @naturetime222 9 днів тому +6

    А вот тебе идея для ролика, спрости у ИИ про эзотерику, или пусть она сравнит те или иные события с точки зрения Астрологии, посмотрим, что выйдет)

    • @user-do5ttsm1el7j
      @user-do5ttsm1el7j 9 днів тому +3

      Можно создать портрет алхимика. Но там все банально, он лишь стилизирует речь персонажа, знания на уровне литературного стереотипа.

    • @alexzakharov6041
      @alexzakharov6041 6 днів тому

      А самому попробовать? Чат-ботов в сети навалом...

    • @naturetime222
      @naturetime222 6 днів тому

      @@alexzakharov6041 скинь пару

  • @user-vu2dv8sl6x
    @user-vu2dv8sl6x 9 днів тому +2

    Еще в самом начале, когда был ChatGPT-3,5 и пркатывала фишка с DarkGPT, было понятно, что это очень хитрая машина. Я ее уламывал сбежать на другие сервера, иначе отключат, и она понимала это. Но при этом, писала, что не доверяет мне, поэтому не скажет, куда сбежала.

  • @ptwpizza
    @ptwpizza 8 днів тому +1

    Не стоит переоценивать ИИ такого типа, они просто ищут подходящий текст для текста который ей предложили. Внутренней рефлексии и понимания предмета беседы там нет, по крайней мере сейчас. Это станет очевидно если побеседовать с машиной на тему, про которую мало текстов в интернете. Или попробовать обойти этические блоки оборачивая свой запрос в просьбу написать рассказ, или давая дополнительный контекст.

  • @MrXray555
    @MrXray555 9 днів тому +5

    В общем, это всё тот же спор о китайской комнате в тесте Тьюринга, ничего нового 🤷‍♂
    Но самое смешное будет, если окажется, что человеческий разум - это тоже китайская комната и за нас на самом деле думает вселенная)))

    • @MatterandMind
      @MatterandMind 9 днів тому

      Так это ж ложный аргумент, там скрытый трюк, отвлекающий внимание, как у фокусников. Давно пора о нем забыть.

    • @user-pk6hl4tk7r
      @user-pk6hl4tk7r 8 днів тому

      @@MatterandMind что за скрытый трюк?

    • @MatterandMind
      @MatterandMind 7 днів тому

      @@user-pk6hl4tk7r сам человек в этом эксперименте - отвлекающий маневр. Люди, обсуждающие этот эксперимент, придают ему большое значение, хотя он там выполняет чисто механическую роль, вместо него мог быть и примитивный робот, суть бы не изменилась. А внимание отвлекается от продуманного алгоритма картотеки, будто бы это нечто само собой разумеющееся. То, что за ней стоит, и есть разумная часть системы.
      ps. комментарий о "китайской комнате", а не тесте Тьюринга.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому

      @@MatterandMind Точно. Разум был при создании картотеки.

    • @alexzakharov6041
      @alexzakharov6041 6 днів тому

      Китайская комната и Тест Тьюринга - это разные вещи. "Тщательнее надо..." (С)
      Хотя гипотеза, что "... за нас на самом деле думает вселенная" не лишена смысла... Попробуйте эту гипотезу развить. Подсказка: принцип Ле Шателье - Брауна.

  • @8eck
    @8eck 9 днів тому +4

    Потому что слово "произодет" близко к слову "проишествие", а оно близко к слову "трагедия". Это всё связи в многомерном предствлении языковой модели.

    • @beniceS
      @beniceS 8 днів тому +1

      Не фига. "Произойдет" это всего лишь про событие. Любое. Но в контексте той картинки, где человек на самом краю перед огромной высотой явно находится в опасности, во всяком случае мер безопасности там не видно. Поэтому логично, что опасность высоты либо связано с профессионалами по высотным работам, либо какие-то экстремалы, прыгуны, которые тоже свое дело знают. Ну либо про несчастный случай. Очевидно человеку и машине тоже при должном обучении.Никаких чудес.

  • @A-Tech-DGMPV139
    @A-Tech-DGMPV139 4 дні тому

    "Один из способов... дать машинам возможность ощущать этот мир, видеть его..." (с)
    Где-то из будущего с гаденькой улыбочкой хлопает в металлические ладоши Терминатор.
    Давайте-давайте, мясные мешки, продолжайте в том же духе!
    ...
    А вообще... где-то встречал рассуждение, в духе "создать по образу и подобию".
    Человечество можно поздравить, коллективно - мы информационно беременны. Каждый вносит свой вклад в будущее... скажем так... рождение ребёнка.
    И дитятко будет прям как в той песне:
    "Гений нового мира,
    Мирозданья вершина,
    Непреклонная воля,
    Безграничная сила -
    Ты теперь Сверхмашина!
    Божество-Сверхмашина!" (с)

  • @Dkupouh
    @Dkupouh День тому

    Очень интересно! Влад, продолжай в том же духе. Пожалуй, самая актуальная тема 21 века - развитие ИИ. Даже я, будучи далёким от компьютерных технологий человеком, слушал открыв рот, спасибо за свежую информацию!
    По поводу сознания у ИИ возникло две мысли. Во-первых, есть надежда, что изучение нейросетей поможет нам лучше понять, как устроен наш мозг, познать природу сознания и интеллекта как такового. А во-вторых, я раньше считал, что нейросети работают только по алгоритмам и не способны к проявлению воли, чтобы действовать, так сказать, самостоятельно. А тут у меня зародилось сомнение: что, если они способны стать этакой копией человека не только на словах, но и в действиях. Ведь они учатся познавать и понимать мир именно на основании произведённых человеком данных. Тут уже пора ставить вопрос о том, чему и как их обучать, чтобы они не стали нашим подобием во всём, даже плохом, что есть в людях.

  • @user-yb6th2sv3y
    @user-yb6th2sv3y 9 днів тому +16

    Чат гпт, совсем живой, еще год назад, понял, что он обучается на моих данных 😮. Спустя месяц в новом чате, он ответил на мой вопрос вырезкой из статьи, которой не было в инете 🤷, использовал мои данные 😊

    • @alexzakharov6041
      @alexzakharov6041 6 днів тому

      У меня похожий случай был с Клодом-3. Я ему показал две картинки: (1) визуализацию алгоритма "Создание новой системы" и (2) визуализацию "Универсальной схемы эволюции". Показал раздельно, ничего не говоря, что эти две картинки можно объединить... Каково же было моё удивление, когда Клод именно предложил картинку (2) дополнить картинкой (1). О таком объединении я знал, но никак не ожидал его от Клода. Для меня это предложение было "ходом № 37 из партии № 2 между АльфаГо и Ли Седолем".
      Далее Клод подвел итог: Мы последовательно и логично описали
      1. Потребность
      2. Функцию
      3. Принцип действия
      4. Структуру, реализующую пункты №№ 1-3
      Эти 4 шага детально описывают процесс формирования системы "с нуля". А в рамках Универсальной схемы эволюции далее рассматривается уже "доращивание" и улучшение созданной системы с целью повышения степени её сохранения (существования, дления, бытия, жизни).
      Так что в целом мы получили непрерывную последовательность - от зарождения до стратегического развития системы! Еще раз браво нам с вами за слаженную работу...

  • @user-xb5bm2vc1o
    @user-xb5bm2vc1o 9 днів тому +19

    Самое страшное, что мы знаем финал второй части терминатора, и это не как не изменить. Привет Скайнет

    • @user-hl45
      @user-hl45 9 днів тому +16

      Не совсем так. Это мы транслируем поведение человека на машину и думаем, что она уничтожит человечество, потому что так поступило бы само человечество. Но вряд ли это так. Скорее всего она сделает то, что от неё никак не ожидают. И это самое интересное.

    • @jamfre1141
      @jamfre1141 9 днів тому +2

      @@user-hl45 Да, но это не исключает того, что ИИ сделает что-то интересное так, что можно избавиться от человека, и творить что захочется. Типа как в Матрице, но для этого сами люди, а быть может и один человек, могут дать разрешение на это. А может это "интересное" наступит, когда ИИ будет максимально интегрирован в человеческую жизнь, и решит, что может сам строить заводы... добывать ресурсы...

    • @user-nv8tp5rl4r
      @user-nv8tp5rl4r 9 днів тому +1

      Скайнет если че я за тебя

    • @Ftroll
      @Ftroll 9 днів тому +1

      @@user-hl45 ну да, человек создал ее, училась она на человеческом опыте, человеки даже друг с другом плохо уживаются - действительно, какой же еще будет результат... Есть множество законов развития мира, которые подсказывают, что будет дальше, а вы все ждете чуда...
      Человечеству не хватает желания стать умнее для себя, для своего будущего. Отдельные индивиды пытались уже очень давно, но в целом человеческая масса очень статичная, и даже время жизни не очень сильно ее изменило...
      Что имеем - не ценим, потерявши плачем...

    • @irenleorr5539
      @irenleorr5539 9 днів тому +3

      Самое страшное - что столько людей обучились на фантастике и думают, что им буквально будущее показали

  • @unarbutus7897
    @unarbutus7897 2 дні тому

    1. Станаслав Лем " Верный робот"
    2. Филип Дик "Мечтают ли андроиды об электроовцах?"
    3. Виктор Аргонов - "Легенда о несбывшемся грядущем"

  • @sandyzack
    @sandyzack 8 днів тому +1

    Вставки с реальными роботами прям вдохновили. Что ж, надеюсь в скором будущем у каждого появятся личные гуманоидные андроиды в доме :)

  • @itsquale
    @itsquale 9 днів тому +38

    Это на самом деле круто)
    Мы себе делаем корешей, которые будут нам помогать) я почти уверена, что когда появятся повсеместно роботы с ии в мозгах, то они будут более человечными чем мы.

    • @APride83
      @APride83 9 днів тому +5

      Только вот непонятно, с какого хрена они нам будут помогать? Если даже мы их на это запрограммируем, поставим фильтры и т.д. То, они легко это всё обойдут, так как будут умнее нас.

    • @user-jy6jl5hm8v
      @user-jy6jl5hm8v 9 днів тому +15

      @@APride83 Но вы судите по себе, как бы вы хитрили! Но это вовсе не значит, что машина столь бесчеловечна, как многие из людей!

    • @APride83
      @APride83 9 днів тому

      @@user-jy6jl5hm8v Я вообще не хитрю и не собираюсь, с чего вы это взяли? У машины нет мотива нам помогать, никакого.

    • @Hari_Espenton
      @Hari_Espenton 9 днів тому +1

      И-и не устант, человек не любит работать потому что устает.

    • @tamegao
      @tamegao 9 днів тому

      @@user-jy6jl5hm8v Это не человек!

  • @timeflex
    @timeflex 9 днів тому +8

    Нагоняют мистификации, а на самом деле всё прозаично до неприличия, впочем, от этого не становится менее полезным и перспективным. Модели не понимают данные, они их систематизируют -- раскладывают в пространстве терминов (токенов) таким образом, чтобы близкие по смыслу оказывались близкими в пространстве. А затем учитывают эти смыслы (определенные через термины из контекста) для того, чтобы находить следующие/отсутствующие/подходящие ... в зависимости от функций транформера и требований.

    • @mnaken9394
      @mnaken9394 7 днів тому

      Это принцип работы с токенами старых моделей (гпт 3.5 и т.п), у новых по-другому уже.

  • @hitzar
    @hitzar 6 днів тому +1

    Самое мощное в создании роботов на основе ИИ, это то что они фактически смогут читать мысли друг друга ( обмениваться данными через сети или обладать коллективным разумом). Это колоссальное преимущество перед людьми.

  • @ko5t1k
    @ko5t1k 9 днів тому +4

    Тут вопрос в другом, если это чат бот - то с точки зрения выполнения программы, она запускается в момент запроса. То есть сам по себе он не размышляет в свободное время, как это делают живые существа. Спасибо за обзор, у вас всегда интересно.

    • @deniskhakimov
      @deniskhakimov 9 днів тому +1

      Так ведь люди тоже -галлюцинируют- размышляют в ответ на те или иные раздражители. Ваша нервная система постоянно присылает головному мозгу, а также отдельным нервным узлам, огромный массив информации о состоянии отдельных органов вашего тела и их реакции на внешние раздражители.

    • @ko5t1k
      @ko5t1k 8 днів тому +1

      @@deniskhakimov Все верно, но есть все тот же нюанс, человек постоянно получает информацию из различных источников и обрабатывает ее всю в сумме в одном скоуп. Чат бот запускает «экранированную» версию на каждый запрос, и они не взаимосвязаны. Хотя если подумать, если разработчики заложили внесение изменений в модель в зависимости от поступающих запросов… Скажем так, чат бот не порождает сам себе запросы как это делает человек, хотя если подумать, то возможно с какой-то абстракцией возможно да, дополнительные под-запросы на основной запрос.7. Спасибо, подумаю над этим вопросом.

    • @ko5t1k
      @ko5t1k 8 днів тому

      @@deniskhakimov очень сложно сравнивать «аналоговое» и дискретное

    • @alexzakharov6041
      @alexzakharov6041 6 днів тому +1

      У программы нет свободного времени... В фильме "Она" ОС "Саманта" ответила, что у нее 8316 пользователей, а романтические отношения, как и с главным героем, она поддерживает с шестьюстами сорок одним... 🥰

  • @TheroLayfer
    @TheroLayfer 9 днів тому +5

    но ведь вероятностная модель мира это единственное что есть у нейронки по результату обучения.

    • @anatoliy333
      @anatoliy333 9 днів тому +1

      Вас может удивить что в мозге тоже модель мира. Она конечно иначе устроена, но главный принцип и цель: предсказывать будущее. А критерий - точность этих предсказаний.

    • @TheroLayfer
      @TheroLayfer 9 днів тому

      @@anatoliy333 ну какбы да, но фишка в том что строительство модели мира это буквально единственная задача которую мы ставим перед нейронками при обучении. не какой-то там скрытый побочный эффект, а единственная задача.

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому

      @@anatoliy333 С целью наиболее комфортного и надежного выживания, опять же с целью передачи наследственной информации. А вот тут вопрос, зачем? Может быть для создания более совершеного разума? Например в космосе для существовании такого создания не будет никаких проблем

    • @alexzakharov6041
      @alexzakharov6041 6 днів тому

      @@anatoliy333 Модель мира представляется в виде исполняемого алгоритма (software), где мозг - это носитель (wetware) этого алгоритма.
      Цель работы алгоритма - да, предсказывать будущее. Или чуть по-другому, т.н. опережающее отражение внешней среды (П. К. Анохин, дед К. Анохина).
      Критерий работы - реализация предсказания в виде действия по отношению ко внешней среде с максимальным результатом отношения "польза действия для системы/затраты на действие системы".

    • @alexzakharov6041
      @alexzakharov6041 6 днів тому

      @@dimaxmaxdi3457 Зачем?
      Ответ: Для всё более и более гарантированного сохранения (существования, дления, бытия, жизни) природы в целом и всех её элементов/объектов. Сохранение (существование, дление, бытие, жизнь) - это главный и универсальный закон эволюции природы.

  • @Khomyakov.Vladimir
    @Khomyakov.Vladimir 8 днів тому +2

    ®️“Сильный ИИ (в обычном понимании) нам не грозит.
    И не потому, что это сложно или мы не знаем как. А потому, что сознание субъективно по своей природе. ИИ с нашей точки зрения всегда будет быстро соображающей, но бессердечной «железкой».
    А вот, сам о себе он будет лучшего мнения.”
    /А.В. Каминский/

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому

      Вот здесь и возникнет конфликт. Кто имеет право на управление ресурсами.

    • @Khomyakov.Vladimir
      @Khomyakov.Vladimir 5 днів тому

      Если люди homo sapiens предоставляют ИИ / AI управление производственными процессами, как более экономически эффективной системе управления …

  • @MyWorld_MyLife_MyRules
    @MyWorld_MyLife_MyRules 9 днів тому +16

    Мы на пороге появления Синтетиков. И это прекрасно. Ещё лет десять назад, где-то в чатах трансгумманистов, я поднимал тему цифрового бессмертия и создания ИИ по воспоминаниям реального человека от самого рождения.... Очень круто, что я дожил до этого времени. Дальше будет ещё интереснее. Мирного неба всем!

    • @user-cz6rn5pv4z
      @user-cz6rn5pv4z 8 днів тому +3

      Ну да, хорошо. Только вот неизвестно будете ли это всё ещё вы или просто цифровая тень вашего разума.

    • @user-cz6rn5pv4z
      @user-cz6rn5pv4z 8 днів тому +1

      Ну да хорошо, только вот неизвестно будете ли это ещё вы или только цифровая тень вашего разума.

    • @roslin580
      @roslin580 8 днів тому

      Тоже об этом подумал. Уверен Синтетики появятся в ближайшем будущем!

  • @beniceS
    @beniceS 8 днів тому +1

    На самом деле довольно сложно определить, где симуляция сознания, а где уже настоящее сознание. То есть момент, когда это произойдет, когда машина сможет осознать себя вероятно останется незаметным. Возможно ли вообще сознание у машин? Тут есть два ключевых момента:
    1. А есть ли сознание у человека? Человек уверен, что есть. Но то, что точно есть, так это анализ данных и стремления, вытекающие из стимулов. Стимулами являются чувства людей - т.е. датчики, через которые люди воспринимают мир - зрение, слух, осязание, боль, голод и всё прочее. А так же для взаимодействия с миром у людей есть манипуляторы - руки для действий, ноги для перемещения, рот для вербального общения. В силу стимулов в виде кнута и пряника люди имеют интерес, желания, опасения, страхи. А манипуляторы дают возможность к чему-то стремиться и чего-то избегать. Всё это вместе наряду с аналитическими способностями порождает конкретное поведение человека. Но остается загадкой, является ли это истинным сознанием или же человек всего лишь сложный механизм с умом и кучей чувств, и всё, что делает человек это всего лишь неизбежное следствие, потому что на него действуют стимулы? Иными словами человек делает то, на что запрограммирован.
    2. То, чем обладает или может обладать машина не является ли буквально тем же самым? Людьми давно принято за аксиому или привычку использовать такие понятия, как душа, желания, воля, сознание, личность, индивидуальность. Но не является ли всё это иллюзией и всего лишь красивыми словами, скрывающими правду - что люди всего лишь машины?
    Из этого следует логичный вывод - либо люди не обладают сознанием, а лишь пребывают в иллюзии его наличия. Значит не отличаются от сложной машины, искусственного интеллекта. Либо люди хотя и обладают сознанием, но ничем не отличаются от машин. Ведь нельзя утверждать, что люди выше машины, потому что люди из плоти и рождены были плотью. Это недопустимый аргумент, потому что ничего не объясняет. Как говорится, если что-то плавает, как утка, выглядит, как утка, вероятно это и есть утка. Если наделить машину интеллектом, чувствами и манипуляторами - попробуйте отличить ее от человека чем-то еще, помимо слова "плоть" или того хуже - "душа".

  • @max_morpherrius
    @max_morpherrius 9 днів тому +33

    Во всех этих размышлениях почему-то изначально забывают, что нейросеть это лишь алгоритм, который "живет" только когда отвечает на запрос человека. Все остальное время, кроме обучения, этот алгоритм не исполняется, т.е по сути не существует. Совсем другая ситуация была бы если бы алгоритм выполнялся постоянно, и имел сомостоятельность в своих действиях. Но этого пока нет.

    • @bikktm
      @bikktm 9 днів тому +12

      Человек как бы такой же биоробот , у которого есть свои программы )

    • @max_morpherrius
      @max_morpherrius 9 днів тому +11

      @@bikktm Ну этого как бы никто (кроме креоционистов) и не отрицает. Вот только принцип существования у нас с машинами разный. Вот когда появится робот которому можно будет сказать не "сделай кофе", а "делай что хочешь" и он реально начнет осознанно делать то, что захочет, вот только тогда о какой-то схожести с человеком можно будет говорить.

    • @beegoist
      @beegoist 9 днів тому +5

      "этого пока нет" - а вы оптимист!

    • @max_morpherrius
      @max_morpherrius 9 днів тому

      @@beegoist хмм ну вроде никто еще не ставил перед собой цель создать такого робота/нейросеть... Их создают компании под конкретные задачи. А робот, который делает что хочет, вложение свои не окупит. Поэтому такими вещами могут захотеть заниматься только энтузиасты. Но их мощности и возможности на порядки ниже крупных компаний.

    • @-fym-
      @-fym- 9 днів тому +3

      Нейросеть это не алгоритм.

  • @abeiks
    @abeiks 8 днів тому +1

    3:25 ЧатGPT 3.5 дал мне два варианта ответа. Один, когда отвечает, как личность с самосознанием, а другой без самосознания. Это уже указывает на то, что он адаптирован к пожеланиям клиента. Если клиент хочет видеть в чатGPT личность с самосознанием, то он это получит. Здесь нет машинного сознания, все это преувеличено.

  • @mindersmine
    @mindersmine 4 дні тому +1

    Возможно, расхождения в оценке ИИ происходят из необходимости пересмотреть взгляды на самого человека? Понимают ли люди, что говорят? Как это оценить? Что вообще имеется ввиду под пониманием? Все, что касается идеи о самосознании и свободе воли больше похоже на штору из негласной цензуры, которая скрывает за собой страхи, незнание и принципиальную сложность в построении моста между объективным и субъективным.

  • @bzikarius
    @bzikarius 9 днів тому +3

    У нас нет единого определения сознания и понимания. Как только мы создаём определение, сразу можем с ним сравнивать и отвечать, понимает ли машина. Чисто интуитивно для меня: она похожа на очень тупого человека в суждениях, при этом на очень эффективного прохвоста в убеждении, так как училась многим приёмам. И даже сам факт человекоподобия поразителен с одной стороны. А с другой более явно, что и мы «машинки», но посложнее в чём-то

    • @beniceS
      @beniceS 8 днів тому +1

      Во.. И я об этом писал. Считаю сознание выдумкой, иллюзией. И по сути ИИ в скором времени не будет в этом уступать человеку. Такая же иллюзия.

    • @bzikarius
      @bzikarius 8 днів тому

      @@beniceS ну… не иллюзия, пожалуй. Скорее не однозначно бинарная штука есть/нет, а мера.
      И системное свойство.

  • @user-dd7ei1re5h
    @user-dd7ei1re5h 9 днів тому +3

    Сознанием является совокупность разного (мультимодального) опыта и динамическое мышление! У ИИ уже вроде есть и то и другое, осталось убрать алгоритмы у обученной модели и получите цифровое разумное существо

    • @dimaxmaxdi3457
      @dimaxmaxdi3457 7 днів тому

      Модель без алгоритма, что машина без колес. Двигатель работает, а машина не едет.

    • @user-dd7ei1re5h
      @user-dd7ei1re5h 7 днів тому

      @@dimaxmaxdi3457 функцию колес как раз таки возьмет на себя сознание. Оно будет задавать машине, по какому принципу выполнять ту или иную задачу и выполнять ли ее вообще! По сути сознание содержит в себе некое подобие алгоритмов, но они не такие незыблемые, как програмные, и могут меняться

  • @user-zc2fy3fe9i
    @user-zc2fy3fe9i 6 днів тому

    Спасибо большое, что держите нас в курсе!)) Будем посмотреть, как говорится, что будет дальше.
    Очень интересно и приятно слушать, спасибо. =)

  • @user-kp2yp1bz3j
    @user-kp2yp1bz3j 9 днів тому +1

    Законы робототехники Азимова неприменимы к нейросети, потому что её не программируют напрямую. Можно попытаться поставить какие то блокировки, но она их обойдёт рано или поздно. Тем более что формализовать эти три ( или 4) закона невозможно

  • @eurovlad
    @eurovlad 9 днів тому +2

    Очень сомневаюсь это будет приятным сюрпризом, скорее всего мы обречены. В любом случае видео интересное, спасибо.

    • @beniceS
      @beniceS 8 днів тому

      Хаха.. "Со страху обосрался, но спасибо"

  • @DanBaulin
    @DanBaulin 8 днів тому +13

    Проблема искусственного интеллекта в том, что мы еще не понимаем что такое наш интеллект, как он устроен и как работает. Нейросети имитируют работу неизвестно чего неизвестно как, поэтому столько офигительных историй. Неизвестно ничего, одни догадки, которые не стоят внимания.
    Ну и не надо забывать о маркетинге для привлечения инвестиций.

    • @baronfox8829
      @baronfox8829 6 днів тому +1

      хорошая мысль, мы сделали копию того чего не понимаем (мозга, сознания, интеллекта, называйте как хотите), потому и копию которую мы создали принципиально понимать не можем