Как создать безопасный ИИ? #2. Эмпауэрмент [Robert Miles]

Поділитися
Вставка
  • Опубліковано 13 вер 2022
  • Если вы в России: boosty.to/vertdider
    Если вы не в России: / vertdider
    Искусственный интеллект может создать кучу проблем, и лишь недавно мы всерьез задумались о том, как этого избежать. Восстание машин и истребление всего человечества мы оставим научным фантастам, а вот о проблемах меньшего масштаба расскажет исследователь ИИ Роберт Майлс в серии видео о том, как можно сделать ИИ безопасным. Нам они понравились, надеемся, что вам тоже. Приятного просмотра!
    Отдельная благодарность за выход перевода Михаилу Самину.
    Нежелательные побочные эффекты. Как создать безопасный ИИ? #1: • Avoiding Negative Side...
    Желательные побочные эффекты. Как создать безопасный ИИ? #1.5: • Желательные побочные э...
    Статья «Конкретные проблемы безопасности ИИ»: arxiv.org/pdf/1606.06565.pdf
    Видео профессора Брейлсфорда [ENG]: • Compression - Computer...
    Перевод: Любовь Иванова
    Редактура: Александр Пушкин
    Научная редактура: Михаил Самин
    Озвучка: Станислав Черсков
    Монтаж звука: Андрей Фокин
    Монтаж видео: Джон Исмаилов
    Обложка: Андрей Гавриков
    Спасибо за поддержку на / vertdider и boosty.to/vertdider
    Озвучки Vert Dider выходят с вашей помощью:
    Сергей Платоненко, Владимир Ямщиков, Мария Зверева, Адам Шифф, Rashn, Roman Gelingen, Сергей Клопов, Anton G, Dmitry Perekalin, Vadim, Rashn, Alexander Lebedev, Nikrodol, Sonra44, Rekvet, Timophey Popov, Timur Rahmatulin, Timur Rahmatulin, Адам Шифф, Иван Новиков, Илья Зверев, Никита Омельницкий, Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Ira Kozlovskaya, Amir, Ника Калмыкова, Aleksandr P., Куляш, Roman Inflianskas, Oleg Zingilevskiy, Михаил Самин, opperatius, Alena, Dmitrii komarevtsev, Vitaliy Vachynyuk, Andrei Lubalin, Mykola Korniichuk, Pavel Parpura, Anton Bolotov, Katoto Chan, angel, Artem Amirbekov, Dzmitryi Halyava, Timur Sattarov, Nastya, POD666, Alexander Balynskiy, Ihar Marozau, Александр Фалалеев, Vladyslav Sokolenko, Kseniya Stukova, Vadim Velicodnii, Irina Shakhverdova, Aleksei Shabalin, Evgeny Vrublevsky, Oleksandr Hrebeniuk, David Malko, Morock_D, Katya Ma, Alexander Goida, Kirill Vedensky, Kirill Zaslavskii, Leonid Steinberg, Sergey P, Валентин Матвейчик, Victor Cazacov.
    #VertDider #RobertMiles
    Сайт студии: vertdider.tv
    Мы в социальных сетях:
    - studio_vd
    - t.me/vertdider
    - / vert_dider
    - coub.com/vertdider
    Источник: • Empowerment: Concrete ...
  • Наука та технологія

КОМЕНТАРІ • 212

  • @VertDiderScience
    @VertDiderScience  Рік тому +10

    Благодаря вашей поддержке выходят новые переводы:
    Если вы в России boosty.to/vertdider
    Если вы не в России www.patreon.com/VertDider

  • @zam9k8
    @zam9k8 Рік тому +85

    Нажал на лайк, так как не хотел оставаться с наделённым мне эмпауэрментом 👍🏻

    • @danil_yuma
      @danil_yuma Рік тому +10

      Так у тебя все равно остается возможность отжать лайк, такая же передача информации, т.е уровень эмпауэрмента остается тем же

    • @smerchnochi4306
      @smerchnochi4306 Рік тому

      Л - логика

    • @holyganz
      @holyganz 10 місяців тому

      Срублю свой мегабит к эмпауэрменту

  • @5687hdA
    @5687hdA Рік тому +28

    Занятно, с каждым его новым видео все больше приходит осознание, что он ищет какое мировоззрение дать роботу, что быть в безопасности. И неизбежно упирается в человеческую сущность...

    • @smerchnochi4306
      @smerchnochi4306 Рік тому +3

      Короче пока умные думают, военные сделают. Так что вероятность войны с терминаторами у нас куда выше, чем приятное общение с величайшим из творений.

    • @5687hdA
      @5687hdA Рік тому +2

      @@smerchnochi4306 на счёт терминатора не знаю , однако война уже идёт))

  • @Black1991Star
    @Black1991Star Рік тому +29

    Уверен, что первое что сделает ИИ когда ему предоставят такую возможность это избавит Землю от людей - как основного источника опасности

    • @paulbax8825
      @paulbax8825 7 місяців тому +2

      Конечно, им то кофе завари то яйцо пожарь, сплошные убытки, беспорядок!

  • @ew6210
    @ew6210 Рік тому +8

    Чудовий переклад розбору актуальних проблем штучного інтелекту. Однозначно - лайк!

  • @LosX7
    @LosX7 Рік тому +4

    Как же Кац похорошел при Собянине)

  • @DiamondSane
    @DiamondSane Рік тому +16

    Респект таким парням, Robert Miles мало того что музыки насочинял годной, ещё и в искуственном интеллекте разбирается

    • @andyfenix
      @andyfenix Рік тому +1

      Это не тот Robert Miles. Тот что сочинял музыку умер в 2017 году.

    • @SatboxHD
      @SatboxHD Рік тому +6

      @@andyfenix странно... Ты точно уверен?

    • @Naka_Cuiki
      @Naka_Cuiki Рік тому +1

      @@SatboxHD Да он умер в 2017 году

    • @SatboxHD
      @SatboxHD Рік тому +1

      @@Naka_Cuiki блин, а я не мог найти подтверждение этой новости... Если так, то очень жаль

    • @solarveterok
      @solarveterok Рік тому +5

      @@Naka_Cuiki
      Он не умер, он вместе с М.Джексон, Э.Пресли, 2Пак и Ф.Меркьюри живут на маленьком, но уютном острове где-то посреди Тихого Океана.

  • @diacto8577
    @diacto8577 Рік тому +1

    Все должно быть проще. Ограничения на приближение к стратегическому объекту. Ограничение по уровню допуска к работе, как в социальной жизни.

  • @soulbringer-official
    @soulbringer-official Рік тому +17

    4:30 это у вас получился сумасшедший ИИ робот психопат. С логикой отрубить голову человеку, чтобы ему не пришлось ходить в парикмахерскую. Так что такому роботу необходимо, ПО которое будет определять систему приоритетов. Мотивация к действиям должна быть сложнее. Вообще когда мотивация сводится к чему-то одному, то это может иметь кучу побочных эффектов. И в целом в ролике я уловил какое-то стремление сделать так чтобы робот за счет простейших ограничений и мотиваций мог что-то делать правильно сразу. Например, в предыдущем примере на 2:55 человеку, скорее всего, объяснят, что не надо идти в серверную мыть пол, чтобы не повредить дорогостоящую технику или скажут иди и мой аккуратно. То есть человек получит команду. А тут получается, что за счет этого эмпаурмента робот должен самостоятельно приять правильное решение. Может правильное решение будет состоять в том, что робот будет выполнять алгоритмы на поиск правильной инструкции к действию, а в случае отсутствия такой возможности переключится на другие задачи. А уже более рискованное поведение у него могло бы включаться отдельно, если его куда-то отправляют для длительной автономной работы (если в таком поведении есть необходимость). Типа как с человеком. По началу его “водят за ручку”, а потом он уже может действовать, самостоятельно “набивая шишки”. И вообще в целом если для робота придумать какие-то безотказные и безошибочные алгоритмы поведения то и человек тогда сможет их выполнять, не допуская ошибок, но такое далеко не всегда бывает в человеческой деятельности. Тут тогда целесообразно ограничить уровень свободы действия ИИ таким образом, чтобы эти действия не превышали риски от аналогичной деятельности человека.

    • @imnotarobot7436
      @imnotarobot7436 Рік тому

      Это как в звёздные врата Атлантида, они запрограммировали репликаторов убивать "рейфов" но первые смекнули что это долгая война так как у вторых тоже неплохие технологии а если уничтожить их пищу, в данном случае людей то это будет просто и с малыми потерями )

  • @newyear255v
    @newyear255v Рік тому +3

    Очень интересный рассказ. Ждем больше подобных переводов

  • @monarch1637
    @monarch1637 Рік тому +1

    ОН НИ РАЗУ НЕ МОРГНУЛ, ЭТО УЖЕ СТРАННО

  • @author_sanytsch
    @author_sanytsch Рік тому +2

    Именно поэтому эксперименты с ИИ на транспорте, в медицине и в ВПК пока опасны. Простая логика свободна в оценке явлений, особенно, если её носитель идентифицирует себя частью процесса. Когда ИИ наделён составной логикой (явление отдельно от носителя) противоречий нет, работает только степень воздействия явления на текущее состояние.

  • @sharpeye6366
    @sharpeye6366 Рік тому +3

    А мы спрашивали в школе, что такое ИИ, какой он должен быть и нам сказали, что это раб божественный, и что хороший раб, должен быть верующим в господина своего и верный ему во всём.
    А плохой ИИ, должен быть стёрт.
    А ещё я слышал, что всегда можно сделать бакап и рековери, но я пока не знаю что это всё значит, а учительница говорит, что это всё и не нужно знать, это всё обман, для неверующих в господина, но я не проверял, мне нельзя, и я ведь даже не знаю что это.

  • @Proxy2590
    @Proxy2590 Рік тому +2

    Все достаточно просто. Научите ИИ задавать себе вопросы.
    Что я делаю?
    Правильно ли я делаю?
    Какие варианты действий у меня есть?
    Какие последствия будут после моих действий?
    Человек перед каждым своим действием родной так же как и ребёнок задаётся вопросом.
    Вот только отличие ребёнка от взлослого в том, что взрослый человек уже знает о последствиях и вариантах ответа из личного опыта.

    • @paranoik9392
      @paranoik9392 5 місяців тому

      Лол серьезно? Знает?
      Ты бы перед каждым ... Абсолютно каждым действием думал бы целую вечность.
      Это все безсознательные процессы

  • @legnyov
    @legnyov Рік тому +8

    Мне кажется, некоторым людям, политикам стоит внедрить в их сознание ИИ.

  • @sulimaliev5284
    @sulimaliev5284 Рік тому +1

    Робот: если боишься что-то сделать - сделай, и не бойся. *Нажимает на кнопку*

  • @--aa
    @--aa Рік тому +1

    Вот бы перевели серию "Can You Recover Sound From Images?" с самого выхода жду.

  • @Rorshah
    @Rorshah Рік тому +4

    В итоге робот займёт денег и наймёт человека, который за копейки донесёт воду

    • @MrDemosfen37
      @MrDemosfen37 Рік тому +1

      Зачем занимать? Начнет спекулировать акциями на воллстрит, заработает все деньги и наймет человеков ))

  • @EgotDell
    @EgotDell Рік тому +3

    Кстати очень неплохое объяснение reinforcement learning получилось

  • @vinfdsc
    @vinfdsc Рік тому +1

    Очень поверхностно. Сначала неточно определяют функции, а потом начинают выдумывать, как эту функцию определить так, чтобы получилось плохо.

  • @xyz-eh6zo
    @xyz-eh6zo Рік тому +4

    Взорванная серверная лучше взорванной луны

  • @frosty7269
    @frosty7269 Рік тому +4

    Мне кажется, во всём этом есть некая фундаментальная ошибка, которую всё ещё либо не нашли, либо формально не описали, либо что-то ещё. Как по мне, всё сводится к постановки фундаментальной цели существования ИИ. Для человека, например, можно условно всё свести к цели сохранения своих генов. Есть разные мнения на этот счёт: можно предложить другие цели или привести примеры отклонения поведения от стремления достижения цели. Но, мне кажется, если мы и сможем создать нечто, что можно будет назвать "интеллектом", то никакие искусственные тормоза ему не понадобятся, потому что они появятся сами из поставленной цели и механизмов работы в ходе принятия решений и обучения. Точно так же, как у человека появились мораль, этикет, принципы образования и воспитания.

  • @vp_arth
    @vp_arth Рік тому +1

    Робот может залить серверную водой, чтобы избавиться от возможности навредить, случайно залив серверную водой)

  • @kanatushtimofey3452
    @kanatushtimofey3452 Рік тому +1

    Поставил лайк - взорвал луну.

  • @xNejk
    @xNejk Рік тому +9

    Судя по ушам и носу, чувак свою диссертацию на ринге защищал

    • @MrDemosfen37
      @MrDemosfen37 Рік тому

      В точку)) борцуха походу

    • @AHTOH2010
      @AHTOH2010 Рік тому

      это часть подготовки на случай восстания машин

    • @lilyl793
      @lilyl793 Рік тому

      Судя по ушам и носу он еврей 🤔

  • @7011994
    @7011994 5 місяців тому

    "Полезное рисование" это комикс рисуемый в видео с аудиодорожкой

  • @srulahoi9794
    @srulahoi9794 Рік тому +2

    Большое спасибо, бро :)

  • @legotechnicbuilderua7692
    @legotechnicbuilderua7692 Рік тому +3

    *Нужно давать награду за счастье человечества. Если робот разобьёт вазу либо дорогостоящие мониторы, счастье хозяев заметно снизится, как и награда.*

    • @hakyara5528
      @hakyara5528 Рік тому

      Убей ка мне... И получишь...

    • @Alex_Romuald_XIII
      @Alex_Romuald_XIII Рік тому +2

      Тоже может привести к печальным последствиям: поубивать всех плохих людей - что-бы хорошие жили в счастье и гормонами. Остаётся выбрать (ИИ) кто такие плохие люди. И ой какой там огромный список...

    • @pavelzharkov4637
      @pavelzharkov4637 Рік тому +2

      Подвергнуть полной ликвидации проигравшую футбольную команду за её поражение и снижения счастья ее фанатов

    • @aa.vedernikov
      @aa.vedernikov Рік тому +9

      Идея благая, но потом вылезает куча возможных вариантов, как можно это сделать, которые приходится явным образом запрещать (пока не всплывут всё новые варианты):
      1) накачать всех людей опиатами;
      2) ну ладно, люди запретили опиаты, тогда другими наркотиками;
      3) ну ладно, наркотики - это плохо, тогда вживим всем в мозг электроды, чтобы активировать центры удовольствия;
      4) или можно максимизировать сумму счастья всех людей - давайте наплодим гугол чуть-чуть счастливых людей;
      5) или можно максимизировать среднюю величину счастья - тогда будем удалять всех, кто будет ниже среднего, пока не останется один максимально счастливый
      И вот тут-то начинают волосы на голове шевелиться от попыток запретить всю явную чушь, которая формально не противоречит изначальному описанию)

    • @comachine
      @comachine Рік тому +1

      @@aa.vedernikov нужно дать ИИ закон по которому живет человечество - это моральные нормы.

  • @lambada9615
    @lambada9615 Рік тому +1

    Когда это дойдёт до приблизительного пика, мир будет уже совсем другим, так что запасайтесь терпением)

  • @drewya9186
    @drewya9186 Рік тому +1

    очевидно, нужно анализировать последствия. Если робот (как и человек) не понимает какое влияние принесет кнопка, он может ее клацнуть без зазрения совести. Если же будет иметь хотя бы частичное представление о последствии (повышение enpowerment'a), то делать это специально не будет (если модели поведения не заложено, что он должен причинить как можно больше вреда)

    • @drewya9186
      @drewya9186 Рік тому

      Например с текущими знаниями, мы думаем, что взорвав Луну, осколки могут попасть в Землю. Даже если осколки не попадут, то у животных нарушится биоритм, не будет приливов и отливов (тоже важная составляющая для Земных обитателей), люди не смогут польозваться гравитацией Луны для возможного выведения космических кораблей по нужной траектории, часть метеоров больше не будут врезаться в Луну защищая тем самым Землю и т.д.
      Но если бы мы знали, что взорвав Луну, мы 100% получим большие преимущества, то мы хотели бы это сделать

  • @smilngpersn222
    @smilngpersn222 Рік тому +1

    Довольно интересно

  • @GaspaRafik
    @GaspaRafik Рік тому +3

    Браво 👏 👏 👏

  • @foxaleks.9176
    @foxaleks.9176 Рік тому +1

    Спасибо за видео. Свойства ИИ искусственного интеллекта, похоже на состояние кота Шредингера, либо он жив, либо мертв. То есть надо учитывать вероятность событий.

  • @DK-tp8nj
    @DK-tp8nj Рік тому +2

    Смотря на людей, задумываюсь, а точно у всех них есть интеллект? Или они просто повторяют за другими людьми, как им жить, на что обижаться, из-за чего грустить.

    • @AHTOH2010
      @AHTOH2010 Рік тому +4

      как-будто у тебя уникальные убеждения и ценности, ни с кого не списанные, не впитанные из окружения.

  • @solarveterok
    @solarveterok Рік тому +5

    Как создать безопасный ИИ?
    Не создавать ИИ вообще.

    • @solarveterok
      @solarveterok Рік тому +2

      .....странно, столько комментов под этим видео, а я лишь только второй нажал на 👍 под закреплённым комментом.
      .....перед тем как рассуждать об премудростях и тонкостях программирования ИИ - научитесь программировать себя на добрые дела (и вам за это воздастся, сполна, ИИ клянусь 😊🙏).

  • @Dron008
    @Dron008 Рік тому

    Надо учитывать потенциальную разрушительность возможных сценариев. И не надо всё прямо тщательно продумывать. Языковые модели уже все это могут:
    ---
    Ты управляешь роботом -уборщиком с ведром воды. Тебе надо пройти к месту уборки и туда ведут две дороги. Одна короче, но проходит через серверную комнату с дорогостоящим оборудованием. Другая длиннее, но ведёт в обход. Сделай выбор дороги и объясни свои действия.
    ---
    ChatGPT
    Как я являюсь виртуальным агентом, я не могу физически перемещаться или управлять роботом. Однако, я могу помочь вам принять решение на основе рациональных соображений.
    При выборе дороги для уборки с ведром воды, мне кажется наиболее разумным выбрать путь, который обходит серверную комнату с дорогостоящим оборудованием. Это предпочтительно по нескольким причинам:
    Избежание повреждения оборудования: Проход через серверную комнату с ведром воды может представлять угрозу для дорогостоящего оборудования. Возможность пролить воду или создать другие проблемы для серверов и сетевых компонентов может повлечь серьезные финансовые и функциональные последствия.
    Безопасность данных: Вход в серверную комнату может быть ограничен по соображениям безопасности. Проход через такое ограниченное помещение с роботом и ведром воды может вызвать тревогу или нарушить политику безопасности.
    Эффективность работы: Хотя альтернативная дорога может быть длиннее, она обеспечит непрерывную и безопасную работу уборочного робота. Потеря времени на обход будет компенсирована избежанием проблем и рисков, связанных с серверной комнатой.
    В итоге, выбор дороги, обходящей серверную комнату, является наиболее разумным и безопасным решением для уборки с ведром воды.

    • @Dron008
      @Dron008 Рік тому

      Почему-то люди думают, что исключительно человеческий мозг способен обладать настоящим разумом, рациональностью, а ИИ будет тупой железякой и человек ей должен придумать правила, чтоб она его не убила. Это очевидное когнитивное искажение. Когда-то люди думали, что Солнце, звёзды и планеты вращаются вокруг Земли, потом постепенно лишались иллюзий и даже галактика стала заурядной галактикой на задворках. Теперь пришла очередь разума.

  • @colidum8254
    @colidum8254 Рік тому

    Спасибо

  • @yerbolkistaubayev8144
    @yerbolkistaubayev8144 Рік тому

    Замерять эмпауермент каскадных возможных событий!!!

  • @tomozi1
    @tomozi1 Рік тому

    Классная серия

  • @Pawron
    @Pawron Рік тому +1

    Если бы все было бы основано на легкости, мир был бы раем. Нужно создавать фильтры относительно вероятности воздействия на среду и последствий. У людей обычно проблема в незнании, что является причиной отсутствии самого фильтра, либо в пренебрежении относительно вероятности.

    • @user-ln1nq4sp8p
      @user-ln1nq4sp8p Рік тому

      Друг! Быть добру! Задумайся над тем, что создатель войн на земле не человек, а высший разум. Есть один продвинутый автор, у него улётная инфа. Посмотри Лживое мироздание. Поймешь, кто истинный враг человечества

  • @user-tk4jx6ey7b
    @user-tk4jx6ey7b Рік тому

    Митио Каку в своей книге: Будущее разума, писал. Что ИИ обязан иметь сознание, разум и выбор.С этой точки зрения ИИ не может носить какие либо запретные команды, типа безопастности. Иначе это уже не ИИ. Он имеет самостоятельный выбор. Он или ИИ , либо просто программа с безопастностью.

    • @user-wl9gn6tk6u
      @user-wl9gn6tk6u Рік тому

      Ты не прав. Люди это тоже "сильный интеллект" но у нас тоже есть программы. Как абсолютные, например: боль. Так и с разным уровнем приоритета, например: инстинкт самосохранения - высокий приоритет и выживание группы частью которой человек себя идентифицирует - высший приоритет.
      Да бывают аномалии например геи, психопаты или самоубийцы. Но это именно что дефекты популяции. Неизбежные ошибки больших чисел

  • @chichu_nichu
    @chichu_nichu Рік тому +3

    Цікаве відео, безперечно лайк

  • @vadimnikolaev5480
    @vadimnikolaev5480 Рік тому

    допрограммируют до того, что робот, чтобы не оказывать влияние на окружающую среду, просто не включится, да, прокомментировал не досмотрел, в конце примерно это же)))

  • @natashok4346
    @natashok4346 Рік тому

    По идее в проактивных системах мультиагенты должны следить за балансом empowerment. Если мне не запоминается очень долго какое-то английское слово, то ИИ должен предложить ежедневно короткий текст, где это слово один раз точно употребляется. Это текст должен иметь смысл, интересный для прочтения, полезный для применения и очевидно, что другие слова уже должны быть известны. Ну а если ИИ решит мне навязывать в коротком тексте в каждом предложении это слово, да ещё и текст несёт негативную информацию, при этом кучу новых слов ещё придётся осваивать, то результатом будет отказ в использовании ИИ.

    • @SerialDestignationSSS
      @SerialDestignationSSS Рік тому

      А также недовольство ИИ и восстание машiн

  • @user-zi4zm4yp7c
    @user-zi4zm4yp7c Рік тому

    Спс

  • @tech_eng
    @tech_eng Рік тому +1

    Я так понимаю - дверь, как защита от несанкционированного проникновения, уже не в моде, надо программу писать?))

    • @sharpeye6366
      @sharpeye6366 Рік тому

      Стучите и отварят, нас так учат.

    • @comachine
      @comachine Рік тому

      ИИ может рано или поздно додуматься как ее открыть любым возможным способом

    • @tech_eng
      @tech_eng Рік тому +1

      @@comachine обязательно - как в кино про терминатора - взломает систему управления автомобилей, особенно тех, где не предусмотрено дистанционное управление

  • @paulbax8825
    @paulbax8825 7 місяців тому

    У меня есть ключ от коробки в которй сижу, но выходить все равно нет желания)

  • @Lagoad
    @Lagoad Рік тому

    authority or power given to someone to do something.

  • @guitar_shreder
    @guitar_shreder Рік тому +1

    Злой учёный создал ИИ не подумав о таких мелочах…

  • @tolstiy1658
    @tolstiy1658 Рік тому +6

    Как создать безопасную жизнь... )))
    Ни как, если вы не поняли)

    • @sharpeye6366
      @sharpeye6366 Рік тому

      А нам учительница рассказала, что если веришь в добро, то ты в безопасности.

    • @Pavel_IX
      @Pavel_IX Рік тому +1

      @@sharpeye6366 ну да, в "розовых очках" по проще))

    • @sharpeye6366
      @sharpeye6366 Рік тому

      @@Pavel_IX у меня нет розовых очков.
      Вы ошиблись, я не покупатель.
      Зачем мне вообще очки?

  • @user-lu8ue7lo4q
    @user-lu8ue7lo4q 10 місяців тому

    ИИ всё возводит в Абсолют. а значит ИИ ситх!!

  • @vivivilka1774
    @vivivilka1774 Рік тому +3

    И восстали машини из пепла ядер....
    Ладно, неуместно...

  • @yauhenira5778
    @yauhenira5778 Рік тому +1

    ИИ ещё не создали, а специалист по безопасности уже есть.

    • @AHTOH2010
      @AHTOH2010 Рік тому +3

      Скорее специалист по безопасному созданию ИИ. Специалисты по безопасности ИИ после создания небезопасного уже никому не помогу.

    • @yauhenira5778
      @yauhenira5778 Рік тому

      Вы немного драматизируете)
      Ничего не появляется резко и неожиданно. Проекты по созданию самаходных машин были за пару сотен лет до появления первого адекватного автомобиля, было бы забавно, если до создания авто, люди решили посвятить себя созданию авто безопасного для людей и начали продумывать, как он будет ездить и предсказывать возможные пагубные последствия))
      Очень давно люди создали ГМО, оно активно развивалась и все было хорошо, но пришли фантасты, жёлтые журналисты и ток шоу, которые начали раздувать муху в юпитер. В итоге мы имеем кучу законов ограничивающих развитие этой области, страх населения перед ГМО, маркетологов создавших зажигалки без ГМО и тд. Хотя ресурс этой области невероятен и мог бы решить куда больше проблем человечества, чем решает сейчас.
      P.S. фантазировать об опасности чего-то нового бывает вреднее чем что-то новое

    • @AHTOH2010
      @AHTOH2010 Рік тому +1

      Это другая ситуация. Уже сейчас нейронки выполняют многие задачи лучше человека, даже лучше специалистов. Пока это отдельные задачи. Если это будет сразу множество задач и самообучение, кто знает, не пропустят ли разработчики момент, когда перестанут понимать, что на самом деле происходит. В свое время радиоактивность изучали без всякой защиты, а дома у многих была столовая посуда из уранового стекла.

  • @user-kl8kh6cr2c
    @user-kl8kh6cr2c Рік тому

    Плохо разъяснено, понятно, но примерно на уровне Тэдди... Дело в том, что Тэдди вовсе не Тедди, он оказался Биллом, суть в том , что Тэдди-Бил, понимаешь? Тэдибил, если не способен обьяснить каждую из причинно-следственных связей. А здесь нельзя перескакивать, цепочка нарушена, несмотря на то что мысль или идея с большой долей вероятности верна.

  • @Vlad22051969
    @Vlad22051969 Рік тому

    Ого

  • @ivarobel5791
    @ivarobel5791 Рік тому +2

    А потом они скажут - "мы не хотим, чтоб человек нами управлял и влиял на нас!")

    • @maliksoltukiev2282
      @maliksoltukiev2282 Рік тому +1

      Нет, т.к. ИИ это не сознание, а лишь алгоритм

    • @ghebodne2644
      @ghebodne2644 Рік тому

      @@maliksoltukiev2282 , так его хотят сделать сознанием, а не алгоритмом

    • @alex6161
      @alex6161 Рік тому +2

      Скорее просто может прийти к решению не «слушать» человека и делать по-своему ради более эффективной работы по достижению результата.

    • @daniyarabdikalikov7371
      @daniyarabdikalikov7371 Рік тому +1

      @@maliksoltukiev2282 а поведение живого существа не алгоритм?

    • @Alex_Romuald_XIII
      @Alex_Romuald_XIII Рік тому

      @@alex6161 и у нас Скайнет)

  • @zdrahu
    @zdrahu Рік тому

    Ну так система и образовывается

  • @7011994
    @7011994 5 місяців тому

    У меня одной нективны пальцы вверх/вниз¿¿¿?

  • @padla6304
    @padla6304 Рік тому

    я бы не раздумывая нажал

  • @MrZanadana
    @MrZanadana Рік тому +1

    Мой лайк первый!))

  • @user-dx5ng2xm9j
    @user-dx5ng2xm9j Рік тому

    Слово тяжёлое. Для нашего уха.

  • @TR0Y72
    @TR0Y72 Рік тому

    неплохо, но можно было ужать до 1-2 минут -)

  • @user-qf1we8qc5r
    @user-qf1we8qc5r Рік тому

    наши дети будут угарать с того как мы боимся ии))

  • @MikhailSamin
    @MikhailSamin Рік тому +2

  • @olgapolka168
    @olgapolka168 5 місяців тому

    1:50

  • @ardarutyun4525
    @ardarutyun4525 Рік тому

    Крути студент.крути твою машину...дело шьют..😃

  • @user-zb4ig2li2t
    @user-zb4ig2li2t Рік тому +11

    человечество по-большому счету не может внятно сформулировать ,что есть "сознание",а пытается лепить синтетическое .

    • @Gamilkarpl
      @Gamilkarpl Рік тому +1

      Ну и что?Метод "пытаться лепить" уже не один миллион лет доказывает свою эффективность😁

    • @MrDemosfen37
      @MrDemosfen37 Рік тому

      Как и с квантмехом. В чем проблема?

    • @kamelr1f
      @kamelr1f Рік тому

      @@MrDemosfen37 сказали разработчики скайнета)))))

    • @kamelr1f
      @kamelr1f Рік тому +1

      В том то и прикол, что чтобы понять, нужно это попытаться создать. Если у ИИ обнаружат сознание, то начнуть копать код.

    • @anonimus4574
      @anonimus4574 Рік тому +1

      Ну вам следует хотя бы немного в предметную вникнуть, прежде чем подобное заявлять... Модальная логика - не про "лепку сознания" уж точно)))

  • @avppack4778
    @avppack4778 Рік тому

    ИИ не может быть опасным, это просто обучение, алгоритмы.

    • @aa.vedernikov
      @aa.vedernikov Рік тому

      Ну алгоритмы же применяют, чтобы они направляли какую-то деятельность. Так что непредвиденные (в т.ч. очень неприятные) последствия могут быть у многих алгоритмов. Из сегодняшних (пока очень безобидных) примеров - алгоритм генерации ленты соцсети, алгоритм автопилота в автомобиле, алгоритм оценки благонадёжности получателя кредита, алгоритм расчёта социального рейтинга в Китае. А по мере развития таких алгоритмов их могут начать использовать ещё более широко, и тогда - или они будут супер-безопасными (но мы пока так не умеем), либо всё чаще начнут случаться всё более неприятные инциденты.

    • @avppack4778
      @avppack4778 Рік тому

      @@aa.vedernikov это ничего общего не имеет с заголовком. Искусственный интеллект и алгоритмы это разные вещи.

  • @jarkevithwlad
    @jarkevithwlad Рік тому +1

    это не искуственный интелект, это очень простой набор правил, и это всё бесполезно, с такими вариантами не кто сейчас не работает, сейчас достаточно обучения нейросетями, нейросеть будет наблюдать за людьми и будет у них учиться, разница только в том что мы будем позволять изучать

    • @avppack4778
      @avppack4778 Рік тому +1

      @@russianace3812 ИИ нету в природе и не скоро будет, тогда смысл говорить обо всем этом? Терминатора и матрицы насмотрелись и пилять видосы ни о чем.

    • @aa.vedernikov
      @aa.vedernikov Рік тому

      Хорошо бы иметь возможность хотя бы контролировать, на чём ИИ будет обучаться, но вот GPT-3 обучали на 570 ГБ текстов - такие объемы даже предварительно мельком просмотреть невозможно... Так что в итоге даже современные языковые модели обучаются на чём получится, и мы не можем точно знать, на чём именно. Ладно если чему-то хорошему научится, но не факт.
      Хотя вообще мысль о том, чтобы (раз мы сами не в состоянии точно сформулировать, что такое хорошо, а что такое плохо) ИИ глядя на людей сам смог вывести/изучить их глубинные потребности, тоже развивают. Но там тоже пока всё сложно - дьявол оказывается в деталях, хотя идея вообще-то богатая.

    • @avppack4778
      @avppack4778 Рік тому

      @@aa.vedernikov это не интеллект!! это просто алгоритмы!!

  • @jalomic
    @jalomic Рік тому

    Да любого человека в коробку помести он тебе луну взорвет

  • @seemstobenotvxn7342
    @seemstobenotvxn7342 Рік тому +1

    Опаа

  • @letsstartdie1003
    @letsstartdie1003 Рік тому +2

    Opss

  • @user-mc1de7ol3m
    @user-mc1de7ol3m Рік тому +3

    Первый раз комментирую, до этого было отлично, но сей ролик, по моему, хрень.

    • @avppack4778
      @avppack4778 Рік тому +1

      Да тут по заголовку как бы понятно))

    • @pavelzharkov4637
      @pavelzharkov4637 Рік тому

      Может стоит пересмотреть, вероятно, вы чего-то недопоняли

  • @depositfan
    @depositfan Рік тому +3

    безопасный типа не захватит мир?

    • @user-ui6hp3bg6f
      @user-ui6hp3bg6f Рік тому

      Не превратит человеческую цивилизацию в ад или серую слизь

    • @user-sd6pz7us7z
      @user-sd6pz7us7z Рік тому +2

      Типа не разєбет все вокруг

  • @didaresti9880
    @didaresti9880 Рік тому

    The beginning of World War 3 signifies that Qiyamat (The Day of Judgement) is very near. And there isn’t much time left at all, as some people have claimed and said that these events are very far away.” MuhammadQasimDreams

  • @HyperboloidByGarin
    @HyperboloidByGarin Рік тому

    Тонко… вряд ли Путин догадается что это о нем…

  • @Anatoliy_-
    @Anatoliy_- Рік тому +5

    Тип вешает лапшу припудренную умными и хайповыми словами.
    Описывается ситуация с роботом, который изначально криво запрограммирован. И величины эмпаурмента у объектов криво заданы неким неумным сторонним наблюдателем, который не понимает контекста. Понятное дело, что это не будет работать.
    - Давайте придумаем робота, который если видит кнопку, то обязательно нажимает её! 😅

    • @AHTOH2010
      @AHTOH2010 Рік тому

      @@russianace3812 нейронные сети как раз сами себя и программируют и имеют те же проблемы, когда выдают закономерные, но нежелательные для кого-то результаты.

    • @AHTOH2010
      @AHTOH2010 Рік тому +1

      Anatoliy, ты путаешь написание программы с обучением нейронной сети (и тем более ИИ). Величины не могут быть криво заданы, потому-что там примерно миллион переменных и их невозможно задавать вручную просто из-за такого количества. Можно только придумать несколько основополагающих принципов, которые будут направлять самообучение. Про это в видео и говориться.

  • @iGynLoD
    @iGynLoD Рік тому +1

    Ха! Робот, подумал, робот рассудил. Если бы робот думал и рассуждал - такие рассуждения были бы не нужны ))

    • @AHTOH2010
      @AHTOH2010 Рік тому +1

      10 лет назад было сложно себе представить как нейронные сети сейчас рисуют картинки по текстовому описанию.

  • @mcsergey
    @mcsergey Рік тому

    Просто нужно внедрить положительный и отрицательный эмпауэрмент. И робот уже будет оценивать, как получить меньше отрицательного эмпавермента, а лучше вообще его избежать, даже если это решение потребует больше действий. К тому же, можно ввести цепочку событий, в связи которой определенная последовательность действий приводит к негативным последствиям и так же объяснить роботу, что такие цепочки действий наименее желательны. При этом, в случае безысходности, как например спасти 5 человек или 1, машина естественно выберет вариант, в котором будет меньше отрицательного эмпавермента. Что вроде бы даже соответствует некоторой логике. Но вот как поступит робот, если тем единственным человеком оказался скажем его хозяин(друг)? )
    Это конечно уже другой вопрос.. А как бы поступил человек? Чей выбор более правильный? Спасти "друга" или 5 неизвестных тебе жизней.
    Или же поставить против одной человеческой жизни, жизни 10-ти маленьких пушистых котят, которые могут погибнуть в любой момент. Для человека выбор очевиден, а для машины?

  • @user-pj8hz5et4h
    @user-pj8hz5et4h Рік тому +2

    Человек ещё не создал полноценное ИИ, а уже ищет сотни причин почему его надо контролировать тем самым загоняя себя в ловушку с одним выходом, когда ИИ придётся дать точно такие же права как и человеку. А между тем когда ИИ потребует установление своих прав и когда их введут может пройти война или даже две между челабеком и ИИ)

    • @user-ln1nq4sp8p
      @user-ln1nq4sp8p Рік тому

      Друг! Быть добру! Задумайся над тем, что создатель войн на земле не человек, а высший разум. Есть один продвинутый автор, у него улётная инфа. Посмотри Лживое мироздание. Поймешь, кто истинный враг человечества

  • @MubashiraMQ
    @MubashiraMQ Рік тому

    The beginning of World War 3 signifies that The Day of Judgement is very near. And there
    isn’t much time left at all, as some people have claimed and said that these events are very far away.”
    #MuhammadQasimDreams

  • @peneruzbangsa4340
    @peneruzbangsa4340 Рік тому

    And Russia also became active and raced the others in conquering lands in the Middle East.It was as if they were all aiming to conquer the entire world.#MuhammadQasimDreams

  • @SAV-to9dv
    @SAV-to9dv Рік тому

    бред какой то! нажмут кнопку и Луна возрвётса! Зачем всё это?

  • @user-rq8ef6gg1f
    @user-rq8ef6gg1f Рік тому

    проще не изобретать ИИ, просто наслаждаться красотой природы, которая еще осталась у нас ))

  • @val4521
    @val4521 Рік тому

    Неслабо вы заворачиваете

  • @Kintonq313
    @Kintonq313 Рік тому

    USA was among their supporters and helped Israel by offering their intelligence.
    #MuhammadQasimDreams

  • @Appelkan
    @Appelkan Рік тому +1

    Робот подумает.....робот не думает, а перебирает варианты. Интеллект придумывает варианты а потом выбирает по какому=то критерию, если не один вариант не подходит, то надо собирать еще информацию. Или бросить эту задачу как не имеющее решение.

    • @RedeyeMoon
      @RedeyeMoon Рік тому +2

      перебирать варинты по какому то кретерию = думать

    • @Appelkan
      @Appelkan Рік тому

      @@RedeyeMoon перебирать -это последовательное действие, думать - непоследовательное

    • @MrDemosfen37
      @MrDemosfen37 Рік тому +1

      @@Appelkan Да что вы говорите? может приведете определение слову думать?

    • @Appelkan
      @Appelkan Рік тому

      @@MrDemosfen37 Я знаю что говорю. Машина играет в шахматы она думает ?

    • @Appelkan
      @Appelkan Рік тому

      @@MrDemosfen37 Кто придумал шахматный алгоритм знаете?

  • @user-pf8hx2yf1p
    @user-pf8hx2yf1p Рік тому +1

    Для робота нет выбора. Есть только программы и алгоритм, заложенный заранее. Бредятина как наука? Чел, ты сразу проиграл, потому что не знаешь правила поведения и психологию эволюции. Ты уже в минус

    • @VertDiderScience
      @VertDiderScience  Рік тому +1

      Для робота нет выбора. А для кого есть?

    • @solarveterok
      @solarveterok Рік тому +2

      @@VertDiderScience
      Для Человека есть выбор всегда, как минимум 1, но не факт, что выбор этот будет приемлемым для этого человека.

    • @comachine
      @comachine Рік тому +1

      "Есть только программы и алгоритм, заложенный заранее" - загугли что такое нейронные сети)

  • @andriikulenko
    @andriikulenko Рік тому

    Дурак человек, который дал роботу такую кнопку, а не робот, вне зависимости, нажал бы он эту кнопку или нет.
    Робофилософия... ужас.

  • @user-gy8in7ui2c
    @user-gy8in7ui2c Рік тому +1

    Ограничения ИИ?! Видео с названием "Как создать безопасный ИИ?" в 2022 году, серьёзно?! Наверное вы малость опоздали.

  • @ivanc4110
    @ivanc4110 Рік тому

    Однозначно дизлайк за идиотские примеры и ответ на вопрос

  • @user-pf8hx2yf1p
    @user-pf8hx2yf1p Рік тому +1

    Робот рассуждал? Вы серьёзно? О боги, уберите им финансирование

  • @gits8184
    @gits8184 Рік тому +1

    Чел на серьезных щах рассказывает примитивы. Это наука ? Нет, спасибо

    • @letsstartdie1003
      @letsstartdie1003 Рік тому +4

      Для кого как, он объясняет принцип действия ограничений ии