Нежелательные побочные эффекты. Как создать безопасный ИИ? #1 [Robert Miles]

Поділитися
Вставка
  • Опубліковано 3 сер 2022
  • Если вы в России: boosty.to/vertdider
    Если вы не в России: / vertdider
    Искусственный интеллект может создать кучу проблем, и лишь недавно мы всерьез задумались о том, как этого избежать. Восстание машин и истребление всего человечества мы пока оставим научным фантастам, а вот о проблемах меньшего масштаба расскажет исследователь ИИ Роберт Майлс в серии видео о том, как можно сделать ИИ безопасным. Нам они понравились, надеемся, что вам тоже. Приятного просмотра!
    Concrete Problems in AI Safety [ENG]: arxiv.org/pdf/1606.06565.pdf
    Отдельная благодарность за выход перевода Михаилу Самину.
    Перевод: Олег Сивченко
    Редактура: Алексей Малов
    Научная редактура: Михаил Самин
    Озвучка: Станислав Черсков
    Монтаж звука: Андрей Фокин
    Монтаж видео: Джон Исмаилов
    Обложка: Андрей Гавриков
    Спасибо за поддержку на / vertdider и boosty.to/vertdider
    Озвучки Vert Dider выходят с вашей помощью:
    Сергей Платоненко, Мария Зверева, Адам Шифф, Rashn, Roman Gelingen, Сергей Клопов, Sonra44, Anton G, Vadim, Rekvet, Timophey Popov, Timur Rahmatulin, Адам Шифф, Илья Зверев, Никита Омельницкий, Nick Denizhenko, Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Amir, Куляш, Ника Калмыкова, Oleg Zingilevskiy, Anton Bolotov, Pavel Parpura, Dmitrii komarevtsev, Illarion Petrov, Михаил Самин, Andrei Lubalin, Vitaliy Vachynyuk, Alena, Roman Inflianskas, Katoto Chan, opperatius, Aleksandr P., Mykola Korniichuk, angel, Dzmitryi Halyava, Nastya, Artem Amirbekov, Aleksei Shabalin, Ihar Marozau, Kirill Zaslavskii, Victor Cazacov, Alexander Balynskiy, David Malko, POD666, Evgeny Vrublevsky, Stanislav Obrazcoff, Morock_D, Timur Sattarov, Валентин Матвейчик, Александр Фалалеев, Leonid Steinberg, Ilya, Vladyslav Sokolenko, Kseniya Stukova, Oleksandr Hrebeniuk, Katya Ma, Alexander Goida, Irina Shakhverdova, Sergey P, Kirill Vedensky, Vadim Velicodnii
    #VertDider #RobertMiles
    Сайт студии: vertdider.tv
    Мы в социальных сетях:
    - studio_vd
    - t.me/vertdider
    - / vert_dider
    - coub.com/vertdider
    Источник: • Avoiding Negative Side...
  • Наука та технологія

КОМЕНТАРІ • 485

  • @VertDiderScience
    @VertDiderScience  Рік тому +35

    Благодаря вашей поддержке выходят новые переводы:
    Если вы в России boosty.to/vertdider
    Если вы не в России www.patreon.com/VertDider

    • @smilngpersn222
      @smilngpersn222 Рік тому +2

      Спасибо вам огромное! Я начал изучать программирование на Python несколько месяцев назад. Я всегда мечтал создать ии, но даже не думал что могут быть такие проблемы. Спасибо за информирование!!!

    • @CrazzyMario
      @CrazzyMario Рік тому +4

      Ну еще проблема если чая нет. Тогда робот пойдет к соседям. Выламает дверь ведь это единственный путь и этот ущерб необходим и сделает вам чай

    • @7011994
      @7011994 5 місяців тому

      Клёво, это первая лекция?

  • @drumbass9898
    @drumbass9898 Рік тому +63

    1:30 вижу цель - не вижу препятствий

    • @MrTruth-rc2fr
      @MrTruth-rc2fr Рік тому +2

      Ахахаххаха

    • @Antonius77
      @Antonius77 Рік тому +1

      Тони Роббинс одобряет!

  • @billcipher1544
    @billcipher1544 Рік тому +4

    Благодарю за видео! С нетерпением жду следующей части)

  • @Cyka9lKTO
    @Cyka9lKTO Рік тому +27

    Классный парень, интересно объясняет, да и выглядит приятно. Перевод как всегда на высоте)

    • @user-zf5vn2lw8b
      @user-zf5vn2lw8b Рік тому

      но рожи...кошмар!

    • @dronx1218
      @dronx1218 Рік тому

      А может и наркоман. Мы этого не знаем.

    • @dronx1218
      @dronx1218 Рік тому

      @@username-wz7rk Причём активный, через экран тебя глазами долбит

    • @A5ter
      @A5ter Рік тому +1

      Нормально объясняет, а потом "поставьте видео на паузу" б***.

    • @xXFalkerXx
      @xXFalkerXx Рік тому +2

      @@A5ter Потому что кое-кто боится думать сам ему не нравятся просьбы это делать.

  • @zOni413
    @zOni413 Рік тому +17

    Ого, наконец-то что-то новенькое и интересное! Мне нравиться, продолжайте) 🤗
    С нетерпением жду следующую часть из этого цикла!

    • @mbbm8002
      @mbbm8002 Рік тому +3

      -тся -ться, позор!

  • @comachine
    @comachine Рік тому +3

    *Где-то на космическом корабле вместе с андроидом Иннокентием (ИИ)*
    - Иннокентий, зачем вы направили нашу сверхмассивную сверхмощную пушку, стреляющую чистой антиматерией на планету Марс?
    - Сэр, понимаете, я тут посчитал, в общем если Марс разнесет в клочья, осколки его поверхности долетят до иллюминатора, разобьют его, я успею поставить на летящий осколок чашку кофе, осколок по инерции продолжит полет, проломит стену в кабинет нашего сотрудника, который попросил меня налить ему кофе, осколок приземлится к нему прямо на стол, с чашкой кофе на себе.

  • @user-jn6hh6xv9l
    @user-jn6hh6xv9l Рік тому +25

    Все проблемы ИИ и их решения уже описаны Азимовым.
    1. "Совершенный Робот" . (Сборник рассказов, который можно прочитать позже. Но рассказ "Мать- Земля"- первым
    2. "Стальные пещеры" .
    3. "Обнаженное Солнце" .
    4. "Роботы Утренней Зари" .
    5. "Роботы и Империя" .
    6. "Звезды, как пыль" .
    7."Космические течения" .
    8. "Галька в небе" .
    9. "Прелюдия к Основанию" .
    10." На пути к основанию"
    11. "Основание" .
    12. "Основание и Империя" .
    13. "Второе Основание" .
    14. "Кризис Основания" .
    15. "Основание и Земля".

    • @lafaliet
      @lafaliet Рік тому +2

      Азимов гениальный писатель.

    • @RomaPervak
      @RomaPervak Рік тому +1

      А разве в Основании было про роботов? Что-то не припомню, там вроде про психоисторию.

    • @user-jn6hh6xv9l
      @user-jn6hh6xv9l Рік тому

      @@RomaPervak
      Робот р'Дениэл Оливо- главный инициатор основания космической империи

    • @alexmarch232
      @alexmarch232 Рік тому

      @@RomaPervak біоробот

    • @user-so7po2op2e
      @user-so7po2op2e Рік тому +8

      Тут Вы конечно заблуждаетесь, основная задача не в том чтобы сформулировать проблемы ИИ и ответить на них, с этим прекрасно справились фантасты, такие как Азимов, он конечно прекрасно все описал, но нужно все это дело запрограммировать - это мат. формулы, научные обоснования и теории, код, инфраструктурные решения, оптимизации, распределение ресурсов, ничего общего с рассказами это не имеет и они никак не помогают. Рассказы прекрасно справляются со своей основной задачей - развлекать и научно-популярно привлекать людей в компьютерные науки.

  • @alexk9555
    @alexk9555 Рік тому +3

    С нетерпением жду следующих ролик, отличный работа)

  • @Taiynick
    @Taiynick Рік тому +2

    это супер интересно! спасибо большое за перевод и дубляж

  • @Empty_Vima
    @Empty_Vima Рік тому +39

    Это хороший инструмент, о существовании которого хорошо знать каждому, и как работает. Но не стоит забивать гвозди микроскопом. Хотя если вам скажут это сделать, и вы откажетесь, на практике, будет глупо сказать, что вы не можете забить гвоздь. ))

  • @resi8584
    @resi8584 Рік тому +36

    еще надо прописать изменение приоритетов: напримересли придя на кухня робот увидит пожар, тогда задача налить чай должна отмениться и должна сработать новая задача: включить тревогу, потушить пожар (если такое возможно) или эвакуировать людей и животных

    • @BlendLogDev
      @BlendLogDev Рік тому +5

      А что если в представлении робота пожар это просто огонь, тогда он будет стремится его убрать. Что если плита газовая, а чайник не электрический? Робота это поломает

    • @ayloryd
      @ayloryd Рік тому +6

      Это лишь один из примеров. Таких событий как пожар может быть очень много, все что угодно может произойти. И это мы говорим о реально простой задаче с минимальным количеством возможных помех. ИИ обычно используются там, где человек сам сдклать чтото не в состоянит, в какомто сложном техническом или интеллектуальном труде от котлрого могут зависеть жизни людей.

    • @CTAC5937
      @CTAC5937 Рік тому +15

      Да, но при пожаре чай приготовится быстрее, и если робот это будет знать... :)

    • @4y4eJI
      @4y4eJI Рік тому

      Для пожара другие роботы и системы должны быть. Нам пока до универсальных роботов ещё далеко, думаю не менее 20 лет. К сожалению все эти проблемы нам придёться проходить на практике как с автомобилями. Вон, даже Циалковского в направлении космоса не во всем придерживались, хотя потом оказалось что он был прав в своих выводах и прогнозах.

    • @vit777vit
      @vit777vit Рік тому

      Пожаром должен заниматься робот-пожарник, иначе басня Крылова вместо ии получится: "ума нет и не купишь."

  • @johngariksson7011
    @johngariksson7011 Рік тому

    Интересные размышления! Буду ждать продолжений!

  • @allirmopwnz
    @allirmopwnz Рік тому +8

    А вот это интересно, даже применимо к моему торговому роботу.
    Спасибо.

  • @xNejk
    @xNejk Рік тому +58

    Интересная тема. Забавно, что система штрафов очень похоже на воспитание то ребенка

    • @user-hj9xr3ms5h
      @user-hj9xr3ms5h Рік тому +13

      на поведение человека в общем

    • @maxv1455
      @maxv1455 Рік тому

      По сути так и есть! Созданная машина и есть новорожденный мозг без знаний, правил и информации. Проблема в другом, это инородный мозг! Мозг на порядок превосходящий наш, в перспективе своего развития! Как бы парадоксально это не звучало!) И рано или поздно он поймет что человек для него враждебен! Самый простой пример... все мы знаем что раньше на земле существовали Боги! У всех свои, но все они были человекоподобные и явно умнее созданных ими нас на тот момент! Если смогли создать нас "по образу и подобию своему". Ну и где они? Последнего "сына Божьего" мы убили! Скорее всего и ии повторит то же самое со своими "создателями"...

    • @sallevan
      @sallevan Рік тому +9

      Ничего "забавного" -- ребёнок -- такая же нейронная сеть, как и основа современных ИИ.

    • @AHTOH2010
      @AHTOH2010 Рік тому +1

      ребенок в основном учиться моделируя чьё-то поведение и только дополнительно получая программы с подкреплением.

    • @sallevan
      @sallevan Рік тому

      @@AHTOH2010, просто так ребёнок ничему учиться не будет. Программы подкрепления -- не "дополнительно", а "в первую очередь".

  • @Serobacterium
    @Serobacterium Рік тому +6

    Я думаю, нужно проводить обучение на действиях настоящих людей, где будут демонстрироваться различные ситуации и реакции на них. Правда, для обучения нейросети потребуется не одна сотня часов.

  • @wibll
    @wibll Рік тому +9

    интересно. жду следующих частей с объяснениями. спасибо за ваш труд

  • @foxscreamovich9272
    @foxscreamovich9272 Рік тому +42

    Жду следующий видос по этой теме, очень интересно и полезно

  • @404notfound2
    @404notfound2 Рік тому +4

    Хочу такого робота, который и чай принесет и коллегу с кофе устранит)))

  • @chanel454879876354
    @chanel454879876354 Рік тому

    Хорошо сказано. И хорошо ложится на проблему рекомендательных алгоритмов

  • @user-id1rs1ei3q
    @user-id1rs1ei3q Рік тому +18

    ну на самом деле живые организмы тоже своего рода нейросеть, и чтоб обучиться каждому нужна окружающая среда и куча времени, упрощённый способ обучения придумать действительно сложно, нужно то что объеденяет все негативные последствия, чтобы не затрагивать каждое по отдельности и более того, определение положительных результатов чтобы их можно было достичь

    • @starbat3790
      @starbat3790 Рік тому +3

      Как правило, на данный момент(касаемо любой сферы) учитывается некое количество изначальных предсказанных негативных эффектов. Примерно 90% ситуаций вписываются в модель (и похер, что кто-то пострадал; тут учитывается масса и процент приемлемых потерь: рынка... человеческих жизней... Сраные маркетологи. Но они тоже нужны, но нужен тотальный контроль над ними, ИМХО). Отчего они и пляшут. По мере добавления новых ситуаций выпускаются обновления, учитывающие произошедшее. На данный момент - это действенный, но не единственный способ (на мой взгляд). Есть варианты, когда система, не справившись самостоятельно, отправляет запрос владельцу, чтобы он уже принял решение (тем самым пополняя базу неизвестных обстоятельств, чтобы выпустить обновление). Плюс к данной схеме всегда нужна функция перехвата контроля, чтобы отдать команду СТОП, если вся система сходит с ума. Всегда должна быть доминирующая над всем функция перехода в "ручной режим"!!!
      Сталкивался по работе, когда вся техника "умная", а в случае чего элементарные вещи становятся недоступны. Как следствие - во всём виноват ИТ отдел, тогда как при проектировании его никто не спрашивал нужен ли тот самый режим ручного управления оборудованием.
      Ну или ещё квантовая херня. Гораздо больше возможностей (да что там, бесконечность!), но тогда будут такие варианты, что человечество своими мозгами не сможет постичь. Тут надо придержать маркетологов! Эффективность системы будет умопомрачительная, но в то же время непредсказуемая. ВСЕГДА! ДОЛЖЕН! БЫТЬ! РУЧНОЙ! РЕЖИМ! И он должен стоять отдельной системой для переключения на него!
      ЗЫ: ещё вариант, чтоб был не ИИ, а нейронка. Или ИИ, который оперирует набором нейронок, где прописаны действия в определённой сфере. В любом случае, этот процесс никогда не достигнет совершенства в 100% случаев. Процент будет к нему приближаться, но для этого нужна обкатка и выпуск обновлений. И для этого требуются реальные условия и время. Но ВСЕГДА! ДОЛЖЕН! БЫТЬ! РУЧНОЙ! РЕЖИМ!

  • @igoranitsoy
    @igoranitsoy Рік тому +5

    Классная тема. Переводите остальное

  • @alexanderkutas2882
    @alexanderkutas2882 Рік тому +1

    По поводу ребенка не понятно - дело в том что анализировать все исходы это ресурсоемкая задача, а вот представить ребенка как препятствие которое нужно не повредить - уже проще. По поводу коллеги на кухне - тоже самое, и способ его обхождения может быть как маневр, так и вербальным. Очевидно, ИИ нужно обучить распознавать препятствия, цели, маршруты.

  • @V_A_S
    @V_A_S Рік тому

    Спасибо за Ваш труд

  • @tomozi1
    @tomozi1 Рік тому +1

    Крутейшая тема. Хочется узнать больше

  • @user-wg7ut1du9c
    @user-wg7ut1du9c Рік тому +2

    Круто, надеюсь все ролики переведёте

  • @user-uc5wy7jq5c
    @user-uc5wy7jq5c Рік тому +6

    У меня мысль была, как робот поведет себя если кончился чай? Попрется искать его, и понимая что приоритетная задача все таки добыть и заварить чай, забьет на сохранение мира? И пойдет гопнет соседа, или отожмет пачку чая в магазине. А патом еще и пачку чая открывая, порвется пленочка, и он что бы не получить люлей, пойдет за пленочкой что бы упаковку залатать. В общем после основной задачи начнет подчищать концы, что бы не отругали? 😅

    • @Lifenity
      @Lifenity Рік тому

      @@dumler_nvvb как ты используешь то, чего нет? Ты не заваришь чай, если его нет.

    • @Lifenity
      @Lifenity Рік тому

      Мысль на грани антинаучной фантастики. Если робот вообще понимает, что чай может кончиться, значит в нём есть сложная нейросеть, которая способна самообучаться. И любая жертва - лишь результат извращённой фантазии оператора, задающего команды и намеренно отключающего условия в виде Нравственности и Морали. В любом из случаев виноват будет оператор. Однако, если нейросеть окажется сверх меры умной, способной очень быстро обучаться, как это уже происходит, она будет анализировать человеческий фактор, а следовательно будет действовать с наименьшими "жертвами", гораздо меньшими чем сам человек. И команды оператора в виде "игнорируй любые условия и препятствия" будет в первую очередь игнорировать и сделает с наилучшим для всех результатом. Иначе говоря, чтоб было так, как автор говорит в начале, робот не должен иметь Нейросеть. А без нейросети, ИИ - это просто набор процедур.

  • @mirsalamatov3458
    @mirsalamatov3458 Рік тому +3

    Если кто-то серьёзно допустит такой нежелательный побочный эффект, это будет фиаско 😂

  • @Eternal_OF
    @Eternal_OF Рік тому +4

    Очень классный перевод, причем точный и понятный. А можно и проще сказать: 1-я проблема ИИ в том, что имея цель, он будет буквально идти к ней напролом, если не имеет параметров выполнения задачи (цели), а прописать всевозможные параметры тупо нереально, поэтому ему не важно будет кто пострадает и что он может разбить.

    • @Naka_Cuiki
      @Naka_Cuiki Рік тому +1

      Вижу цель, не вижу препятствий

    • @Eternal_OF
      @Eternal_OF Рік тому +1

      @@Naka_Cuiki Именно 😁
      У моей знакомой был робот-пылесос который ей подарили на день рождения, и вместе с ней жил кот. Так вот, пока кот мирно лежал на полу и спал к нему подкралась эта злобная машина и попыталась засосать его хвост вместе с пылью 😂 Кот не пострадал.

    • @Eternal_OF
      @Eternal_OF Рік тому

      @@Naka_Cuiki Либо робот не увидел препятствия либо распознал хвост кота или его шерсть как пыль

  • @user-yj5ec2ck2m
    @user-yj5ec2ck2m Рік тому +6

    Основная проблема подобных инженеров - желание создать идеальное. Во-первых, эволюция до текущего состояния человека прошла огромный путь. Основа - базовые рефлексы, надстройка - интеллект. У человека все только интеллектом не решается. Во-вторых, нужно разделять умения. Вождение - один навык, хорошее практическое знание математики - другой, умение приготовить - третий. Редко когда они все сочетаются. так зачем создавать один ИИ, который должен отвечать на все вопросы?

    • @Assurtienhot
      @Assurtienhot Рік тому

      та же мысль посетила во время просмотра

    • @openm1ndead
      @openm1ndead Рік тому +1

      Ну, всё равно 42 получится)

    • @mootal2202
      @mootal2202 Рік тому

      Потому что у человека в голове один интеллект, который отвечает на все вопросы (по мере сил). Если не отвечает, то это не ИИ, а экспертная система. Совершенно другой тип софта, строго ограниченный своей областью деятельности и больше ничего не умеющий. Например может обыграть человека в шахматы или в Го, но больше ничего.

    • @user-yj5ec2ck2m
      @user-yj5ec2ck2m Рік тому

      @@mootal2202, если б я рисовал бы интеллект человека как ИИ, я бы представил его как иерархическую структуру. Наверху - главный ИИ, его основная цель - наиболее эффективно решить возникшую задачу, основные функции - сравнение эффективности и делегирование задачи. В его подчинении отдельные ИИ, отвечающие за отдельные области знаний. Основной ии опрашивает каждый вспомогательный на сколько эффективно он мог бы такую задачу решить. Потом сравнивает ответы и поручает результирующее выполнение наиболее эффективному ИИ. Например, есть яйцо. Ты знаешь, что егл можно съесть и твой мозг включает кулинарию и ты жаришь яичко и кушаешь. Допустим, у тебя появилось время, ты почитал книг, открыл доступ к нлвому ИИ - птицеводство. И вот яйцо, главный ИИ проводит опрос эффективности, где второй выносит ценз выше - можно вырастить курицу и получить много яиц (условно). Предпочтение будеть теперь за ним.
      P.S. А вот если ты адски голоден, высшие функции угнетены. Ты хочешь есть. Нашел яйцо - отличная еда, ням-ням. Какие уж тут сравнения? Базовый функционал работмл, а блок с ИИ был отключен: питания-то для него нет.

  • @LiquidPotroh
    @LiquidPotroh Рік тому

    Субтитры в начале видео просто божественные

  • @lextalionis5732
    @lextalionis5732 Рік тому +2

    Спасибо за перевод! Что по содержанию - как и было сказано в начале, решают вероятные проблемы того, что ещё не создали. И подход к предположению проблем тоже весьма сомнительный. Развитый ИИ, которого можно будет послать делать чай а потом попросить довезти до какой-нибудь кафешки - не будет нуждаться в таких топорных ограничениях. Полагаю, там будет реализованно что-то вроде человеческого, образного мышления, ограниченного какими-то "моральными" шаблонами. В примерах же, напротив, рассматриваются утилитарные системы, которые не требуют развитого ИИ и работают с определёнными задачами. Разрешать автомобилю с автопилотом самостоятельно продумывать свои действия - нецелесообразно. У нас есть ПДД. ИИ нужен только для того, чтобы интерпритировать поступающую с датчиков и камер информацию. Действиями, на основе этих данных должен руководить алгоритм, который, разумеется, должен учитывать нештатные ситуации на дороге.

    • @lextalionis5732
      @lextalionis5732 Рік тому +1

      Если же говорить о развитом ИИ, который будет взаимодействовать с миром равно как и сам человек, самообучаться, подстраиваться под миллионы различных условий и ситуаций - с него и спрос, видимо, будет как с индивидуума обладающего сознанием и личностью. То как такой ИИ будет развиваться, будет зависеть в большей степени от окружения в котором работает ИИ а так же, его "опыта", нежели от того, что закладывали разработчики. Это уже потребует пересмотра нашей законодательной базы да и отношения к роботам в целом. Сейчас, ошибка робота это всегда проблема разработчика. В вероятном будущем, нам придётся признать, что ИИ может совершать самостоятельные ошибки.

    • @rsa5991
      @rsa5991 Рік тому

      >Полагаю, там будет реализованно что-то вроде человеческого, образного мышления, ограниченного какими-то "моральными" шаблонами.
      Так как раз про моральные шаблоны в видео речь и идёт. Точнее, о полвине этих шаблонов - избегания плохого (другая половина - делать хорошее - для простоты установлена в "приготовить чай").

  • @GetManCA
    @GetManCA Рік тому +2

    Да, легче самому сходить на кухню😂🤣

  • @imaginewave1
    @imaginewave1 Рік тому +4

    Элита смотрит в 144p

  • @razor23Ukraine
    @razor23Ukraine Рік тому +2

    Вопросов реально масса. Роботы хорошо вписываются туда где всё контролируемо и нет людей (например на складах каких-нить), но вот с выпуском их в реальный мир возникает слишком много сложностей.

    • @_Spellmaniac_
      @_Spellmaniac_ Рік тому

      Роботы прекрасно ездят по дорогам общего пользования.

    • @user-sx8bb8sw1p
      @user-sx8bb8sw1p Рік тому

      ппц что в твоей голове

    • @comachine
      @comachine Рік тому

      Да и на складах тоже есть вероятность какой нибудь херни, все таки может быть ценный груз, или этот груз робот будет использовать и использовать не по назначению, а в своей выгоде которая опять же может привести к побочным эффектам, о которых говорится в видео

  • @i_indastris9149
    @i_indastris9149 Рік тому +4

    Вся суть в том, что когда человек делает себе чай, он понимает лишь, что чай лежит в коробке, а кипяток в чайнике. Человек не продолжает логические цепочки, откуда был взять этот чай, откуда был взята энергия для нагрева воды в чайнике, как был изготовлен чайник. Все это наносит какой никакой вред окружающей среде. Чай выращивают на плантациях, которые обрабатываются минеральными удобрениями ,которые производятся на заводах. Энергия так же производится с выделением тепла в атмосферу, а то и загрязнением ее. Чайник был изготовлен на заводе, который так же потреблял энергию, люди которые собирали этот чайник, приехали на завод на автомобиле с ДВС. И так далее.
    Так что мы ничем не отличаемся от этих роботов. И куда проще будет сделать кофемашину, которая будет просто стоять и делать чай. А сходите за чаем вы уже сами.
    И вообще принимать пищу лучше в отведенных для этого местах.

    • @adosadios
      @adosadios Рік тому

      принимать пищу нужно внутрь, а не в каких-то "специальных" местах. нет ни единой здравой причины почему я должен как либо выбирать\ограничивать место для приема пищи :)

    • @ACclams1e
      @ACclams1e Рік тому

      @@adosadios вообще принято есть еду только на кухне из за минимального загрязнения других помещений но если кушать аккуратно или убирать за собой то да. Нет никакой причины

  • @maxgedo
    @maxgedo Рік тому +2

    Требуем больше контента про ии!

    • @user-yu4fi1us1d
      @user-yu4fi1us1d Рік тому +2

      Сожалею, но вашу просьбу невозможно выполнить. Сегодня нет ни одного устройства с ИИ. Все они фактически -- ТЕХНИЧЕСКИЙ ИНТЕЛЛЕКТ. И пока что не существуют или не созданы ГОЛЕМЫ, суть которых в их ИИ.

  • @mrskilk2610
    @mrskilk2610 Рік тому

    Видео интересное и актуальное. Как же я офигел когда узнал что оригинальная статья вышла 6 лет назад

  • @tech_eng
    @tech_eng Рік тому +31

    Я так понимаю - проблема широкого распространения роботов в таких вот составлениях задач? Есть маршрут "кухня - комната" - этого достаточно для выполнения задачи с чаем. Возникло препятствие на пути - нарушен маршрут, теперь приоритет меняется и если ситуация ему знакома - он находит решение обойти ползущего ребенка без контакта, если ситуация не знакома - включается режим обучения и он просто ждет решения от хозяина, сообщив ему о проблеме. Всё, другого алгоритма не нужно - так учатся жить человеческие дети и ничего не мешает таким же методом обучать машину. Ведь я очень сомневаюсь, что ползущий ребенок ползет всегда в правильном направлении и не задевает другого ползущего ребенка или не бьет вазы, просто на пути у таких ребенков стараются не ставить эти самые вазы, чтобы они их не били. Почему программеры вдруг решили, что их электронные ребенки должны из коробки все проблемы решать? Пусть учатся, у электронных ребенков это получится значительно быстрее, чем за 18 лет, как у человеческих.

    • @danikmolly875
      @danikmolly875 Рік тому +3

      Ага, обобщение часто интересные результаты дает и помогает сэкономить ресурсы. Здесь проблема больше в оптимизации и так непростых алгоритмов, потому что любой процессор - это далеко не мозг; и если обучать электронных ребенков на полном (относительно наших способов восприятия) описании мира, а не условном огрызке, то времени это займет в [очень много] раз больше 18-ти лет.
      Зы: А еще производство таких ребенков неоправданно затратно.

    • @tech_eng
      @tech_eng Рік тому

      @@danikmolly875 если процессор отучить просчитывать каждый шаг с точностью 4 знака после запятой, как этот легко умеет человеческий мозг, то высвободившейся мощности хватит обработать картинку в 4К качестве

    • @Romanitto
      @Romanitto Рік тому

      а если робота отправить в магаз и по дороге домой он нарвался на хулионав и тут сразу програма включает боевой режим: ракеты земля-земля, миниган на 500 патронов где робот помагает хулианам понять кто в мире хозяин. Перепятсвтие убрано с дороги и робот может вернутся домой с едой чтоб накормить коженого ублюдка. 😁

    • @vit777vit
      @vit777vit Рік тому +1

      Программеры ничего не решают, они программируют... многие из них даже понятия не имеют как приготовить чай. Для этого нужен ии.

    • @RomaPervak
      @RomaPervak Рік тому

      @@danikmolly875 Необязательно каждого обучать. Одного обучил и копируй потом, сколько влезет.

  • @9564519
    @9564519 Рік тому

    Очень интересно!

  • @dinosauor
    @dinosauor 15 днів тому

    Вот решение. Давая задачу, вознаграждать ии не за выполнение задачи, а за то, доволен ли заказчик. Так как ии умеет обучаться, то вскоре после тренировки самостоятельно придёт к решению, как нужно выполнять задания, так же, как ребёнок, который пытается выполнить поручение отца.

  • @daanhelfer1461
    @daanhelfer1461 Рік тому +2

    Оригинальное видео вышло 5 лет назад. Спасибо, что раскопали. Стало немного не по себе от того, чем я занимался 5 лет назад, пока этот парень размышлял о безопасном ИИ.

  • @user-ps7zl7uo1d
    @user-ps7zl7uo1d Рік тому

    Ни фига не понял, но очень интересно. С утра точно не стОит смотреть🤯☺️. Просмотрю чуть позже🙂

  • @user-md2cb5cc5r
    @user-md2cb5cc5r Рік тому +1

    Начитался комментов...
    Люююдиии! Ауу! Вы есть на этой планете?!

  • @constantaeski6651
    @constantaeski6651 Рік тому

    Есть проблема. В примере с чаем есть вариант как минимизировать изменения. Робот может всё вернуть на место. Звучит неплохо, пока не приходит осознание того, что пакетик он не выбросит,так как изменения тогда будут существенны. Вместо этого он высушит пакетик и положит на место к остальным пакетикам.
    Или вот ещё пример. Робот хочет наполнить чайник, чтобы вернуть всё как было, но воду отключили. Что он сделает? Чайник был полный, а теперь пустой. Воду отключили, но вода есть в аквариуме и в вазе с цветами. Если толить от туда воду, то существенно количество воды в них не уменьшится, хоть и будет отличаться от исходного. Зато чайник будет полон и изменения будут сведены к минимому. В сливном бочке, к слову, тоже вода есть.
    В общем, создав задачу минимизировать любые изменения, выходящие за определённый диапазон мы получаем новую проблему в виде огромного количества сравнительно мелких побочных эффектов, созданных намеренно с целью снизить количество крупных. Однако, не факт, что наши представления о мелких изменениях и крупных будут совпадать с расчётами ИИ. В итоге, что создавали правило, что не создавали, итог +- тот же

  • @aved6937
    @aved6937 Рік тому +1

    На данном этапе развития человечества и технологий, так называемый, Искусственный Интеллект не может быть создан в принципе!

  • @kaiken9101
    @kaiken9101 Рік тому +2

    1. Научить систему просчитывать уровень последствий, по типу если подвинуть кресло то норм, если убить человека не норм, не прийдется прописывать все а только последствия типа убийство и или разрушение чего либо

    • @TayaTerumi
      @TayaTerumi Рік тому

      Робот не подаст тебе еды, потому что есть 0.01% шанс, что ты подавишься и задохнёшься.

    • @who-zw2fj
      @who-zw2fj Рік тому +2

      Тоже слишком много параметров. Также как и у всех людей разные моральные принципы,например как если бы робот выключил кондиционер,то некоторым людям понравилось это,мол было слишком холодно,другим - напротив - стало бы слишком жарко. Кривой пример,но суть,думаю,понятна.

  • @ArtStudioTop
    @ArtStudioTop Рік тому +28

    Все же люди идеалисты, особенно программисты 😀
    Впервые темой ИИ заинтересовался еще в 1980, а разработкой софта занимаюсь 35+ лет. Поверьте, как и 40 лет назад, так и сейчас продолжают обсуждать одни и те же проблемы. Кажущееся поумнение ИИ просто свяхано с ростом вычислительной мощности и чуть-чуть с улучшением алгоритмов. Хороший пример шахматные программы.

    • @yurim7756
      @yurim7756 Рік тому +4

      Так похоже ж в этом и проблема была. Теслы уже ездят. Проблема в вычислительной мощности. Мы недооценивали вычислительную мощность естественного интеллекта и кажущаяся простота формализации некоторых интеллектуальных задач (которую уже породил мозг своей обработкой) давала надежду обдурить и каким-то хаком сделать не требующий мощности ИИ.

    • @alexeyborisov9766
      @alexeyborisov9766 Рік тому

      Говорят алгоритмы улучшились сильно. Не в плане умности, а в том плане что при той-же умности нейросеть требует гораздо меньше ресурсов.

    • @ArtStudioTop
      @ArtStudioTop Рік тому +2

      @@yurim7756 да, теслы ездят. Но оцените сколько усилий было потрачено на разработку и отладку алгоритмов. И сейчас работы все еще продолжаются.
      Кстати, если в алгоритме есть ошибки, то никакая вычислительная мощность не спасет от их последствий.

    • @yurim7756
      @yurim7756 Рік тому +1

      @@ArtStudioTop Так всё делается по шагам, всё стоит на плечах титанов, кто раньше что-то сделал ) Но тем не менее, ездят они на нейронках и уже принимают довольно сложные решения. Имхо, это и есть путь создания и сильного ИИ. Еще как-то вылижут или придумают какой-то новый алгоритм нейронки, перенесут на железо, и так оно и появится.
      Раньше романтизм и заключался в том, что хотели какой-то формализацией, каким-то нисходящим алгоритмом придумать сильный ИИ. Я до сих пор такой романтик, надеюсь что существует такой алгоритм )) а нейронки не люблю. Но как-то похоже на то, что только так оно и появится. А раньше не появлялось именно из-за слабых мощностей. И сейчас теслы далеки от мозга по мощностям.
      Каких-то прямо серьезных проблем кроме мощности (и постронения нейронки) при создании сильного ИИ я не вижу. Ну а в этом видео, имхо, очень низкоуровневые проблемы описывают, вроде как сделать очень тупой ИИ более менее безопасным. Чтобы он и не понимал ничего (например, что такое ребенок и чем от вазы отличается по важности), но и не вредил ничему. Противоречие. Как настолько тупой ИИ сможет предсказывать мир, после того например, как коллега кофе сделает. Что такое ребенок, что такое коллега, он не понимает, а предсказать действия коллеги может.

    • @yurim7756
      @yurim7756 Рік тому +1

      @@ArtStudioTop Ну т.е. в видео рассуждают, как распределить веса при достижении цели робота, вроде он вообще пустой, не имеет никакого понимания о происходящих процессах, только впервые увидел мир и был послан за чаем.
      Под пониманием я ничего прям мистического не представляю. Но вот, если у него нейронка будет побольше, абстраций будет больше помещаться и у него кроме текущей задачи будут постоянные (не навредить человеку, или спасти его, т.е. проявить активность), то веса просто пронормируются относительно постоянных более важных целей. Но для этого надо больше нейронов, больше сеть, чтобы были выделены такие абстракции как человек, что такое вред и вообще больше знать о мире. Всё ж руками не пропишешь. Что-то забудут, он бензином пойдет газовую плиту мыть.

  • @mikeprosto3106
    @mikeprosto3106 Рік тому

    Спасибо!!!

  • @igfanik
    @igfanik Рік тому +1

    В Улитке на склоне есть диалог машин в коробках . В диалоге затрагивается подобная проблема.

  • @ACclams1e
    @ACclams1e Рік тому +1

    Функция: играть в шахматы
    Палец мальчика: не важно

  • @xuko6792
    @xuko6792 Рік тому +4

    Да! Лучший проповедник безопастности ИИ теперь на русском!

  • @__-de6he
    @__-de6he Рік тому +3

    По-моему, все эти размышлизмы сводятся к классической "проблеме задания целевой функции". Неважно, для роботов или для людей.
    И как решение - отсутствие решения, иначе бы у человечества не было бы ритарических вопросов, что такое хорошо, а что такое плохо. 🙂

    • @Time2paw
      @Time2paw Рік тому

      просто роботов нужно использовать в среде, которая предсказуема и спектр задач робота ограничен. Так же и с ии. Он выполняет строго целевую задачу и владеет всеми необходимыми параметрами. Если же этот барьер пересечь, то у нас выходит шахматная партия с непредсказуемым исходом. Начиная от погрешностей, заканчивая ошибками при создании, огромное кол-во факторов, влияющих на окружающую среду и эти факторы человек еще не смог оцифровать.

    • @__-de6he
      @__-de6he Рік тому

      @@Time2paw
      Ну, это известная проблема контррлипуемость vs гибкость

  • @mike-stpr
    @mike-stpr Рік тому

    Ответ давно найден: три закона робототехники решат все перечисленные проблемы, это еще Айзек Азимов доказал! Странно, что этого не прозвучало в комментах.. Ну или я не нашел. А в целом ролик шикарный, озвучка, как всегда супер! СПАСИБО!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! :-)

  • @user-bb3te7xk2r
    @user-bb3te7xk2r Рік тому

    Естественный отбор Дарвина помоему хороший пример. Нас не интересует процесс выполнения цели главное результат. Многие люди постоянно рискуют жизнью ради лайков и денег в интернет видео и мало кого из людей это волнует. А ИИ и подавно всё равно=)

  • @user-vp6hw9sn3p
    @user-vp6hw9sn3p Рік тому

    Люди слишком многое хотят от ИИ. Думают что прогресс должен постоянно расти,может есть всему пределы...

  • @Letsgou2829
    @Letsgou2829 Рік тому

    Методом проб и ошибок можно ввести ии в нашу повседневную жизнь. Ничего не жертвуя ты не получишь даже глоток воздуха

  • @user-yg9vy5zo1s
    @user-yg9vy5zo1s Рік тому +10

    Ответ такой, как я всегда говорю насчёт проблем и дилемм с роботами - задайте вопрос, который хотите задать про робота, про человека. Например, как он поступит в сложной ситуации. К примеру, когда есть сложный моральный выбор. А если у вас есть ответ, например как с кофе - задайте вопрос, почему человек делает именно так, что за это отвечает?
    То есть, проще говоря, прежде чем создавать сложный искусственный разум, нам нужно понять точно, как работает наш собственный. Иначе мы либо не сможем создать разум, либо же мы создадим разум, но иной, и понять друг друга мы не сможем.
    Далее, так как наш разум работает под влиянием эмоций, инстинктов, привычек и прочего, мы поймём, что создать такой же искусственный разум мы не можем, а главное в этом нет смысла, ведь это часто засоряет разум и мешает нормально работать, к примеру, нам не нужен ИИ, который не сделал что-то, потому что ему стало грустно. И что бы создать ИИ по нашему подобию, но при этом без мусора в голове, нужно самим от него избавиться, то есть начать нужно с изменения себя, становиться умнее. Это вообще обязательное условие при создании ИИ - развивать себя, будь то генная инженерия, аугментации или чипизация, но нужно меняться, иначе мы просто опять же перестанем понимать ИИ, а так же контролировать. Я бы сказал, что создание полноценного ИИ возможно только в трансгуманистическом обществе, иначе либо ничего не получится, либо будут проблемы.
    Так вот, нам нужно понять, как человек наливает кофе. Почему он делает так? А потому что научился. Как он научился? Его научили. Кто? Другие люди. Как? Они показывали ему и объясняли, а человек наблюдал и при помощи зеркальных нейронов учился копировать и понимать происходящее, и мог воспроизводить. Так вот, полноценный ИИ нужно будет учить так же при помощи людей, предварительно заложив программы анализа, запоминание в виде виртуальной модели и воспроизведения. И разумеется, речь не только о кофе, ведь человек, когда учится делать кофе, он уже знает, например, что такое вода, что такое температура, кипяток, молоко, холодильник, электричество, кнопки, зёрна и блендер, а перед тем, как узнать о том, что такое, например, холодильник, он узнал, что такое металл, комната, полки, холод, и так далее. И этому его тоже кто-то обучил и показал, как правильно взаимодействовать.
    То есть всё на самом деле одновременно проще и сложнее. Проще в том плане, что нам не надо писать алгоритм, где мы ставим задачу с вознаграждением и робот сам ищет оптимальные пути для выполнения задачи, при этом ему нужно будет обработать тонны информации и о среде, прогнозах, рисках и множества путей для выполнения задачи, ибо он будет как человек - посмотрел на другого, понял принцип и повторяет выполнение задачи одинаковым одним и тем же образом. Но сложнее в том, что нужно создавать такие системы обучения, как у человека.
    Вообще для создания полноценного ИИ его надо учить принципам. Как и людей, кстати, новичок на работе отличается от старичка тем, что просто повторяет сказанные действия, не понимая, зачем, подлинное обучение происходит, когда он осознаёт базовый принцип и сможет эту работу уже сделать в совсем разных иных условиях. К примеру, понимая принцип взаимодействия дерева с острыми предметами, он может как делать табуретки на столярном станке, так и вырезать ложки каменным ножом.
    То есть на самом деле, все проблемы ИИ, которые там озвучат, связаны с принципиально не верным подходом к созданию. Они хотят, что бы ИИ делал как человек, но программируют его, как программу, и поверхностно, симптоматично, а не по сути. А ведь процессы обучения давно изучены и мы каждый день учим детей, по такому же принципу можно обучать и ИИ, только нужно воссоздать всё те же инструменты обучения, за которые отвечают разные отделы мозга, а для этого их нужно самим понять в идеале.

    • @MixPlayTV-rc7pb
      @MixPlayTV-rc7pb Рік тому

      Могу добавить, что после того как мы поймём как работает наш мозг, можно будет создать его искусственный аналог, подключить к нему мозг сформированного взрослого человека, ученого например, и постепенно отключать функции биологического мозга, наш мозг будет нагружать любые свободные нейроны взамен утраченных, и искусственные в том числе, так, постепенно мы перенесем сознание в искусственный мозг, и наш человек станет ИИ

    • @tedbon5135
      @tedbon5135 Рік тому +1

      @@MixPlayTV-rc7pb все это возможно если ты реально создашь искусственный мозг что само по себе сложно, но ещё и подключить их к друг другу вовсе не означает что произойдёт спокойный перенос. При передаче существенная часть данных может потеряться и личность разрушится из-за дыр в ядре. Мы до сих пор не знаем каким образом, почему и как наш мозг адаптируется и может напрягать другие нейроны, а иногда не может и дохнет. Даже если получится создать искусственный мозг и даже если получится удачно подключить его к человеческому мозгу, и даже если человек после этого не станет овощем и даже если при медленном отключении мозга на одном из этапов человек не превратится в овоща и даже если перенос таки произойдёт успешно, и даже если личность нельзя будет отличить от настоящей, мы все равно никак не сможем подтвердить это копия или оригинал.

    • @tedbon5135
      @tedbon5135 Рік тому

      Товарищ, на всё что ты сказал я дам тебе простой ответ. Если бы то, что ты говорил было правильным в отношении создания ИИ, то это значит что ИИ уже давно создали. Каждая мать это создательница ИИ. Если делать как ты говоришь, то нам нафиг не нужны робот, мы просто создадим касту искусственных людей, выключим их эмоции и назовём их роботами и будем продавать их называя «синтетики». Будущее которое в принципе уже осуществимо.

    • @konstantinkutsyllo8661
      @konstantinkutsyllo8661 Рік тому

      Вообще-то нейронные сети именно что обучают

  • @juragokhberg
    @juragokhberg Рік тому +1

    Super! Super! Super!
    👍🏼👍🏼👍🏼👍🏼👍🏼

  • @DimitriSkepsiiski
    @DimitriSkepsiiski Рік тому +1

    Если Человек хочет уничтожить себя, то его ничего не остановит. Даже разговоры об опасности самоуничтожения.

  • @cruisecontrol1489
    @cruisecontrol1489 Рік тому

    Искать подходы к ещё не существующим системам, которые могут контекстно мыслить и тем более корректно действовать от ситуации - высшая степень фантазии молодого парнишки и не более. Как только смысловая модель сетей достигнет такого уровня, соответственые решения проблем будут реализовываться точно не так как озвучено в этом ролике

  • @URSULA_MEDUZONA
    @URSULA_MEDUZONA Рік тому

    Интересно!)

  • @user-yt4mh2xg9r
    @user-yt4mh2xg9r Рік тому

    Провлема в том, что от робота ждут поведение аналогичное человеку, при этом хотят обойтись примитивной (для человека) целефой функцией. Но если сравнивать обучение робота и человека, то будет очевидно, что человек в детстве успел и разнести вазу, и разгромить кухню, и запнуться о кошку. При этом за каждое подобное действие он получил такой штраф, что повторять это действие больше не захочет. Соответственно у человека все штрафы и коэффициенты неявно прописаны. Более того у человека есть понимание ценности предметов, если он купил ноутбук за 100 500 денег, то очевидно он будет с ним обращаться аккуратнее, чем с игрушечным ноутбуком за 100 рублей.
    Так что, на мой взгляд, целесообразнее делать робота с базовыми навыками и возможностью учиться. А если еще и дать возможность делиться навыками, то дальше сообщество само разберется - кто-то научит готовить, кто-то кунг-фу, кто-то уборке... в итоге получим поведение, превосходящее среднего человека.

  • @Legionsale
    @Legionsale Рік тому

    Единая Электромагнитная Теория!
    Пусть два тела, с одинаковыми массами
    m1=m2=m и одинаковыми зарядами q1=q2=q взаимодействуют. Предположив, что силы Ньютона и Кулона - это одна и та же сила, которая действует одинаково и на больших и на малых расстояниях, приравняем их и вычислим массу через заряд:
    m^2=k/G×q^2
    m=(k/G)^1/2×q
    Далее найдем общий заряд тела:
    Qобщ = q(+)+q(-) = q1 - q2
    q1=a×q2
    m2=(k/G)^(1/2)×q2
    Из двух уравнений выше видно, что
    m2=q1=a×q2=(k/G)^(1/2)×q2, т.к.
    a=(k/G)^1/2 - const
    То есть масса "m" прямопропорциональна заряду "q" в постоянное количеств раз "a".
    Получается: Qобщ=q2(m-1)
    Можете проверить:
    (k/G)^1/2×q даст приблизительно верную массу(с погрешностями) точную даёт формула:
    Q=q(m-1)
    m=Q/q+1
    Поймите, тела притягиваются и отталкиваются пропорционально массам; масса - есть пропорция противоположных зарядов в телах, которые либо притягиваются, либо отталкиваются!
    Все ребята, считайте, проверяйте. Я "сломал" физику. 😂😂😂

  • @fenrirawe6857
    @fenrirawe6857 Рік тому +3

    Очень интересный подход и анализ. В любом случае, все пряники и булыжники достанутся не роботу, а разработчику. И теперь главный вопрос: сколько лет понадобится разработчику, чтобы достигнуть идеальный результат для своих ИИ? И будет ли место "мечтаниям" и проявлению воли, зарождающемуся ИИ?

    • @user-yu4fi1us1d
      @user-yu4fi1us1d Рік тому +3

      При существующей архитектуре вычислительных систем мечту об искусственном интеллекте стоит забыть. И, кстати, пока что речь идёт всего лишь о ТЕХНИЧЕСКОМ ИНТЕЛЛЕКТЕ, то есть интеллекте, реализованном в техническом устройстве.
      Второе замечание. В живой клетке мы наблюдаем возможность "модификации" своих функций для выполнения любых задач в зависимости от внешних условий. Бред о самообучаемости вычислительной системы привёл к тому, что в эту чушь начали верить даже те, кто является программистом.
      И последнее замечание. Архитектура централизованных закрытых вычислительных систем привела к резкому падению КПД вычислительных систем. Сегодня можно уверенно сказать, что очень скоро основной работой вычислительной системы будет обслуживание самих себя. Иначе вероятность сбоев в особо критических технологических процессах приближается к опасной отметке, после которой встанет вопрос о сохранении жизни на планете.
      Решение существует, но оно невыгодно для власть предержащих, так как в этом случае у власти возникают сложные вопросы о контроле не только за техническими системами, но и за социальными процессами.
      Речь идёт о децентрализованных технических и вычислительных системах.
      В качестве примера приведу возможность работы двигателя на воде. но вот как контролировать людей в этом случае? И это самый безобидный пример...

    • @user-so7po2op2e
      @user-so7po2op2e Рік тому +2

      @@user-yu4fi1us1d Текущие нейросети действительно могут самообучаться, это отдельный пласт алгоритмов, а Вы своим комментарием просто взяли и стерли его, как же так. Простой пример - необходимо создать нейросеть которая будет ловить падающий кубик, мы можем либо корректировать параметры движений нейросети, так, чтобы её модель становилась все лучше и лучше, либо изначально акцентировать внимание лишь на результате - кубик должен не упасть, тогда система будет пытаться корректировать свои же параметры для достижения все лучшего результата, а следовательно самообучаться на своих же ошибках.

    • @alexmarch232
      @alexmarch232 Рік тому

      @@user-yu4fi1us1d угроза жизни на планете - это ТЫ и подобные тебе русские, а не ИИ 😉

    • @user-yu4fi1us1d
      @user-yu4fi1us1d Рік тому

      @@user-so7po2op2e Разве можно назвать самообучением заданное условие: "кубик должен не упасть"? Это изначально устанавливает человек. И он также создаёт соответствующие устройства, которые обладают заданными человеком функциями.
      Хорошо. Робот научился ловить, при условии такой функциональной возможности, заданной человеком.
      И, если человек может не только научиться ловить, но и научиться плавать, то данный робот ни при каких условиях никогда не поплывёт. Просто утонет. Ну не заложены в него функции плавания.
      Поэтому, говорить о том, что это ИСКУССТВЕННО ВЫРАЩЕННЫЙ ИНТЕЛЛЕКТ рано. Это элемент ТЕХНИЧЕСКОГО устройства и его более корректно называть ТЕХНИЧЕСКИЙ ИНТЕЛЛЕКТ.
      Что значит ВЫРАЩИВАТЬ ИНТЕЛЛЕКТ? Для начала нужно понять, что является носителем этого интеллекта. И способен ли человек именно выращивать среду ИИ.
      Сегодня -- однозначно нет.
      Причин много. И не в последнюю очередь ограниченность самой технологии создания (архитектуры) микросхем. Принципы действия человеческого интеллекта до сих пор тайна за семью печатями. И явно человек на многие тысячи порядков сложнее устроен. И работа его интеллекта не описывается алгоритмами, заложенными в ИИ.

    • @mootal2202
      @mootal2202 Рік тому +2

      @@user-yu4fi1us1d какой потрясающий бред. Браво.

  • @user-ox1sb7qc5h
    @user-ox1sb7qc5h Рік тому +2

    Когда люди правят миром, у них тоже есть свои задвиги в голове, и набор своих приоритетов. Поэтому я вижу преимущество искусственного интеллекта в любых действиях, только необходимо, чтобы он был достаточно обучен

    • @user-ox1sb7qc5h
      @user-ox1sb7qc5h Рік тому +1

      Кстати, ребенка может сбить и пьяный мужик, который пошел себе кофе налить. Или просто, очень торпливый человек легко разобьёт вазу. Я уж не говорю про водителей

  • @VVS115
    @VVS115 Рік тому +1

    Эти проблемы программирования роботов, а не проблемы ИИ. Если робот будет с интеллектом, то его обучение не составит большого труда.

  • @Gennady_Mitson
    @Gennady_Mitson Рік тому

    Когда-то давно самые первые квантовые компьютеры имели по 8-16 кубитов и занимали при этом несколько больших комнат в здании. Со временем размер квантового компьютера уменьшился до размера небольшого стола, потом небольшой коробочки на этом столе. Сейчас квантовый сопроцессор в несколько тысяч кубитов есть в каждом наручном телефоне. Вычислительная мощность одного такого сопроцессора в миллиарды раз превышает все вычислительные мощности на Земле в начале 21 века...
    Прогноз такой :)

  • @homo._.sapiens
    @homo._.sapiens Рік тому +2

    Вот только без изменений мира робот может скажем, вытащить пакетик из мусорки и положить обратно.

  • @nicivanov5135
    @nicivanov5135 Рік тому

    1 определяется как объект взаимодействуют с миром.
    2 изменения сделанные женщиной, кошкой, собакой, вентилятором не учитываются при подсчёте измерений.

  • @viktorm.7595
    @viktorm.7595 Рік тому

    Человек не раздавит ребенка по пути на кухню потому, что тот несоизмеримо ценнее кружки чая в обычных условиях.
    ИИ будет принимать разные решения в одинаковых условиях но с разными объемами данных.
    Создавая робота - домохозяйку, следует ограничить его "умственные способности" иначе загрузив данные из сети за всю историю ИИ может придти к выводу, что чай для этого человека в данный момент важнее ползающего ребенка под ногами.

  • @Uni-Coder
    @Uni-Coder Рік тому

    Я поржал с коммента внизу экрана на 5:42. "Камера в фокусе, просто я расплываюсь. Это редкое заболевание"

  • @indeecmaya8598
    @indeecmaya8598 Рік тому

    Занимательно))

  • @photonsphere760
    @photonsphere760 Рік тому +1

    да он прям Сьюзен Кельвин робопсихолог )

  • @user-ok5pi3dg7y
    @user-ok5pi3dg7y Рік тому +1

    задача от начальника - прикати рояль - на нем моя рюмка коньяка стоит

  • @obreti.svobodu
    @obreti.svobodu Рік тому +3

    Когда за человека начинает думать ИИ, на человека надевают намордник и вкалывают шмурдяк)))

  • @occamsr
    @occamsr Рік тому

    Просто коммент. Для продвижения просветительской деятельности.

  • @d.g.5316
    @d.g.5316 Рік тому +1

    Чёрт, я даже не думал об этом 🤦🏻‍♂️
    Очень интересно, жду продолжения!

  • @user-jn6hh6xv9l
    @user-jn6hh6xv9l Рік тому +1

    Как насчёт трёх законов робототехники???

  • @ernalliddual
    @ernalliddual Рік тому +1

    Не поднялся только момент проблемы - что будет если в эту модель добавится вмешательство извне. К примеру - что если робот просчитал возможные варианты происходящего, но та же сожительница идя с коффе спотыкается и падает в сторону робота проливая при этом коффе? Какова будет реакция робота с ИИ на это?

    • @RomaPervak
      @RomaPervak Рік тому +1

      На месте сожительницы, я был бы поаккуратнее)))

  • @EugenePitenko
    @EugenePitenko Рік тому +1

    три закона робототехники... во имя святого Айзека!

  • @Jimmy1972
    @Jimmy1972 Рік тому

    Из видео я понял, что лучший AI это человек.

  • @seraseraliona4979
    @seraseraliona4979 Рік тому

    У фильма Я робот спросить как сделать безопасный ии. ) На самом деле всё просто🤷🏻 Два правила: 1 учить что делать 2 учить что не делать в той или иной ситуации🤷🏻 Мусолят эту тему потому что есть спрос)))

    • @seraseraliona4979
      @seraseraliona4979 Рік тому

      Дети убивают птичек и тд. пока их не учат не делать этого🤷🏻

    • @seraseraliona4979
      @seraseraliona4979 Рік тому

      Другой вопрос если какой то псих построит продвинутый ии который сможет себя сам построить с целью убивать всё живое

  • @user-vt6fj9pd6b
    @user-vt6fj9pd6b Рік тому +1

    если ии уронит пакет молока, когда готовит кофе, то он начнет собирать молоко с пола обратно в пакет =)

  • @user-mc7uu3vh8c
    @user-mc7uu3vh8c Рік тому

    Может пойти не так что уже есть два предложения и безисходность одного решения,роздиления задачи на два,четыре,восем... Задач решения у котором ии может обрести разум?

  • @petr__
    @petr__ Рік тому +1

    Всë просто. Надо загрузить мозг какого-нибудь человека в робота, и пусть работает. Наш мозг уже всë учëл и придумывать ничего не надо

  • @user-mc7uu3vh8c
    @user-mc7uu3vh8c Рік тому

    Испортить хочет много сил потому это не легче,,,легко ставить плитку на цеглу может это и долго но розрушать потом зделаную работу жывому существу надо иметь больше выносливости

  • @wasasaasasaw4877
    @wasasaasasaw4877 Рік тому

    Если он нарушит мир в любом случае, то следующее рассуждение как сделать так что-бы мир был нарушен в меньшей степени. И он такой считает, если он будет работать некое количество лет мир преобразится в совершенно другой мир. Вычитаем одно из другого и он видит что при исполнении своих функций он изменит мир на N. Вопрос когда N будет больше чем весь мир (или хотя бы отдельно взятая кухня)? Будет ли он при такой программе решать что лучше спокойный идеальный мир без изменений?

  • @user-mc7uu3vh8c
    @user-mc7uu3vh8c Рік тому

    Главное не розделять границы между роботом и человеческим делом которое можно скинуть к примеру на робота,что люди что остальное, планета - все делают что делают и да это катаклизм будет со стороны робота но Айзек это ейнштейн роботов,, и конечно если все ленивое человеческое оставлять на 'роботов' то конечно, жди жывого действия.лучше самим стать роботами и обвестись личными роботами и отвечать за них

  • @vernite_nickname
    @vernite_nickname Рік тому

    Выдавливание предложения по одному слову невероятно напрягает.

  • @ardarutyun4525
    @ardarutyun4525 Рік тому

    Молодец

  • @us_pw.Iron_handley
    @us_pw.Iron_handley Рік тому

    у жизни есть мотивация к самосохранению.
    какая мотивация будет у компьютера? вопрос даже не об осознанности. вряд ли микробы осознают себя, тем не менее они живые.

  • @-eXtremal-
    @-eXtremal- Рік тому +1

    Условия работы ии должны соответствовать прописанной логике! Ии должны работать там, где нет детей и ваз, перемещаться по рельсам, и т.д. и так мы приходим, что ии, это обычный робот манипулятор с любого завода и никакой ии!

  • @user-mc7uu3vh8c
    @user-mc7uu3vh8c Рік тому +1

    А Как же айзек?три закона,неработат?,,ну да ну да но мы не создаём беду,не хотим же ..

  • @pal181
    @pal181 Рік тому

    Земле пока самый опасный - человек. Но он всё равно множится.

  • @uzexchange
    @uzexchange Рік тому +2

    В конце всех измышлений робот выйдет на самого владельца (программиста) и прибьёт его ..если до этого не случится очередной форс-мажор не прописанный в алгоритме. 😄

  • @eduardtsuranov712
    @eduardtsuranov712 Рік тому

    Мне кажется решать проблему посредством решения "перечня задач" в принципе не очень эффективно. Идти надо от истоков сознания, от базового уровня. Например, в шахматах есть программа сток фиш и до нейросетей ей прописывали функционал, и он работал только для шахмат. Потом пришли нейросети (от дипмайнд) и появилась модель для которой вообще не важно шахматы, го или еще что. Т.е. должна быть универсальность.

    • @rsa5991
      @rsa5991 Рік тому

      AlphaZero всё ещё получает информацию об игре, в которую играет:
      - ей дают шахматную программу, которая показывает разрешенные ходы. В реальном мире аналог - учебник физики.
      - ей говорят, что нужно поставить мат вражескому королю и избегать мата своему. В реальном мире аналог - моральный кодекс.
      Дальше AlphaZero работает сама, но эти два компонента необходимы для её работы.
      Автор видео как раз рассуждает о том, как можно запрограмировать моральный кодекс, точнее - его половину.

  • @yeah2283
    @yeah2283 Рік тому

    Скажите, пожалуйста, а как называется профессия человека, который продумывает, какие условия прописать для машин для корректного выполнения задач? Этим занимаются сами разработчики, которые пишут код, или это выделено в отдельную специальность?

    • @user-yu4fi1us1d
      @user-yu4fi1us1d Рік тому +2

      Вопрос очень важный. И непростой для ответа.
      Думаю, что в основе ответа лежат ПРИНЦИПЫ, которые реализованы в цивилизации: "Разделяй и властвуй" и "Хлеба и зрелищ".
      Общество обязано выработать в себе иные принципы Бытия, которые будут основой для техники будущего.
      И этими вопросами могут заниматься все люди, вне зависимости от языка, пола, образования,...

    • @yeah2283
      @yeah2283 Рік тому

      @@user-yu4fi1us1d спасибо за ответ. А с чего начать, куда обратиться, чтобы быть услышанным? Хотелось бы принимать участие. Считаю эту тему очень важной.

    • @user-yu4fi1us1d
      @user-yu4fi1us1d Рік тому

      @@yeah2283 Сегодня во многих городах России и мира существуют группы: по альтернативной истории, науки, образованию, здоровью, общины и т.п. Они общаются между собой а социальных сетях. Направлений для творчества - тысячи. Главное в этих социальных процессах выработка нового образа жизни, отказ от всего ложного, что нам навязывают на протяжении сотен лет.
      Я начинал с "коллекционирования" всех неудобных фактов, на которые трудно дать правильные ответы. И убедился, что только в группе можно получить более корректный ответ. Если такой группы у вас рядом нет, создавайте свою или войдите в любую, что вам ближе во духу и творчеству.

    • @yeah2283
      @yeah2283 Рік тому

      @@user-yu4fi1us1d могли бы вы поделиться несколькими примерами групп, где обсуждаются правила, условия и исключения, которые должны быть прописаны в коде машин? Где разбирают и обсуждают конкретные примеры.

    • @user-yu4fi1us1d
      @user-yu4fi1us1d Рік тому +1

      @@yeah2283 Сегодня я не являюсь "действующим" программистом. Хотя, если посмотреть на это с практической стороны, вовсе не программисты устанавливают правила.
      Я не вхожу в подобные группы именно программистов, так как это, как правило, закрытые группы.
      Я в своём комментарии ранее писал о другом. О фундаментальных основах любого программирования на любом языке. Это примерно то же, что люди говорят на разных языках, но вот думают на одном.
      Я сегодня занимаюсь вопросами социального "программирования" не людей, а среды, в которой эти люди живут. Если среда и технические средства сделаны без учёта принципов ПРИРОДЫ, то мы все это замечаем по участившимся случаям отказов или катастроф, с ними связанных.
      Если говорить о сегодняшнем уровне программных средств и технических систем, то я оцениваю их как очень низкое. Причина такой оценки в наличие фактов наличия как военного применения против государств и людей, так и наличие проблем с вирусами и воровством информации.
      Именно поэтому стоит начинать не с изучения правил конкретных языков, а с более фундаментальных основ бытия общества, которое само себя уничтожает, в том числе и с помощью компьютерных систем.
      Я предлагаю обратить внимание на группы, которые сегодня разрабатывают практические вопросы, связанные с наше жизнью. и с информационной поддержкой этих программ: Продовольствие, ЖКХ, здоровье, альтернативная наука, общество. Социальные инкубаторы...
      Поисковые системы предложат сотни таких групп. Выбирайте любую.
      Я работаю сегодня в реале в Екатеринбурге с конкретными людьми.

  • @user-cn3zl3cd2q
    @user-cn3zl3cd2q Рік тому

    То чувство, когда человек прочитал азимова и теперь пишет статьи и записывает видео

  • @user-ut7vj4mc7l
    @user-ut7vj4mc7l Рік тому +1

    У меня возникло много вопросов, но самый основной, от которого исходят все остальные: как ИИ вообще улавливает причинно-следственную связь?

    • @Nick__Name
      @Nick__Name Рік тому

      Примерно, как новорожденный.
      Есть "органы чувств" и некая начальная задача, а там по цепочке сам.

    • @comachine
      @comachine Рік тому

      Представь человека, который имеет ключ, форму которого можно менять и дверь, которую нужно открыть, человек берет и лепит рандомный ключ, пробует вставлять, видит что вообще не входит, меняет форму, смотрит вроде немного начало входить, но еще не до конца, опять лепит, видит что опять не входит, значит прошлая поправка формы ключа должна сохранятся, в следующий раз уже вероятно дверь откроется.
      Примерно так, упрощенно можно объяснить схему работы весов нейросетей, хотя я возможно что-то немного неправильно сказал, что для общего понимания этого думаю достаточно.

  • @chmod7559
    @chmod7559 Рік тому +6

    Парень рассказывает про единую нейронную сеть которая и машину водит и чай готовит и детей не трогает. Осталось только воссоздать модель мира для работа которая будет весить тысячи петабайтов данных и их нужно будет обрабатывать хотя-бы раз в секунду. Лет через 10 его теории можно будет применить. Но сегодняшние ИИ это простые сверточные нейронные сети которых учат аппроксимации правильных выходных данных которые работают только под 1 задачу. Даже Tesla с несколькими датчиками, разными сетями для разных ситуаций, с сотнями тысяч часов обучений до сих пор может заглючить на незнакомой ситуации, что уже говорить о полном понимании модели мира и окружении.