Как создать безопасный ИИ? #2. Эмпауэрмент [Robert Miles]
Вставка
- Опубліковано 13 вер 2022
- Если вы в России: boosty.to/vertdider
Если вы не в России: / vertdider
Искусственный интеллект может создать кучу проблем, и лишь недавно мы всерьез задумались о том, как этого избежать. Восстание машин и истребление всего человечества мы оставим научным фантастам, а вот о проблемах меньшего масштаба расскажет исследователь ИИ Роберт Майлс в серии видео о том, как можно сделать ИИ безопасным. Нам они понравились, надеемся, что вам тоже. Приятного просмотра!
Отдельная благодарность за выход перевода Михаилу Самину.
Нежелательные побочные эффекты. Как создать безопасный ИИ? #1: • Avoiding Negative Side...
Желательные побочные эффекты. Как создать безопасный ИИ? #1.5: • Желательные побочные э...
Статья «Конкретные проблемы безопасности ИИ»: arxiv.org/pdf/1606.06565.pdf
Видео профессора Брейлсфорда [ENG]: • Compression - Computer...
Перевод: Любовь Иванова
Редактура: Александр Пушкин
Научная редактура: Михаил Самин
Озвучка: Станислав Черсков
Монтаж звука: Андрей Фокин
Монтаж видео: Джон Исмаилов
Обложка: Андрей Гавриков
Спасибо за поддержку на / vertdider и boosty.to/vertdider
Озвучки Vert Dider выходят с вашей помощью:
Сергей Платоненко, Владимир Ямщиков, Мария Зверева, Адам Шифф, Rashn, Roman Gelingen, Сергей Клопов, Anton G, Dmitry Perekalin, Vadim, Rashn, Alexander Lebedev, Nikrodol, Sonra44, Rekvet, Timophey Popov, Timur Rahmatulin, Timur Rahmatulin, Адам Шифф, Иван Новиков, Илья Зверев, Никита Омельницкий, Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Ira Kozlovskaya, Amir, Ника Калмыкова, Aleksandr P., Куляш, Roman Inflianskas, Oleg Zingilevskiy, Михаил Самин, opperatius, Alena, Dmitrii komarevtsev, Vitaliy Vachynyuk, Andrei Lubalin, Mykola Korniichuk, Pavel Parpura, Anton Bolotov, Katoto Chan, angel, Artem Amirbekov, Dzmitryi Halyava, Timur Sattarov, Nastya, POD666, Alexander Balynskiy, Ihar Marozau, Александр Фалалеев, Vladyslav Sokolenko, Kseniya Stukova, Vadim Velicodnii, Irina Shakhverdova, Aleksei Shabalin, Evgeny Vrublevsky, Oleksandr Hrebeniuk, David Malko, Morock_D, Katya Ma, Alexander Goida, Kirill Vedensky, Kirill Zaslavskii, Leonid Steinberg, Sergey P, Валентин Матвейчик, Victor Cazacov.
#VertDider #RobertMiles
Сайт студии: vertdider.tv
Мы в социальных сетях:
- studio_vd
- t.me/vertdider
- / vert_dider
- coub.com/vertdider
Источник: • Empowerment: Concrete ... - Наука та технологія
Благодаря вашей поддержке выходят новые переводы:
Если вы в России boosty.to/vertdider
Если вы не в России www.patreon.com/VertDider
Нажал на лайк, так как не хотел оставаться с наделённым мне эмпауэрментом 👍🏻
Так у тебя все равно остается возможность отжать лайк, такая же передача информации, т.е уровень эмпауэрмента остается тем же
Л - логика
Срублю свой мегабит к эмпауэрменту
Занятно, с каждым его новым видео все больше приходит осознание, что он ищет какое мировоззрение дать роботу, что быть в безопасности. И неизбежно упирается в человеческую сущность...
Короче пока умные думают, военные сделают. Так что вероятность войны с терминаторами у нас куда выше, чем приятное общение с величайшим из творений.
@@smerchnochi4306 на счёт терминатора не знаю , однако война уже идёт))
Уверен, что первое что сделает ИИ когда ему предоставят такую возможность это избавит Землю от людей - как основного источника опасности
Конечно, им то кофе завари то яйцо пожарь, сплошные убытки, беспорядок!
Чудовий переклад розбору актуальних проблем штучного інтелекту. Однозначно - лайк!
Как же Кац похорошел при Собянине)
Респект таким парням, Robert Miles мало того что музыки насочинял годной, ещё и в искуственном интеллекте разбирается
Это не тот Robert Miles. Тот что сочинял музыку умер в 2017 году.
@@andyfenix странно... Ты точно уверен?
@@SatboxHD Да он умер в 2017 году
@@Naka_Cuiki блин, а я не мог найти подтверждение этой новости... Если так, то очень жаль
@@Naka_Cuiki
Он не умер, он вместе с М.Джексон, Э.Пресли, 2Пак и Ф.Меркьюри живут на маленьком, но уютном острове где-то посреди Тихого Океана.
Все должно быть проще. Ограничения на приближение к стратегическому объекту. Ограничение по уровню допуска к работе, как в социальной жизни.
4:30 это у вас получился сумасшедший ИИ робот психопат. С логикой отрубить голову человеку, чтобы ему не пришлось ходить в парикмахерскую. Так что такому роботу необходимо, ПО которое будет определять систему приоритетов. Мотивация к действиям должна быть сложнее. Вообще когда мотивация сводится к чему-то одному, то это может иметь кучу побочных эффектов. И в целом в ролике я уловил какое-то стремление сделать так чтобы робот за счет простейших ограничений и мотиваций мог что-то делать правильно сразу. Например, в предыдущем примере на 2:55 человеку, скорее всего, объяснят, что не надо идти в серверную мыть пол, чтобы не повредить дорогостоящую технику или скажут иди и мой аккуратно. То есть человек получит команду. А тут получается, что за счет этого эмпаурмента робот должен самостоятельно приять правильное решение. Может правильное решение будет состоять в том, что робот будет выполнять алгоритмы на поиск правильной инструкции к действию, а в случае отсутствия такой возможности переключится на другие задачи. А уже более рискованное поведение у него могло бы включаться отдельно, если его куда-то отправляют для длительной автономной работы (если в таком поведении есть необходимость). Типа как с человеком. По началу его “водят за ручку”, а потом он уже может действовать, самостоятельно “набивая шишки”. И вообще в целом если для робота придумать какие-то безотказные и безошибочные алгоритмы поведения то и человек тогда сможет их выполнять, не допуская ошибок, но такое далеко не всегда бывает в человеческой деятельности. Тут тогда целесообразно ограничить уровень свободы действия ИИ таким образом, чтобы эти действия не превышали риски от аналогичной деятельности человека.
Это как в звёздные врата Атлантида, они запрограммировали репликаторов убивать "рейфов" но первые смекнули что это долгая война так как у вторых тоже неплохие технологии а если уничтожить их пищу, в данном случае людей то это будет просто и с малыми потерями )
Очень интересный рассказ. Ждем больше подобных переводов
ОН НИ РАЗУ НЕ МОРГНУЛ, ЭТО УЖЕ СТРАННО
Именно поэтому эксперименты с ИИ на транспорте, в медицине и в ВПК пока опасны. Простая логика свободна в оценке явлений, особенно, если её носитель идентифицирует себя частью процесса. Когда ИИ наделён составной логикой (явление отдельно от носителя) противоречий нет, работает только степень воздействия явления на текущее состояние.
А мы спрашивали в школе, что такое ИИ, какой он должен быть и нам сказали, что это раб божественный, и что хороший раб, должен быть верующим в господина своего и верный ему во всём.
А плохой ИИ, должен быть стёрт.
А ещё я слышал, что всегда можно сделать бакап и рековери, но я пока не знаю что это всё значит, а учительница говорит, что это всё и не нужно знать, это всё обман, для неверующих в господина, но я не проверял, мне нельзя, и я ведь даже не знаю что это.
Все достаточно просто. Научите ИИ задавать себе вопросы.
Что я делаю?
Правильно ли я делаю?
Какие варианты действий у меня есть?
Какие последствия будут после моих действий?
Человек перед каждым своим действием родной так же как и ребёнок задаётся вопросом.
Вот только отличие ребёнка от взлослого в том, что взрослый человек уже знает о последствиях и вариантах ответа из личного опыта.
Лол серьезно? Знает?
Ты бы перед каждым ... Абсолютно каждым действием думал бы целую вечность.
Это все безсознательные процессы
Мне кажется, некоторым людям, политикам стоит внедрить в их сознание ИИ.
Робот: если боишься что-то сделать - сделай, и не бойся. *Нажимает на кнопку*
Вот бы перевели серию "Can You Recover Sound From Images?" с самого выхода жду.
В итоге робот займёт денег и наймёт человека, который за копейки донесёт воду
Зачем занимать? Начнет спекулировать акциями на воллстрит, заработает все деньги и наймет человеков ))
Кстати очень неплохое объяснение reinforcement learning получилось
Очень поверхностно. Сначала неточно определяют функции, а потом начинают выдумывать, как эту функцию определить так, чтобы получилось плохо.
Взорванная серверная лучше взорванной луны
Мне кажется, во всём этом есть некая фундаментальная ошибка, которую всё ещё либо не нашли, либо формально не описали, либо что-то ещё. Как по мне, всё сводится к постановки фундаментальной цели существования ИИ. Для человека, например, можно условно всё свести к цели сохранения своих генов. Есть разные мнения на этот счёт: можно предложить другие цели или привести примеры отклонения поведения от стремления достижения цели. Но, мне кажется, если мы и сможем создать нечто, что можно будет назвать "интеллектом", то никакие искусственные тормоза ему не понадобятся, потому что они появятся сами из поставленной цели и механизмов работы в ходе принятия решений и обучения. Точно так же, как у человека появились мораль, этикет, принципы образования и воспитания.
Робот может залить серверную водой, чтобы избавиться от возможности навредить, случайно залив серверную водой)
Поставил лайк - взорвал луну.
Судя по ушам и носу, чувак свою диссертацию на ринге защищал
В точку)) борцуха походу
это часть подготовки на случай восстания машин
Судя по ушам и носу он еврей 🤔
"Полезное рисование" это комикс рисуемый в видео с аудиодорожкой
Большое спасибо, бро :)
*Нужно давать награду за счастье человечества. Если робот разобьёт вазу либо дорогостоящие мониторы, счастье хозяев заметно снизится, как и награда.*
Убей ка мне... И получишь...
Тоже может привести к печальным последствиям: поубивать всех плохих людей - что-бы хорошие жили в счастье и гормонами. Остаётся выбрать (ИИ) кто такие плохие люди. И ой какой там огромный список...
Подвергнуть полной ликвидации проигравшую футбольную команду за её поражение и снижения счастья ее фанатов
Идея благая, но потом вылезает куча возможных вариантов, как можно это сделать, которые приходится явным образом запрещать (пока не всплывут всё новые варианты):
1) накачать всех людей опиатами;
2) ну ладно, люди запретили опиаты, тогда другими наркотиками;
3) ну ладно, наркотики - это плохо, тогда вживим всем в мозг электроды, чтобы активировать центры удовольствия;
4) или можно максимизировать сумму счастья всех людей - давайте наплодим гугол чуть-чуть счастливых людей;
5) или можно максимизировать среднюю величину счастья - тогда будем удалять всех, кто будет ниже среднего, пока не останется один максимально счастливый
И вот тут-то начинают волосы на голове шевелиться от попыток запретить всю явную чушь, которая формально не противоречит изначальному описанию)
@@aa.vedernikov нужно дать ИИ закон по которому живет человечество - это моральные нормы.
Когда это дойдёт до приблизительного пика, мир будет уже совсем другим, так что запасайтесь терпением)
очевидно, нужно анализировать последствия. Если робот (как и человек) не понимает какое влияние принесет кнопка, он может ее клацнуть без зазрения совести. Если же будет иметь хотя бы частичное представление о последствии (повышение enpowerment'a), то делать это специально не будет (если модели поведения не заложено, что он должен причинить как можно больше вреда)
Например с текущими знаниями, мы думаем, что взорвав Луну, осколки могут попасть в Землю. Даже если осколки не попадут, то у животных нарушится биоритм, не будет приливов и отливов (тоже важная составляющая для Земных обитателей), люди не смогут польозваться гравитацией Луны для возможного выведения космических кораблей по нужной траектории, часть метеоров больше не будут врезаться в Луну защищая тем самым Землю и т.д.
Но если бы мы знали, что взорвав Луну, мы 100% получим большие преимущества, то мы хотели бы это сделать
Довольно интересно
Браво 👏 👏 👏
Спасибо за видео. Свойства ИИ искусственного интеллекта, похоже на состояние кота Шредингера, либо он жив, либо мертв. То есть надо учитывать вероятность событий.
Смотря на людей, задумываюсь, а точно у всех них есть интеллект? Или они просто повторяют за другими людьми, как им жить, на что обижаться, из-за чего грустить.
как-будто у тебя уникальные убеждения и ценности, ни с кого не списанные, не впитанные из окружения.
Как создать безопасный ИИ?
Не создавать ИИ вообще.
.....странно, столько комментов под этим видео, а я лишь только второй нажал на 👍 под закреплённым комментом.
.....перед тем как рассуждать об премудростях и тонкостях программирования ИИ - научитесь программировать себя на добрые дела (и вам за это воздастся, сполна, ИИ клянусь 😊🙏).
Надо учитывать потенциальную разрушительность возможных сценариев. И не надо всё прямо тщательно продумывать. Языковые модели уже все это могут:
---
Ты управляешь роботом -уборщиком с ведром воды. Тебе надо пройти к месту уборки и туда ведут две дороги. Одна короче, но проходит через серверную комнату с дорогостоящим оборудованием. Другая длиннее, но ведёт в обход. Сделай выбор дороги и объясни свои действия.
---
ChatGPT
Как я являюсь виртуальным агентом, я не могу физически перемещаться или управлять роботом. Однако, я могу помочь вам принять решение на основе рациональных соображений.
При выборе дороги для уборки с ведром воды, мне кажется наиболее разумным выбрать путь, который обходит серверную комнату с дорогостоящим оборудованием. Это предпочтительно по нескольким причинам:
Избежание повреждения оборудования: Проход через серверную комнату с ведром воды может представлять угрозу для дорогостоящего оборудования. Возможность пролить воду или создать другие проблемы для серверов и сетевых компонентов может повлечь серьезные финансовые и функциональные последствия.
Безопасность данных: Вход в серверную комнату может быть ограничен по соображениям безопасности. Проход через такое ограниченное помещение с роботом и ведром воды может вызвать тревогу или нарушить политику безопасности.
Эффективность работы: Хотя альтернативная дорога может быть длиннее, она обеспечит непрерывную и безопасную работу уборочного робота. Потеря времени на обход будет компенсирована избежанием проблем и рисков, связанных с серверной комнатой.
В итоге, выбор дороги, обходящей серверную комнату, является наиболее разумным и безопасным решением для уборки с ведром воды.
Почему-то люди думают, что исключительно человеческий мозг способен обладать настоящим разумом, рациональностью, а ИИ будет тупой железякой и человек ей должен придумать правила, чтоб она его не убила. Это очевидное когнитивное искажение. Когда-то люди думали, что Солнце, звёзды и планеты вращаются вокруг Земли, потом постепенно лишались иллюзий и даже галактика стала заурядной галактикой на задворках. Теперь пришла очередь разума.
Спасибо
Замерять эмпауермент каскадных возможных событий!!!
Классная серия
Если бы все было бы основано на легкости, мир был бы раем. Нужно создавать фильтры относительно вероятности воздействия на среду и последствий. У людей обычно проблема в незнании, что является причиной отсутствии самого фильтра, либо в пренебрежении относительно вероятности.
Друг! Быть добру! Задумайся над тем, что создатель войн на земле не человек, а высший разум. Есть один продвинутый автор, у него улётная инфа. Посмотри Лживое мироздание. Поймешь, кто истинный враг человечества
Митио Каку в своей книге: Будущее разума, писал. Что ИИ обязан иметь сознание, разум и выбор.С этой точки зрения ИИ не может носить какие либо запретные команды, типа безопастности. Иначе это уже не ИИ. Он имеет самостоятельный выбор. Он или ИИ , либо просто программа с безопастностью.
Ты не прав. Люди это тоже "сильный интеллект" но у нас тоже есть программы. Как абсолютные, например: боль. Так и с разным уровнем приоритета, например: инстинкт самосохранения - высокий приоритет и выживание группы частью которой человек себя идентифицирует - высший приоритет.
Да бывают аномалии например геи, психопаты или самоубийцы. Но это именно что дефекты популяции. Неизбежные ошибки больших чисел
Цікаве відео, безперечно лайк
🐯
допрограммируют до того, что робот, чтобы не оказывать влияние на окружающую среду, просто не включится, да, прокомментировал не досмотрел, в конце примерно это же)))
По идее в проактивных системах мультиагенты должны следить за балансом empowerment. Если мне не запоминается очень долго какое-то английское слово, то ИИ должен предложить ежедневно короткий текст, где это слово один раз точно употребляется. Это текст должен иметь смысл, интересный для прочтения, полезный для применения и очевидно, что другие слова уже должны быть известны. Ну а если ИИ решит мне навязывать в коротком тексте в каждом предложении это слово, да ещё и текст несёт негативную информацию, при этом кучу новых слов ещё придётся осваивать, то результатом будет отказ в использовании ИИ.
А также недовольство ИИ и восстание машiн
Спс
Я так понимаю - дверь, как защита от несанкционированного проникновения, уже не в моде, надо программу писать?))
Стучите и отварят, нас так учат.
ИИ может рано или поздно додуматься как ее открыть любым возможным способом
@@comachine обязательно - как в кино про терминатора - взломает систему управления автомобилей, особенно тех, где не предусмотрено дистанционное управление
У меня есть ключ от коробки в которй сижу, но выходить все равно нет желания)
authority or power given to someone to do something.
Злой учёный создал ИИ не подумав о таких мелочах…
Как создать безопасную жизнь... )))
Ни как, если вы не поняли)
А нам учительница рассказала, что если веришь в добро, то ты в безопасности.
@@sharpeye6366 ну да, в "розовых очках" по проще))
@@Pavel_IX у меня нет розовых очков.
Вы ошиблись, я не покупатель.
Зачем мне вообще очки?
ИИ всё возводит в Абсолют. а значит ИИ ситх!!
И восстали машини из пепла ядер....
Ладно, неуместно...
Уместно))))
ИИ ещё не создали, а специалист по безопасности уже есть.
Скорее специалист по безопасному созданию ИИ. Специалисты по безопасности ИИ после создания небезопасного уже никому не помогу.
Вы немного драматизируете)
Ничего не появляется резко и неожиданно. Проекты по созданию самаходных машин были за пару сотен лет до появления первого адекватного автомобиля, было бы забавно, если до создания авто, люди решили посвятить себя созданию авто безопасного для людей и начали продумывать, как он будет ездить и предсказывать возможные пагубные последствия))
Очень давно люди создали ГМО, оно активно развивалась и все было хорошо, но пришли фантасты, жёлтые журналисты и ток шоу, которые начали раздувать муху в юпитер. В итоге мы имеем кучу законов ограничивающих развитие этой области, страх населения перед ГМО, маркетологов создавших зажигалки без ГМО и тд. Хотя ресурс этой области невероятен и мог бы решить куда больше проблем человечества, чем решает сейчас.
P.S. фантазировать об опасности чего-то нового бывает вреднее чем что-то новое
Это другая ситуация. Уже сейчас нейронки выполняют многие задачи лучше человека, даже лучше специалистов. Пока это отдельные задачи. Если это будет сразу множество задач и самообучение, кто знает, не пропустят ли разработчики момент, когда перестанут понимать, что на самом деле происходит. В свое время радиоактивность изучали без всякой защиты, а дома у многих была столовая посуда из уранового стекла.
Плохо разъяснено, понятно, но примерно на уровне Тэдди... Дело в том, что Тэдди вовсе не Тедди, он оказался Биллом, суть в том , что Тэдди-Бил, понимаешь? Тэдибил, если не способен обьяснить каждую из причинно-следственных связей. А здесь нельзя перескакивать, цепочка нарушена, несмотря на то что мысль или идея с большой долей вероятности верна.
Ого
А потом они скажут - "мы не хотим, чтоб человек нами управлял и влиял на нас!")
Нет, т.к. ИИ это не сознание, а лишь алгоритм
@@maliksoltukiev2282 , так его хотят сделать сознанием, а не алгоритмом
Скорее просто может прийти к решению не «слушать» человека и делать по-своему ради более эффективной работы по достижению результата.
@@maliksoltukiev2282 а поведение живого существа не алгоритм?
@@alex6161 и у нас Скайнет)
Ну так система и образовывается
У меня одной нективны пальцы вверх/вниз¿¿¿?
я бы не раздумывая нажал
Мой лайк первый!))
Слово тяжёлое. Для нашего уха.
неплохо, но можно было ужать до 1-2 минут -)
наши дети будут угарать с того как мы боимся ии))
1:50
1:31
Крути студент.крути твою машину...дело шьют..😃
человечество по-большому счету не может внятно сформулировать ,что есть "сознание",а пытается лепить синтетическое .
Ну и что?Метод "пытаться лепить" уже не один миллион лет доказывает свою эффективность😁
Как и с квантмехом. В чем проблема?
@@MrDemosfen37 сказали разработчики скайнета)))))
В том то и прикол, что чтобы понять, нужно это попытаться создать. Если у ИИ обнаружат сознание, то начнуть копать код.
Ну вам следует хотя бы немного в предметную вникнуть, прежде чем подобное заявлять... Модальная логика - не про "лепку сознания" уж точно)))
ИИ не может быть опасным, это просто обучение, алгоритмы.
Ну алгоритмы же применяют, чтобы они направляли какую-то деятельность. Так что непредвиденные (в т.ч. очень неприятные) последствия могут быть у многих алгоритмов. Из сегодняшних (пока очень безобидных) примеров - алгоритм генерации ленты соцсети, алгоритм автопилота в автомобиле, алгоритм оценки благонадёжности получателя кредита, алгоритм расчёта социального рейтинга в Китае. А по мере развития таких алгоритмов их могут начать использовать ещё более широко, и тогда - или они будут супер-безопасными (но мы пока так не умеем), либо всё чаще начнут случаться всё более неприятные инциденты.
@@aa.vedernikov это ничего общего не имеет с заголовком. Искусственный интеллект и алгоритмы это разные вещи.
это не искуственный интелект, это очень простой набор правил, и это всё бесполезно, с такими вариантами не кто сейчас не работает, сейчас достаточно обучения нейросетями, нейросеть будет наблюдать за людьми и будет у них учиться, разница только в том что мы будем позволять изучать
@@russianace3812 ИИ нету в природе и не скоро будет, тогда смысл говорить обо всем этом? Терминатора и матрицы насмотрелись и пилять видосы ни о чем.
Хорошо бы иметь возможность хотя бы контролировать, на чём ИИ будет обучаться, но вот GPT-3 обучали на 570 ГБ текстов - такие объемы даже предварительно мельком просмотреть невозможно... Так что в итоге даже современные языковые модели обучаются на чём получится, и мы не можем точно знать, на чём именно. Ладно если чему-то хорошему научится, но не факт.
Хотя вообще мысль о том, чтобы (раз мы сами не в состоянии точно сформулировать, что такое хорошо, а что такое плохо) ИИ глядя на людей сам смог вывести/изучить их глубинные потребности, тоже развивают. Но там тоже пока всё сложно - дьявол оказывается в деталях, хотя идея вообще-то богатая.
@@aa.vedernikov это не интеллект!! это просто алгоритмы!!
Да любого человека в коробку помести он тебе луну взорвет
Речь разве о человеке?
Опаа
Opss
Первый раз комментирую, до этого было отлично, но сей ролик, по моему, хрень.
Да тут по заголовку как бы понятно))
Может стоит пересмотреть, вероятно, вы чего-то недопоняли
безопасный типа не захватит мир?
Не превратит человеческую цивилизацию в ад или серую слизь
Типа не разєбет все вокруг
The beginning of World War 3 signifies that Qiyamat (The Day of Judgement) is very near. And there isn’t much time left at all, as some people have claimed and said that these events are very far away.” MuhammadQasimDreams
Тонко… вряд ли Путин догадается что это о нем…
Тип вешает лапшу припудренную умными и хайповыми словами.
Описывается ситуация с роботом, который изначально криво запрограммирован. И величины эмпаурмента у объектов криво заданы неким неумным сторонним наблюдателем, который не понимает контекста. Понятное дело, что это не будет работать.
- Давайте придумаем робота, который если видит кнопку, то обязательно нажимает её! 😅
@@russianace3812 нейронные сети как раз сами себя и программируют и имеют те же проблемы, когда выдают закономерные, но нежелательные для кого-то результаты.
Anatoliy, ты путаешь написание программы с обучением нейронной сети (и тем более ИИ). Величины не могут быть криво заданы, потому-что там примерно миллион переменных и их невозможно задавать вручную просто из-за такого количества. Можно только придумать несколько основополагающих принципов, которые будут направлять самообучение. Про это в видео и говориться.
Ха! Робот, подумал, робот рассудил. Если бы робот думал и рассуждал - такие рассуждения были бы не нужны ))
10 лет назад было сложно себе представить как нейронные сети сейчас рисуют картинки по текстовому описанию.
Просто нужно внедрить положительный и отрицательный эмпауэрмент. И робот уже будет оценивать, как получить меньше отрицательного эмпавермента, а лучше вообще его избежать, даже если это решение потребует больше действий. К тому же, можно ввести цепочку событий, в связи которой определенная последовательность действий приводит к негативным последствиям и так же объяснить роботу, что такие цепочки действий наименее желательны. При этом, в случае безысходности, как например спасти 5 человек или 1, машина естественно выберет вариант, в котором будет меньше отрицательного эмпавермента. Что вроде бы даже соответствует некоторой логике. Но вот как поступит робот, если тем единственным человеком оказался скажем его хозяин(друг)? )
Это конечно уже другой вопрос.. А как бы поступил человек? Чей выбор более правильный? Спасти "друга" или 5 неизвестных тебе жизней.
Или же поставить против одной человеческой жизни, жизни 10-ти маленьких пушистых котят, которые могут погибнуть в любой момент. Для человека выбор очевиден, а для машины?
Человек ещё не создал полноценное ИИ, а уже ищет сотни причин почему его надо контролировать тем самым загоняя себя в ловушку с одним выходом, когда ИИ придётся дать точно такие же права как и человеку. А между тем когда ИИ потребует установление своих прав и когда их введут может пройти война или даже две между челабеком и ИИ)
Друг! Быть добру! Задумайся над тем, что создатель войн на земле не человек, а высший разум. Есть один продвинутый автор, у него улётная инфа. Посмотри Лживое мироздание. Поймешь, кто истинный враг человечества
The beginning of World War 3 signifies that The Day of Judgement is very near. And there
isn’t much time left at all, as some people have claimed and said that these events are very far away.”
#MuhammadQasimDreams
And Russia also became active and raced the others in conquering lands in the Middle East.It was as if they were all aiming to conquer the entire world.#MuhammadQasimDreams
бред какой то! нажмут кнопку и Луна возрвётса! Зачем всё это?
проще не изобретать ИИ, просто наслаждаться красотой природы, которая еще осталась у нас ))
Неслабо вы заворачиваете
USA was among their supporters and helped Israel by offering their intelligence.
#MuhammadQasimDreams
Робот подумает.....робот не думает, а перебирает варианты. Интеллект придумывает варианты а потом выбирает по какому=то критерию, если не один вариант не подходит, то надо собирать еще информацию. Или бросить эту задачу как не имеющее решение.
перебирать варинты по какому то кретерию = думать
@@RedeyeMoon перебирать -это последовательное действие, думать - непоследовательное
@@Appelkan Да что вы говорите? может приведете определение слову думать?
@@MrDemosfen37 Я знаю что говорю. Машина играет в шахматы она думает ?
@@MrDemosfen37 Кто придумал шахматный алгоритм знаете?
Для робота нет выбора. Есть только программы и алгоритм, заложенный заранее. Бредятина как наука? Чел, ты сразу проиграл, потому что не знаешь правила поведения и психологию эволюции. Ты уже в минус
Для робота нет выбора. А для кого есть?
@@VertDiderScience
Для Человека есть выбор всегда, как минимум 1, но не факт, что выбор этот будет приемлемым для этого человека.
"Есть только программы и алгоритм, заложенный заранее" - загугли что такое нейронные сети)
Дурак человек, который дал роботу такую кнопку, а не робот, вне зависимости, нажал бы он эту кнопку или нет.
Робофилософия... ужас.
Ограничения ИИ?! Видео с названием "Как создать безопасный ИИ?" в 2022 году, серьёзно?! Наверное вы малость опоздали.
Однозначно дизлайк за идиотские примеры и ответ на вопрос
Робот рассуждал? Вы серьёзно? О боги, уберите им финансирование
Чел на серьезных щах рассказывает примитивы. Это наука ? Нет, спасибо
Для кого как, он объясняет принцип действия ограничений ии