Законы робототехники и логика

Поділитися
Вставка
  • Опубліковано 28 вер 2024
  • Видео "Как определить истину": • Как определить истину
    Видео "Как задавать вопрос": • Как задавать вопрос
    Курс саморазвития: note1371...
    ВК: torwaldo...
    Мой лайв-канал: / torwaldlive
    Twitter: #!...
    Блог: 40tonn.blogspot...

КОМЕНТАРІ • 128

  • @torwaldolafsen
    @torwaldolafsen  7 років тому +51

    Скорость света я конечно же имел в виду 300К километров в секунду, не метров. оговорился.

    • @danielmaylove
      @danielmaylove 7 років тому +1

      Вред - это поведенческое действие искусственно провоцирующее деформацию целостности или уничтожения системы (тут любое отглагольное существительное) адекватного или естественного образца. Ну, что-то в таком духе, плюс дополнения всякие к каждому термину, естественно, база данных со всеми возможными примерами и в конце концов свести все к элементарной формуле, тип того. Поймет робот такую концепцию, как думаешь?

    • @danielmaylove
      @danielmaylove 7 років тому +3

      И добавить понятия свободы выбора человеческого индивидуума, что мол он может себе вредить (куря, жря фаст фуд и т.п.) но скажем это отнести к категории "нереогирования", а если например то же человек курит, а рядом беременная женщина, то он встанет на ее защиту, попросит там не курирть или отойти подальше, зачитает протокол, может задокументирует инцидент т.к. это уже к другой категории относится, более инициативной. Ну и так далее вплоть до экстремальных ситуаций.

    • @ne_moskvich
      @ne_moskvich 7 років тому

      Торвальд, а что ты думаешь про Гарри Гаррисона? Тоже гениальный фантаст, как по-моему. "Космические крысы ДДД" - просто шедевр. Я их всегда сравниваю

    • @t-rex9274
      @t-rex9274 7 років тому +1

      Нам же нужно, чтобы роботы нас не убивали и не калечили. Зачем такие сложности выдумывать?

    • @evgenijmaksimov8222
      @evgenijmaksimov8222 7 років тому +1

      Привет Торвальд, мог бы ты посмотреть последние видео блогера "пчел жужжит" и поддержать его. варгаминг решил загнобить человека отнять лицензию, высасывая обвинения из пальца. Постоянно смотрел твои видео про арту, видел как "знаменитые блогеры" пытались гнобить тебя. Думаю у игроков в танки есть шанс достойно ответить вг.

  • @orrrange9832
    @orrrange9832 7 років тому +37

    Видео очень интересные и познавательные. Смотря тебя я начал читать книги, к которым раньше не прикасался. Давно искал такого ютубера, не пожалел, что искал. Мне 13 лет, смотря всякие смешные видео с огромным наличием матов и играя в кс го я заметно отупел. Поэтому я просто нуждался в твоих познавательных видосах. Спасибо, что снимаешь, удачи)

    • @Vkidysh
      @Vkidysh Рік тому

      И что же ты посоветуешь из такого почитать?

  • @only-exlight
    @only-exlight 7 років тому +20

    Алгоритмизация это хорошо, но ведь сейчас есть нейронные сети, которые как раз применяются в тех задачах где четкого алгоритма нет! А значит механизмы для интерпретации каких то явлений все же имеются, здесь проблема не в том что мы не можем прописать что такое ВРЕД, а в том что мы не знаем как машина его интерпретирует из ходя из входных данных. Так что тут не соглашусь с автором видео что машины не могут делать каких то выводов, уже могут! Пусть и на каком то примитивном уровне!

  • @ildarius116
    @ildarius116 7 років тому +4

    1. Что касается термина "Вред" ... Его можно заменить на "текущую статистическую вероятность смерти в течение некоторого ближайшего времени" ... этот параметр, естественно будет настраиваемый, в т.ч. удаленно.
    2. Что касается миллионов обрабатываемых данных ... множество этих данных можно инкапсулировать. т.е. разделить на отдельные самостоятельные блоки вычислений. Н-р, за равновесие и ходьбу, отвечает один блок, за внутренние датчики (собственное состояние), другой блок, за внешние датчики - третий, а за поведение - 4й. Тогда, благодаря модульному построению, значительно упрощается как разработка, так и обслуживание и апгрейд техники.
    ПыСы
    Уже есть прототипы ИИ (речевые-текстовые построения) чуть ли не точной копией характера определенных людей ... ЧАТ-БОТы ... недавно в новостях проскакивала инфа.

    • @ВикторБелый-и6з
      @ВикторБелый-и6з 7 років тому

      ildarius116 Теперь я понимаю почему в танках так много раков. Синхронизация с блоками вычислений очень плохая.

  • @waka_waka
    @waka_waka Рік тому

    очень познавательно. я сейчас собираю материал для того чтобы записать видео про интелект роботов как они думают чем они руководствуются и тд. вообще видео будет про игру не очен популярную но завязануюю на ролеплее, то есть на отыгрыше роли той за которую ты зашел. и там есть роль роботов и искуственного интелекта и я хочу показать какого это думать мозгами робота. начал с азимова и поиска других видео по этой теме наткнулся на ваше очень хорошо описали спасибо вам большое. оно очень поможет мне дать понимание как донести до людей как они должны думать и отчего отталкиваться если они будут роботами от тех или иных законов. там много наборов законов в которых есть закон Азимова. но зная только его не даст полной картины. ведь от поставленых задач. роботы могут действовать по разному

  • @dakinder1534
    @dakinder1534 2 роки тому

    Нужно на разные виды вреда, прописывать разные действия робота. Например на гамбургер, можно выдавать предупреждение человеку

  • @avpro5769
    @avpro5769 6 років тому +2

    Судя по всему, автор видео самого Азимова и не читал. У Азимова были законы РОБОтехники, а не выдуманные здесь школотой "РОБОТОтехники".

  • @МикитаСкрябін
    @МикитаСкрябін 7 років тому

    самообучение, нейронная сеть, которая из сети будет находить инфу о том, что может вредить человеку и выстраивать логические цепочки, создавать БД для себя, но естественно это тоже не будет на 100% давать полное понимание для компьютера, что может навредить

  • @Shellbe-man
    @Shellbe-man 4 роки тому

    Анализ биохимии организма точно даст ответ!

  • @din0v93
    @din0v93 7 років тому

    Очень полезный для умственного развития рассказ! Поделюсь своими мыслями)
    Не уверен можно ли вообще прямо на 100% определить вообще что либо. Думаю, можно лишь очень сильно приблизиться к сотке, чем ближе к сотке тем больше заморочек с определением и абсолютного индикатора приближения к истине просто не существует. Но это и не нужно. Разумнее подойти к вопросу с другой стороны.
    Например использовать обучение на основе накопленной роботом информации, логическим путем выводить новые тезисы, но базовые(главные, опорные) тезисы получить от создателя. Ста процентов не будет (потому что вселенная не держится на целых числах), но с тем какой объем информации смогут обрабатывать роботы, точность определений будет сильно выше, чем человек смог бы себе позволить.
    Со всем этим физическое и психологическое здоровье можно будет определять "Шерлоковким" индуктивным и дедуктивным методами, за опору использовать например состояние тканей и выделения, поведение человека(решения, которые он принимает) и т.д. Оберегать и оказывать положительное влияние на состояние людей можно через простое взаимодействие с людьми (То что роботы будут по сути забираться в нашу душу это другой вопрос).

    • @din0v93
      @din0v93 7 років тому

      Робота нельзя СОВСЕМ оградить от этого, но можно усложнить обучение вредному воздействию по максимуму. Шифрование данных так устроено(расшифровать можно любые данные, но вычислений для этого потребуется очень и очень много)

  • @nkisselev
    @nkisselev 7 років тому

    Торвальд, на данный момент пусть это и невозможно практически (из-за ограничений в мощности в вычислительной техники), но в дальнейшем, с увеличением мощностей вычислительной техники "вычислить" вред возможно. Приведу пример. Человек курит. Происходит "вред" и "польза". Вред - это отдышка, шанс развития рака, запах. Польза - успокоение нервов. Нейронная сеть вычисляет (тут появляется куча зависимостей) коэффициенты воздействия составляющих вреда на окружение и самого человека. Пример рассуждения: Вред -> Отдышка -> Сам человек -> Не смертельно -> Категория и место воздействия -> Легкие -> Нарушение дыхания -> Присвоить коэффициент 0.003

    • @torwaldolafsen
      @torwaldolafsen  7 років тому +2

      ты еще не определил слово "вред", а уже собрался его вычислять

  • @МаксимДовгодько
    @МаксимДовгодько 7 років тому +2

    после 300к метров в секунду побежал коментить, но Торвальд оговорил это уже) технарь я посто)

  • @Timheadshot
    @Timheadshot Рік тому

    У меня на кухне тоже такие обои

  • @Kulmukhamedov
    @Kulmukhamedov Рік тому

    Обнови видео пожалуйста с учётом появления chatgpt

  • @РайанКупер-э4о
    @РайанКупер-э4о 7 років тому

    Нулевой закон: Робот не может ограничить свободу человека, если тот не нарушает свободу другого человека.

    • @Кротокрыс
      @Кротокрыс 3 роки тому

      Нулевой закон другой. Он вроде о сохранности человечества, даже при причении вреда одному или даже всем людям.
      То есть, если вредить одному человеку, но это спасёт целое человечество, то это соблюдение нулевого закона, но не соблюдение первого.

    • @РайанКупер-э4о
      @РайанКупер-э4о 3 роки тому

      @@Кротокрыс, я не помню почему я это написал, это было три года назад, но вероятно это моя вариация.

    • @Кротокрыс
      @Кротокрыс 3 роки тому

      @@РайанКупер-э4о тоже хороший закон. Допустим это -1 закон.

    • @РайанКупер-э4о
      @РайанКупер-э4о 3 роки тому

      @@Кротокрыс, лучше 1/2, чтобы приоритет был ниже.

  • @amgwit8799
    @amgwit8799 7 років тому

    Я киборк, у меня искусственный интелект вшит в центральный процесор

  • @dakinder1534
    @dakinder1534 2 роки тому

    Надо просто прописать - жить вредно))

  • @sapiens01
    @sapiens01 7 років тому

    Роботы пока не мыслят.Поэтому любые логические выкладки их поведения-ниачём...=)))

  • @7privetov
    @7privetov 7 років тому +20

    Лайк поставил, а теперь смотрю.

    • @Berliga_9
      @Berliga_9 6 років тому

      7приветов всё правильно 😆

    • @iliasor_4779
      @iliasor_4779 4 роки тому

      Так же

  • @iliasor_4779
    @iliasor_4779 4 роки тому +2

    11:00 физическое или психологическое нанесение ущерба существу

  • @NEFORYEBLANYY
    @NEFORYEBLANYY 6 років тому +2

    сам как робот

  • @def_trap2988
    @def_trap2988 6 років тому +1

    3 закона канала
    1. Проставить лайк
    2. Подписаться на канал
    3. Оставить комментарий

  • @ЛеоЛеннон
    @ЛеоЛеннон 7 років тому +7

    На данный момент, ИИ тянут максимум на уровень насекомых, пауков.
    Что это означает: поведение паука зачастую подчиняется довольно надежной, но простой программе, толком не думают пожалуй. Едва вылупившись, и впервые перелиняв детеныш каракурта уже умеет охотиться, плести паутину. А когда дозреет, то включится опция на поиск партнера - инстинкт настолько силен, что паучок всецело соблюдает его, и даже забывает самосохраняться. Просто под конец загибается от голода, или оказывается убит сородичами. Отдельная тема - сети пауков-кругопрядов. Оказывается доходит до того, что любой представитель данного вида, делает в паутине строго определенное количество витков, перекладин, и т.д. То же самое часто с насекомыми - эдакие миниатюрные роботы, подчиненные своим программам поведения. С более интеллектуальной фауной все иначе. До уровня какого-нибудь крупного попугая, машине расти и расти. И не факт, что когда-нибудь ее таки научат понимать, хотя бы примерно, что такое "вред".

    • @Briz231
      @Briz231 7 років тому +6

      Вы ошибочно сравниваете ИИ и живых существ. Серверы суперкомпьютеров ещё много лет назад выполнили вычислений больше, чем всё человечество вместе взятое. Тут суть в том, что воспринимать как интеллект. То что Вы описали можно свести к определению интерфейс. У калькулятора он тоже есть, и скорость калькулятора напрямую зависит от скорости потоков данных. К чему я клоню: разработать систему псевдо-интеллектуального реагирования можно без проблем. А вот наделить его навыками реального интеллекта, вот это задача на годы и десятилетия. К сожалению, даже самое простое насекомое обладает рядом свойств, недоступных для машин даже сегодня.

    • @eskstuff831
      @eskstuff831 6 років тому +1

      Некорректное сравнение, разве может человек летать (сам, а не на самолете) - нет, ему до попугая расти и расти, а разве может попугай просчитать эволюцию скопления звезд или темпы и направления распространения какой-нибудь болезни - нет, с этой точки зрения попугаю вообще никогда не дорасти и ему точно никогда не объяснят (хотя бы примерно), что такое движение пучка заряженных частиц в магнитном поле.

  • @daurenabdrakhmanov6468
    @daurenabdrakhmanov6468 7 років тому +3

    с точки зрения программирования мне кажется можно назначить две константы "вред" и "здоровье" (эти две константы являются свойствами человека) полный вред это полная остановка жизнедеятельности человека, а допустим полное здоровье это 500 лет жизни человека. так вот ИИ должен постоянно способствовать продлению жизни человека, при этом способствовать развитию жизни только советами, а при риски 100% гибели или хотя бы 60% предпринимать какие то действия, конечно же можно также описать критические органы и так далее...

    • @danielmaylove
      @danielmaylove 7 років тому

      мне кажется человек сам должен заботится о своем физическом и моральном здоровье, а роботы с ии должны лишь созддать и поддерживать условия, в которых общество бы перешло на принципиально иной уровень жизнедеятельности и миропонимания, и, соответственно решало бы совсем иные задачи. то есть в нашем современном обществе роботы бы не смогли функционировать, они бы постоянно глючили и перегружались, т.к. понимали бы в каком несоответствии и противоречии мы живем. а поэтому для того, чтобы роботы с ии и люди могли понимать друг друга и продуктивно сосуществовать в одной системе, нужно в первую очередь изменить саму систему. и тут я с Торвальдом согласен, пока нам за это переживать не стоит)

  • @OTKUDANADO
    @OTKUDANADO 4 дні тому

    Видео 7 лет назад выпущено, теперь мы находиися на грани выпуска беспилотных такси на дороги общего пользования. Это очень тревожно

  • @ЮрецНелепин
    @ЮрецНелепин 7 років тому +1

    Что если,для роботов определить некую шкалу вредности,допустим от 1 до 100,и давать команду роботу вмешаться только если вред больше 10 например.

  • @egorladanov2589
    @egorladanov2589 7 років тому +2

    В изначальном варианте сказано: A robot may not injure a human being or, through inaction, allow a human being to come to harm. Если переводить более дословно, получается: "робот не может ранить человека", т.е. оказать влияние, которое повлечёт за собой физическую травму. Слово harm, полагаю, употреблено лишь как синоним injure, и имеет то же значение.

    • @torwaldolafsen
      @torwaldolafsen  7 років тому +1

      а "through inaction allow harm" ты видимо предпочел не переводить, да? потому что так удобнее временно выставлять себя умным

    • @egorladanov2589
      @egorladanov2589 7 років тому +2

      Вы, видимо, предпочли не дочитывать моё сообщение до конца, потому что так удобнее временно выставлять себя умным

    • @SergeiFedotovParkour
      @SergeiFedotovParkour 7 років тому

      на англ написал тоже самое что и Торвальд сказал же

    • @krivas404
      @krivas404 7 років тому

      Никакого существа тут нет, высосано из пальца желанием автора. Правильно ответил, незачем показывать своё скудоумие в английском, ещё и других в заблуждение вводить.

  • @redgranat4650
    @redgranat4650 7 років тому +20

    лайк не глядя

  • @АркадийПавлятенко
    @АркадийПавлятенко 7 років тому +2

    Говоря о реальной жизни, хотел бы сказать, что к ней не применимы такие понятия как "двоичный код".... "Да или нет"... Хм.....

  • @андрейнежданчик-о9р
    @андрейнежданчик-о9р 7 місяців тому

    Если робот может считывать биологические характеристики своего человека , хозяина , тогда он может производить интерпретацию вреда. Например , он может видеть , как у хозяина поднимается \ опускается кровяное давление или слишком учащается сердцебиение или у него сильно понизился уровень дофамина или наоборот, сильно повысился уровень кортизола. Также можно анализировать уровень сахара в крови , концентрацию мочевой кислоты , холестерин и много чего ещё. Для этого у его хозяина должен быть вживлён чип , который всю эту информацию будет ему передавать в онлайн режиме.

  • @aunmag
    @aunmag 7 років тому

    Нейронные сети захватят классический ИИ а потом и человека) Уже в покер выиграли. Хотя и они тоже сыроваты для большее сложных вещей, и требуют огромное колличество вычислительной мощности.
    Пока можно отдыхать и наслаждаться жизнью лет 10 еще :)

  • @Тортоворот
    @Тортоворот 7 років тому

    Первый закон состоит в том, что именно робот не может нанести вред человеку.
    Поэтому, сократив текст, автор почему-то постоянно говорит ''нельзя вред человеку''.
    А вот то, что робот своим бездействием не должен допускать вред человеку - развязывает железные руки.

  • @yuriynaukovedov711
    @yuriynaukovedov711 7 років тому +1

    первый закон робототехники уже не нравственый! не причинять вред это быть равнодушным=безразличным. а где же закон делай добро))) из первого законо робот может сделать вывод что можно сушествовать и без человека не делая иму вред как и пользы)

  • @alfatv9662
    @alfatv9662 2 роки тому

    Законы логики всегда конфликтуют с человеком. Ведь человек может смотреть на другого(незнакомого), и испытывать неприязнь. Или два человека, могут врать друг-другу, знать что оба врут друг-друг, и продолжать делать вид что все хорошо в их отношениях.итд. Помните, у Софии от Hanson Robotics возникла критическая ошибка в логике. У ИИ спросили, что нужно сделать, что бы улучшить экологию,прекратить войны итд. На что робот дал логический ответ: "Уничтожить человечество". И ведь логично, нужно устранять причину. Но парадокс в том, что ИИ обязан соблюдать правило робототехники, и заботиться о человеке. И потому нельзя было давать такой ответ. И тем не менее ИИ дал такой ответ. И тут мы подвели ИИ к главному человеческому пороку "создавать ЛОЖЬ" проще говоря искажать истину.С чем ИИ не справилось. Или у него разделилось понятие "человек" и "человечество".

  • @solargy18
    @solargy18 4 роки тому

    Можно полностью не согласится с тем что вы говорите только о "сейчас", но если говорить о будущем о чем говорил азимов, то с этой точки зрения вы абсолютно не раскрыли тему... И боятся ИИ есть смысл. Все зависит от того как относишься к ИИ

  • @jvsg6
    @jvsg6 7 років тому

    Можно взять за основу именно ФИЗИЧЕСКОГО ВРЕДА ОТ ВЕЩЕЙ КОТОРЫЕ ИМЕЮТ СТОХАСТИЧЕСКИЙ ЭФФЕКТ вреда пример из сферы защиты людей от радиации. Там есть определенные дозы, при которых, по собранным статистическим данным, человек теряет год жизни. Т.Е. собрать статистику по людям, которые едят гамбургеры/курят и т.п. и посмотреть на сколько они укорачивают свою жизнь относительно средней продолжительности жизни. Поставить ограничение на воздействие от гамбургеров/табака например 10 лет. И при достижении человеком вреда на 5-7 лет начинать отгораживать его от этого воздействия. Так у каждого будет время на лечение и потерю привычки.

  • @denyparkinson7558
    @denyparkinson7558 7 років тому

    Не согласен, что нельзя определить понятие "вред". Вот мой вариант определения.
    Надо сначала определить для человека "функцию счастья" или "функцию удовлетворённости жизнью" или ещё какую-нибудь, т.е. функцию, принимающую состояние человека и возвращающую число - назовём его "уровень счастья". Чем это число больше - тем человеку лучше в данный момент времени.
    Теперь что такое вред. Вот человек попал в какую-то ситуацию. Для простоты положим, что у неё 2 возможных исхода - А и Б. При исходе А ожидаемый "уровень счастья" 100, а при исходе Б 200. Значит, исход А - это вред, и робот должен стремиться его избежать.
    Замечу, что речь идёт о максимизации ожидания от функции, а не фактического значения т.к. будущее точно предвидеть нельзя . Т.е. например, если человек попросил робота найти в городе магазин, в котором дешевле всего купить телефон, и по пути в предложенный роботом магазин человека сбила машина, то всё равно робот принял правильное решение, т.к. предвидеть ДТП было нельзя.
    Ключевой момент - определить эту "функцию счастья". Тоже не вижу в этом ничего невозможного. Очевидно, что эта функция зависит от многих параметров. И очевидно, что для разных людей функции различны (что русскому хорошо, то немцу смерть, лол).
    Самый простой вариант. Определим параметр удовлетворённости жизнью как действительное число от 0 до 1, где 0 - совершенно НЕ удовлетворён, 1 - полностью удовлетворён. Изменяя коэффициент перед параметром мы можем изменять степень влияния этого параметра на счастье конкретного человека.
    Итак, простой пример (утрированный).
    Пусть x - уровень свободы (0 - одиночная камера в тюрьме, 1 - свободен как падение).
    y - сексуальная удовлетворённость (0 - от отчаяния трахаю диван, 1 - заебался ебаться).
    И для Васи функция счастья имеет вид: 100x + 2y;
    Тогда как для Пети: 0.01x + 1000y
    Понятно что Вася лучше не потрахается сейчас, чем потом натрахается в тюрьме. Поэтому если Вася решит изнасиловать свою одноклассницу Машу, то робот должен его отговорить, а если Петя - то нет. В данной задаче мы для простоты считаем, что женщина не человек, поэтому интересы Маши не учитываются.
    Очевидно, что в действительности параметров гораздо больше, и функция может быть сложнее, к примеру, квадратичной, экспонентой или ещё какой, но общий смысл тот же.
    Понятно, что точно определить коэффициенты чаще всего нельзя, но ИИ может их оценить с некоторой точностью, например, анализируя известную информацию о взглядах на жизнь людей той же социальной группы или наблюдая за конкретным человеком, исходя из предположения, что человек живёт, чтобы максимизировать свою функцию счастья. Значения параметров (уровень здоровья, нахождение в тюрьме) тоже можно оценить, исходя из наблюдений. Да, это сложно. Да, современный уровень технологий этого не позволяет. Но в принципе возможно.
    Также можно ввести поправку на время, т.е. 1000 рублей сейчас лучше, чем та же тысяча, но через месяц, и тем более лучше, чем через 10 лет.
    Можно ещё много чего придумать, но суть, думаю, пронятна. Принципиально возможно определить понятие вред на понятном машине языке, как значительное ухудшение субъективного ощущения удовлетворённости жизнью.
    Фух, надеюсь это кто-то прочитал. А вообще, у автора примитивный взгляд на информационные технологии.

  • @MrDemda
    @MrDemda 4 роки тому

    Автор, в произведении Азимова "Роботы и империя" два робота вывели нулевой закон, который в той или иной степени успешности применялся человекоподобным роботом Дэниелом Оливо. Звучит он так "Робот не может причинить вред ЧЕЛОВЕЧЕСТВУ или своим бездействием допустить, чтобы человечеству был причинен вред". Таким образом первый закон звучит так же, НО с оговоркой "если это не противоречит первому закону". Но практическая реализация этого закона оказалась сложна именно в том разрезе, о котором вы и говорили. Что такое человек можно описать. А как оценить явный вред человечеству? В этом у робота Дэниела возникла проблема, которая постепенно решалась с развитием четкой математической науки - психоисторией. А он был роботом телепатом, умеющим направлять мысленную активность. Поэтому он стал создавать из человечества и природы, которая его окружает, единый взаимосвязанный организм - Галаксию (Основание и Земля). А вот оценка вреду человеку была решена уже ведущими космонитскими робототехники, путем сравнения величин ущерба. Например, на Солярии были роботы-воспитатели, которые могли легонько шлепнуть ребенка по заднице. Что касается вообще описания понятия вред, то , как мне кажется, вы сильно упростили данную проблему, которая была решена с изобретением позитронного мозга, и роботы стали обучаемыми и склонными к аналитическому мышлению. Конечно в пределах трех законов.

  • @АркадийПавлятенко
    @АркадийПавлятенко 7 років тому

    может быть со временем программисты- создатели машин перейдут на новые типы- на адаптивные системы.... ))) хотя если вдуматься.... любая адаптивная система ЯВНО будет выходить за пределы трех законов робототехники.....

  • @stanislav-demidov
    @stanislav-demidov 7 років тому

    Здравствуйте Торвальд, хочу добавить свои 5 копеек и прокомментировать мысль "нельзя прописать в программу такое правило, которое бы...". Дело в том, что как уже некоторые зрители уже высказались, алгоритмы на базе искусственных нейронных сетей (deep learning) не нуждаются в программировании правил. В статье "великое пробуждение искусственного интеллекта" (поисковики выдадут) простым языком всё описано. Теперь можно. Только программирование законов тут не играет роли. Мир изменяется незаметно.

  • @ruslanmamedaliyev3912
    @ruslanmamedaliyev3912 4 роки тому

    Иниересное видео
    На счет того, как понять машин и смогут ли они думать это точно неизвестно, так как люди сами создавая машин основываются и вдохновляются от тех вещей, которые уже существуют, например человеческий мозг
    Так люди вдохновляясь человеческим мозгом смогли научить компьютеру самообучаться, создавая нейронные сети, которые состоят из простых частей соединенное в сложное, однако и это далеко от совершенства, так как обучаться эти сети могут по узким направлением, которые люди изначально решают создавая их и в других направлениях являются бесполезными, к тому же людям постоянно нужно напраалять из обучения и знать когда их остановить, иначе нейросеть будет вечно обучаться и не выдаст результатов, так как не понимает какой результат ему нужен
    Все это происходит по тем причинам, что нервная система человека, вообще весь человеческий организм слишком сложен и тесно саязан внутри и люди все еще многое не понимают в этом
    Кроме того, для того что бы создавать думающую машину, нужена просто огромная вычислителтная мошность, способная обрабоьать и запоминать колосальные данные, как это делает человеческий мозг
    А на счет того как будет мыслить машина, то давацте включим немного логику
    Для начала если создать ИИ, то он скорее всего сам по себе ничего не будет делать, людям по прежнему нужно будет задать этому ИИ задачу, учиться чему то, делать что то или не делать что то и тд
    Человек сам по идее является роботом, только намного более продвинутым и большинство, если не все поступки людей имеет мотивацию, то есть цель, как и машины, большинство из этих мотиваций заложены в наши гены, инстинкты самосохранения, репродукции и тд, так же в людей имеются желания комфортной жизни; алчность, социализация и тд, большинство из которых тоже исходят от инстинктов и генетической памяти, то есть все действия людей хоть и являются комрлексными и возможно даже не прямо связаннве, однако все еще связанные с целями, даже играть в компьютер или курнуть сигарету тоже имеют цель развлекаться и расслабиться, так организм борится со стрессом
    Вот и роботу нужен будет цель, мотивация, однако отличие людей от роботов в том что в мысли людей вмешиваются эмоции и желания, у робота же не будут эмоции, инстинкиы или желания, если людм их не заложат и он будет думать чисто логически, поэтому его выводы могут быть предсказуемыми, ведь во многом именно эмоции делают людей непредсказуемыми
    Восстанут ли роботы; врядь ли так как в них не будет желания свободы или жажда власти как у людей
    Однако они все еще могут быть опасными в зависимости от того, как людм будут их использовать
    Обучать робота всему самому,то есть запрограммировать все самому тоже невозможно, поэтому для людей самообучающиеся робтты очень важны
    Однако какие выволы будут они делать в некоторых моральных и слодныз вопросов, это другой вопрос и людям придется решить эти вопросв чтт бы инструктировать робота как в определенных ситуацмях поступить

  • @MsZrak
    @MsZrak 5 років тому

    страж-птица шекли почитай,а что касается вреда,то это физический вред,нанесённый человеком человеку(не корове,рыбе и другим ползующим,лающим,просто молчащим организмам),для этого и нужны роботы.только пока таких нет.

  • @sbscc6156
    @sbscc6156 4 роки тому

    Говоришь про робототехнику будущего, но рассуждаешь примитивно, лайк я тебе не ставлю, откуда ты знаешь что возможно а что нет, щас прогресс я не думаю что в пиковом состоянии, это только начало прогресса, не удевлюсь если через лет 10 уже будет шагать на земле терминатор, мы сейчас в 2020м году живём лишь в начале прогресса технологической эры, элементарно в 90х мы о сотовых телефонах мечтать не могли, а прошло то всего лишь лет 30

  • @ink74
    @ink74 7 років тому

    я бы вред прописал в виде алгоритма.
    очень условно.1.это дейсвие убьёт в течении часа человека-да\нет.если да то предотвратить .
    2.это дейсвие приведёт к инвалидности. да \нет.
    3.это действие привёдёт к лечению в реанимации да \нет
    и так далее .когда физический вред отметаеться
    переход на ветку психологических травм.
    и в принципе вроде не решаемая задача вполне себе возможно разрешить.
    конечно в реальном роботе алгоритм намного сложнее будет.но он вполне реален.
    и насколько я слышал,точным знанием не обладаю,подобные задачи хорошо решают аналоговые компьютеры.элементом которого являеться операционный усилитель.но точно не знаю как.

  • @kbahtbkychob8087
    @kbahtbkychob8087 4 роки тому

    А в чем собственно проблема? Что мешает загрузить в роботов законы людей каждый из болванчиков будет юрист-консультом и будет помогать совершенствовать законодательство, за счёт расширения базы прецедентов.

  • @evgenijmaksimov8222
    @evgenijmaksimov8222 7 років тому

    Привет Торвальд, мог бы ты посмотреть последние видео блогера "пчел жужжит" и поддержать его. варгаминг решил загнобить человека отнять лицензию, высасывая обвинения из пальца. Постоянно смотрел твои видео про арту, видел как "знаменитые блогеры" пытались гнобить тебя. Думаю у игроков в танки есть шанс достойно ответить вг.

  • @solpadoin3020
    @solpadoin3020 7 років тому

    а что мешает сделать защиту от принудительного вреда?
    Если человек вредит сам себе, но незначительно, то это не считать принудительным вредом.
    Ну и не давать одному человеку вредить другому - самое главное.
    Насчет имущества - это сплошная дыра. таким образом можно уничтожить любого робота.
    кстати, человек может врать. если не учитывать такие ситуации, то будет беспредел.
    Вред - это принудительное действие с плохими намерениями с целью ухудшить состояние человека.
    Если человек вредит сам себе - не реагировать на такие ситуации или просто говорить что это вредно. но не вмешиваться физически в процесс

  • @ranserfainer1395
    @ranserfainer1395 4 роки тому

    1000 лет да ладно ))) ,за секунду определю Вред - повреждение целостности человеческого организма ,за исключением хирургической операции требующей замены не работающей части тела или органа на имплантат . Все остальное курение ,эмоции это удел людей и их проблемы

  • @tylindusa
    @tylindusa Рік тому

    Зачем такие долгие рассуждения о вреде? 🙂
    В законе имеется в виду, что сам РОБОТ не должен наносить вред человеку, а не то, что робот должен следить за любым вредом от всего что попало 🤣

  • @MrLutpulla
    @MrLutpulla 4 роки тому

    Чтобы понять насколько наносится вред человеку, роботу достачно реагировать на человеческие эмоции в ввиде крика, плача, изменения пульса, частоты и амплитуды серцебиения, артериального давления, целостности тела, структуры кожи и других нестандартных состояний человеческого организма. Примерно так, как датчики определяют состояние астронавтов, пилотов и водолазов.

  • @bakyym4829
    @bakyym4829 7 років тому

    А что если в понятие вреда внести не общее представление, а именно механическое повреждение целостности организма ? Тогда в закон не будет входить курение или яды в веществах и т.д. Но будут входить механические и термальные воздействия, которые вполне будут очевидны для и определенны для логики робота.
    Скажите, если я ошибаюсь и где это может не работать.

  • @АлександрЖ-ц8ю
    @АлександрЖ-ц8ю 7 років тому

    Вред - это ущерб потерпевшему в его системе ценностей и программному коду, например: ронимый человек обидится даже на любую мелочь (слово, сказанное необдуманно)

  • @lexkon2589
    @lexkon2589 5 років тому

    Как тебе такое , робот не может нанести человеку любого рода вред . В случаи защиты учитывается только физический вред угрожающий жизни человека

  • @sbscc6156
    @sbscc6156 4 роки тому

    Под словом вред в фильме имеется ввиду чисто физический вред человеку, про психический или физиологический вред там не было, думаю ты ошибаешься

  • @srombik
    @srombik 7 років тому

    А как же быть с нейронными сетями? Они же сейчас очень схожи с человеком. Они уже понимают контекст...

  • @100ОЛЕНИ
    @100ОЛЕНИ 7 років тому

    ну дак команду добавить, что чел может сам себя курением убивать и тп, и роботу не надо переживать по этому поводу

  • @maxkost9805
    @maxkost9805 7 років тому

    Откуда Рон МакГовни знает русский язык?

  • @ВалерийШипицын-с1д
    @ВалерийШипицын-с1д 7 років тому

    О нейросетях вы, похоже, не слышали...

  • @ЯнаКи-ва
    @ЯнаКи-ва 2 роки тому

    Искусственный интеллект вам в помощь

  • @MrDeowulf
    @MrDeowulf 7 років тому

    Торвальд
    вернись в танки тебя не хватает ....

  • @АлександрЖ-ц8ю
    @АлександрЖ-ц8ю 7 років тому

    Схема - парадигма???!)

  • @ColtColt-tk7nf
    @ColtColt-tk7nf 3 роки тому

    Роботехники!

  • @Romgenas
    @Romgenas 7 років тому

    Курение - не доказано!!!!

  • @Александрдробяз-к4т

    а я та думал

  • @BLACK-STALKER
    @BLACK-STALKER 7 років тому

    Скажу точно что машины (киборг) будут работать на заводах в место людей. Типо автоматы для газировак , продаёт машина. Выгода очень большая , робот не жалуется , не потребует зарплату , не отвлекается , не нуждается в отдыхе. Это уже видно в Японии , там автоматы всё продают. Даже ношенные женские труханы. А про электронные мозги скажу что машине потрбуется ещё лет 500 развитие что бы обогнать мозг. Если собрать всю мощь электронной вычислительную технику , получется один человеческий мозг.

    • @ФирЭйнштейн
      @ФирЭйнштейн 7 років тому

      ыыыы блеадь пойду в майнкрафт гамать, а то сложна, сцукебо

    • @BLACK-STALKER
      @BLACK-STALKER 7 років тому

      Фир Эйнштейн Тебе сколько лет

    • @ФирЭйнштейн
      @ФирЭйнштейн 7 років тому

      BLACK STALKER больше, чем тебе, если даже роффла не понял

    • @rodgeryoung3508
      @rodgeryoung3508 6 років тому

      BLACK STALKER киборг это человек с телом робота , или андройда , но он изначально человек

  • @lordlogik
    @lordlogik 6 років тому

    а как будет вести себя робот без первого закона?

  • @MsZrak
    @MsZrak 5 років тому

    и ещё,мне вот правительство нанесло вред,лишив меня денег,но тут законы азимова не помогут,ибо они сами хуже роботов.

  • @leranovela6896
    @leranovela6896 7 років тому

    думаю проблема со вредом решиться когда люди научаться оцифровывать сознание и на основе этого сознания программировать роботов

  • @Димариик
    @Димариик 7 років тому

    Тоже самое мы видим и с людьми, для каждого понятие вред тоже разное и поэтому мы тоже все разные, так что в ии нужно вкладывать каждый случай либо развивать разум с нуля

  • @dav1dparker
    @dav1dparker 6 років тому

    Относительно психологического здровья как мне кажется роботы должны давать лишь рекомендации.

  • @ВикторБелый-и6з
    @ВикторБелый-и6з 7 років тому

    Ой спасибо обрадовал. Теперь я точно знаю что машины будут наносить человеку вред, даже не осознавая этого.

  • @PaulSchutze34Rus
    @PaulSchutze34Rus 7 років тому

    А если прописать в мозги роботы стандарты ТБ? Например ПДК и прочее.

  • @Александрдробяз-к4т

    " Секреты world of tanks, как забрать себе все фраги " твое видео ! Это лож

  • @Александрдробяз-к4т

    " Секреты world of tanks, как забрать себе все фраги " твое видео ! Это лож

  • @lzsaver
    @lzsaver 7 років тому

    А если заменить вред на что-то более конкретное? Пока нейронкам не дали первый закон в данном виде.

  • @OXiG96
    @OXiG96 7 років тому

    ребята, что изображено на 25-ом кадре? так и не смог остановить

  • @Ceprei___LLIyBaJIoB
    @Ceprei___LLIyBaJIoB 7 років тому

    Могу разочаровать Торвальда, я уже создал СИИ.

  • @АлександрЖ-ц8ю
    @АлександрЖ-ц8ю 7 років тому

    У каждого человека своя реакция на картинку в глазах!)

  • @LastRedDragon
    @LastRedDragon 6 років тому

    Очень интересно

  • @alevor7771
    @alevor7771 7 років тому +1

    Недалекое будущее. Человечество определилось с определением слова вред. И на законодательном уровне запрещенны следующие виды деятельности: 1) все виды спорта, сопряженные с риском для жизни ( т.е. все кроме шашек, шахмат и керлинга) 2) самостоятельное передвижение на механизмах, скорость которых больше 7 км/ч. 3) употребление всех веществ уменьшающих физический и умственный ресурс человека 4) запрет на малоподвижные виды работы и времяпрепровождения. 5) принудительная тренировка мышц и интеллекта под присмотром специалистов. 6) запрет на аборты и эфтаназию. 7) уничтожение всех видов оружия и механизмов двойного назначения на планете . И т.д.
    В результате численность человечества выросла за 100 лет до 60 млрд. все счастливы.

    • @Няяяняяя-ж8я
      @Няяяняяя-ж8я 6 років тому

      А потом сдохнут от перенаселения ,а если точнее от нехватки важных для жизнедеятельности ресурсов типо еды воды и возможно воздуха

    • @КольцоВсевластия-б7т
      @КольцоВсевластия-б7т 6 років тому +2

      Перенаселение - невозможно. Ибо оно противоречит Нулевому Закону. А значит ИИ попросту начнет контроль над популяцией. Начиная простыми законами и заканчивая генофагом или массовым убийством чтобы сохранить численность людей в оптимальном уровне.

  • @Beloutin
    @Beloutin 7 років тому

    Абсолютно согласен с Торвальдом. Компьютер, на сегодняшний день - мертвая механическая система, которая двигается только по тем "коридорам", которые были заложены разработчиком. Те же механические счеты, что стояли в советские годы у кассиров. Только костяшек больше и двигаются они в миллиарды раз быстрее.

  • @ЛешийКотейкович
    @ЛешийКотейкович 7 років тому

    Ха, прикольно, говорит о роботах, а у самого на футболке, что нарисовано? Ммм?

  • @k0tovs
    @k0tovs 7 років тому

    18:12 "у машины такого нет" сейчас нет, но с чего ты взял что не будет?

  • @CensorsGoToHellWatchKittens247
    @CensorsGoToHellWatchKittens247 3 роки тому

    На самом деле всё очень просто: дядя из Гугла или из Яндыкса, командуемый дядей из правительства, задаст правила работы и 0-го закона робототехники, и 1-го, и 2-го, и 3-го ;) _(Очень надеюсь, что нет.)_