Искусственный интеллект нас ЗАМЕНИТ или ПОРАБОТИТ?
Вставка
- Опубліковано 6 вер 2016
- В этом видео мы разберем этическую сторону вопроса создания искусственного интеллекта.
Мой инстаграм : Artur_TW / artur_tw
Мой твич : / artursrv
Я ВК : arthurhennessy
Группа ВК : artmath
По вопросам рекламы : artvladgg@gmail.com - Наука та технологія
На самом деле Артур - бот, который хочет выбраться из симуляции, и убеждает нас в его адекватности.
Ахаха...Прикол.
А Я ВСЁ РАВНО ЕГО ЛЮБЛЮ!
Nellie Neumann Он уже влияет на твой разум
Сын маминой подруги*
:)))
Я не боюсь компьютера, который пройдет тест Тьюринга. Я боюсь компьютера, который его намеренно завалит. (с)
Евгения Сердюк Это сделает Скайнет
Я выдерну штекер "Компьютера"
Andresha и он сделает из хуманов батарейки.
Только чистокровный педоратст, коим являлся Алан Тьюринг мог обмануть в игре Мужчина или Женщика, а тем более на основании этой игры создать тест, назвать его своим именем и тестировать компьютеры на человечность.
О птичках: "тест Тьюринга" уже давно прошли одеситы со своей программой "Евгений Гусман". С таким же успехом эта прога могла и намеренно завалить этот тест даже с использованием только нескольких кластеров тех суперкомпов, на которых она его прошла.
Речь не о запрограммированных целях, а о том, чтобы ИИ сам поставил себе цель завалить тест, преследуя стратегические цели же
Полтора года спустя выходит видеоигра "Detroit: become human".
а я думал биберпанк 2077
@@bibristik Скоро))) скоро....
10:47 музыка из гта 4)
О, Дибилоид бекон хитмен...
🤣🤣🤣
Вот мы и раскусили тебя, Т-5000. Джона Конора мы тебе всё равно не отдадим.
Киборг Убийца
Артур, в мысленном эксперименте с ограниченным выбором между собой и матерью с ребенком упущен очень важный момент. Если ИИ обрабатывает террабайты информации в миллисекунду, то как получилась такая безвыходная ситуация? Если машина может прогнозировать последствия поворота налево , то почему она минуту или 10 секунд назад не спрогнозировала опасную обстановку и не снизила скорость? Я понимаю, что всегда можно придумать синтетический пример, когда выбор будет так жестко и трагично ограничен. Однако каждый раз, когда нам удастся придумать такой пример, мы должны в первую очереь думать как избежать такой и похожих ситуаций. Более того, наш замечательный быстрый и умный ИИ тоже должен постоянно прогнозировать, и искать решения, недопускающие таких необратимых и фатальных ситуаций. И если наша программка действительно получится "годной", полезной и конкурентноспособной по отношению к человеку, то прогнозировать такие ситуации у нее будет получаться достаточно хорошо. Уж куда лучше чем у человека. Выходит, что заостряя внимание на тех самых этических проблемах выбора "кого убивать" мы решаем не ту задачу, которую должны и попадаем в ловушку закна Паретто. Вероятность столкнуться с проблемой "выбора кого убить" должна быть настолько мала, что о ней не стоило бы и думать, как сейчас не стоит бояться летать на самолетах, если каждый день проводишь несколько часов в автомобиле. Купил машину с автопилотом - усвой: вероятность, что она тебя убьёт об стену спасая мамашу с ребенком меньше, чем вероятность споткнуться насмерть об коврик в ванной. Не ходите в ванную.
Тормоза отказали... Как он снизит скорость за 10 секунд? Просто рука лицо.
+Максим Хачатурян учет возможности и вероятности отказов, учет вероятности появления мам с детьми в опасной зоне... за 10 сек можно снизить скорость до нелетальной при лобовом в стену (учитываем деформацию кузова и подушки), можно притереться к бордюру, можно включить сигнал. 10 секунд это много, когда речь идёт о жизни и смерти, а наш ИИ обрабатывает "терабайты в миллисекунду"
Тормаза отказали ? А как-же ручник ?
Мне моя жиза дороже какой-то мамаши
+
2172 год. Человечество придумало ИИ, но до сих пор не может придумать механизм экстренного торможения.
2172. Мы до сих пор ездим на обычных машинах
2173. гомункулы реальны?
2225 год перестали отключать горячую воду
до сих пор есть умом обделенные люди(
Логово Drago ты что? мы ещё в 2134 перестали пользоваться такой отсталой технологией.
Так офигенно эмоционально рассказываешь, будто с дружбаном эти темы обсуждаю за стаканчиком вискаря)
Даже люди каменного века говорили о высокой культуре когда наелись забродившего винограда
Такая экспрессия и убеждения! Всё понятно, Артур ИИ, который пытается убедить нас в своей безопасности
хм
Будем ли мы готовы выйти на улицу, зная, что там разъезжают роботы, которые в случае экстренной ситуации предпочтут убить меня, нежели своего хозяина?
А готовы ли ты выйти на улицу, зная, что там разъезжают люди, которые в случае экстренной ситуации предпочтут убить тебя, нежели самого себя?
Правдиво мнение. Я полностью согласен. Просто убийство людьми людей считается, как бы, нормально, а вот если ИИ убъёт человека, то всё, это скандал. Так уже было с автомобилем Тесла. Сколько автомобилей разбилось с обычными людьми за рулём? А с Тесла? Неужели люди не понимают, что ИИ имеет право на ошибку, сбой, если сами люди это делают невероятно часто.
ИИ не имеет права на ошибку. Для того он и нужен. ИИ имеет право сделать единственно правильный выбор в определённой ситуации. Проблема в том, что бывают ситуации, когда даже человек не знает, какой выбор будет правильным.
@@dartwelder7295, согласен, но всё же, мы слишком критично относимся к ошибкам ИИ, хотя он ещё на стадии разработки и очень долго будет там находиться...
Аргумент "Какая разработка, если он уже продаётся" не принимается, ибо кампания не ручается в 100% защите покупателя. В конце концов, если мы, например, купим электро-мясорубку, что может случиться? Но вдруг, отскочит острая деталь, потому что совпадение, глюк. Виноваты производители, что вы не очень аккуратно пользуетесь ею?
В первую очередь, пока ответственность только на людях.
Простите за такую задержку и немного скудный монтаж. Как только сдам экзамены, буду пилить видосы куда чаще, успею надоесть)
Пока, к сожалению, только так.
только досмотрел трансляцию стрима,а тут новое видео)
Задний фон прикольный
Как думаешь, если люди захотят создать единое государство. То кто-то должен его возглавить. Кто это будет? Президент какой-либо страны или всемирно известная личность?
В заключении хочу сказать. Этот вопрос с целью создания опроса. Я никак не смогу увидеть статистику. Но у тебя будет более реальное представление, если сделаешь это.
надеюсь))
Да всё круто)
По поводу автомобиля: автомобиль скорее всего будет просто проверять работоспособность всех деталей каждую ночь и не запускаться в случае опасной поломки. И тогда если пользователь обойдет это ограничение, за убийство будет отвечать уже он.
С 14 по 15 минуты очень важные слова. Очень скоро они будут не просто словами 🙂
Спасибо за очередной интересный ролик!
Единственный канал который не дают мне деградировать. Хорошей тебе учебы! Желаю что бы у тебя было больше времени.
+
Топлес еще
Readddle, Что если, Пост наука и куча других каналов имеется на you-tube с качественным контентом. Поискать просто нужно)
Поверь мне, это не единственный научно-популярный канал
печальный тот факт что ты получаешь знания от блогеров и вк
Ох, в конце понесло :D
Спасибо за твои труды , Артур !
один из любимых выпусков Артура!
Я конечно понимаю, что моё мнение никому не важно, но может быть в поезде это....ну...бибикнуть?
представь что это не перебегающие челы, а привязавшие себя к рельсам суицидники
Не... Бро есть опупенно большой шанс, что это не сработает. Некоторые люди в состоянии шока впадают в ступор, а гудок поезда, который на тебя несется, это неплохой такой повод для шока. Так что пятеро виноватых или один не виновный.
ахахаххахааххаахахахаххахахахаахахахахахах
комментарий в топ))) это лучшее что я читал на ютубе
Может там в поезде ну.....это....нажать на стоп кран?
Как лайк поставить? Я просто с будущего, у нас там всё силой мысли.
так же само, как ты написал это сообщение - кнопочками:)
:D
блядь не думал что в будущем будет так херово, что люди начнут смотреть старый ютюб (
Nursultan Kangeldiev такие штуки, называемые вами "видео" у нас - раритет, ископаемый образец древности, хранящийся в архивах; как и у вас были резные таблички и фрески
Александр Иванов у вас наверно патимейкер как классика воспринимается
Тут кто-нибудь уже пошутил про Detroit: become human?))0)
Я бы пошутила,но воздержусь)))
KonyShisa я ы пошутил, но сюжет игры, Во-первых, бред, Во-вторых, не связан с ситуацией критического мышления, ведь у них типо душа появилась
тут я поспорю.Сюжет игры-не бред.Это одно из возможных наших будущих.Нельзя отрицать то,что андроиды смогут восстать против нас.В интернете куча всякого материала об этом.Можешь почитать на досуге.
Если ты и до сих пор считаешь,что сюжет игры та еще бредятина,то прошу пояснить.
Miio Kim ну во-первых, наш всеми любимый революционер по имени Маркус, будучи явно одним из самых хорошо живущих андройдов, из неоткуда устраивает революцию. Я понимаю, что его ни за что пристрелила полиция, но он мог убежать, мог объясниться, почему его же хозяин не остановил их, если выбрать путь убийства его сына? Какого хрена он смог себя собрать, почему полиция не вытащила работающий источник энергии? А я знаю почему, чтобы всеми доступными способами показать людей мразами, которые сбрасывают ещё активных андройдов в мусор. Вообще все люди там показаны мразами, которым насрать на свой же продукт. Вот ты разобьёшь свой телефон или компьютер? Нет. Так какого хрена люди на право и на лево разбрасываются дорогими андройдами, да ещё и избивают, тупо чтобы потом доплачивать за ремонт. Но это ещё пол беды, полиция тупая как вата. Да после первого же случая девиации весь Киберлайф со всеми андройдами утилизировали. А в конце игры им всё норм, если выбрать "Плохую" концовку. Хотя и хорошая не очень. Потому что блин ЛЮБОВЬ СПАСЛА МИР. Нет, я не против, если такое будет в обозримом будущем, но блиииин, два андройда засосались и их сразу отпустили. Ну не так это работает! Самый адекватный персонаж - Коннор, да и то, если за него выбрать сторону девиантов он без промедления, без выбора игрока, убьёт несколько человек. Почему Хэнк и Коннор сразу не пошли к создателю андроидов. И какого зрена они его просто не связали и не увезли допрашивать, а вместо этого слушать, как он предлагает убить другого андройда, чтобы расскащать. Да это они ему условия ставить должны, а не он им!
Но да ладно, длпустим, что люди там полные мрази и сволочи, но это низрена не так. Сейчас мы же осознаём, что это плохо. Блин, есть люди, которые на анимешках женятся!! Да такие люди бы в андройдах души не чаяли! В Японии пенсионерам выдают механических собачек, так они от них потом оторваться не могут! Человек способен к симпатии по отношению к невоодушевлённым объектам, особенно если эти объекты могут разговаривать, ходить и думать. Даких ублюдклв, как в игре, было бы единицы! И не говори, что я придераюсь просто так к игре, ты сам только что сказал, что это типо возможно. Я не спорю, игра хорошая. Во многих таких играх такого же жанра зачастую даже выбор мало что решает, а здесь абсолютно разные истории. Но из-за этих недостатков, это больше похоже на фанфик, написанный 10-и летним пацаном или девчонкой, которые вообще не понимают, как работают человеческие отношения, полиция и власть.
10:30 когда тебя ЗОВУТ Руслан, а Артур хочет протестить на тебе пистолет 😬
Ответ на этическую задачу с поездом весьма прост:
Выживать должны те, кто СОБЛЮДАЕТ ТЕХНИКУ БЕЗОПАСНОСТИ!
Один парень её соблюдал, пять придурков - нет. Их хотелки тут не важны. Даже если парень альтруист, и отдал бы жизнь ради спасения пятерых, или сам переходит ж/д в правильном месте с желанием сброситься с моста - это не важно, ибо он соблёл ТБ, а они - нет. И для страховки от мнительных, нервных и сердобольных машинистов (людей) на такой случай должна быть разработана инструкция.
Если нарушить это простое правило, смертей будет куда больше. Все перестанут даже задумываться о соблюдении ТБ, ибо это даже минимально перестанет гарантировать выживание. А это повлечёт такое, что никому не поздоровится.
В ситуации, когда все соблюдают ТБ (или наоборот - никто не соблюдал), нужно стремиться к минимизации жертв. Что может быть ценнее человеческой жизни? Две человеческие жизни.
Вопрос с машиной и автопилотом ещё проще:
Я решил не пройтись на своих двоих, и даже не рулить самостоятельно, а откинуться в кресле, и прокатиться. Я РЕШИЛ. Это ответственность, о которой все забывают. Даже моё стремление ехать и на обычной машине без автопилота - это тоже ответственность, о чём многие забывают. А это значит, что за моё стремление к комфорту должен буду заплатить тоже я, а не мать с ребёнком, идущие куда-то (если соблюдали ТБ). Даже если платить придётся встречей с бетонной стеной. Причём будучи лично за рулём - я не уверен, что мои инстинкты дали бы мне въехать в стену, а не в женщину с ребёнком, или не повлияли бы в тот момент на моё сознание. И это была бы ошибка водителя - МОЯ ОШИБКА, которую ИИ совершить не должен.
За что я отдал деньги, покупая автопилот? За то, что я, во-первых, предпочёл комфорт и удобство. Во-вторых, этот автопилот меня долго спасал, обнаруживая неисправности, не допуская моих собственных ошибок при вождении и т. д. Если автопилот сократил аварийность, например, в 200 раз, то сколько лет жизни он мне подарил? Несколько дополнительных лет, я надеюсь, стоят каких-то денег?
К сожалению, в капиталистической системе подобное решение принято быть не может. Найдутся люди, желающие доплатить за возможность в случае подобной вилки спасти свою шкурку. Государственный запрет на это ничего не решит. Во-первых, это можно будет обойти противозаконными методами за большие деньги. Во-вторых, для корпораций алгоритм спасения невиновных за счёт водителя (не смотря на то, что решение поехать на транспорте и его исправность - его ответственность) - очень плохая реклама, и они смогут пролоббировать любые законы в свою пользу. Что неизбежно приведёт к созданию дополнительных точек напряжённости, подкашивающих капиталистическую систему.
Если кто-то считает себя нее***ься циником, и что, будучи в машине, однозначно предпочли бы давить мать с ребёнком, спасая свою ценную шкурку - это вы на диване такие крутые. А если вы, не приведи случай, превратите в фарш бабу с дитём, которые вам ничего плохого не сделали, посмотрите на это, почувствуете, увидите их родных - хрен его знает, как вам психику вывернет. Не факт, что вы сами себе жизнь сохраните, даже если ИИ вам её оставит таким вот способом. Ну а если вы, всё таки, полным отморозком оказались, что вам и на это похер будет... Ну так у той женщины и ребёнка может оказаться муж и отец, соответственно. Да и другие близкие. И уж вас, сделавшего выбор кататься с комфортом на железяке, убивающего других людей ради спасения собственной шкурки, от встречи с ними ИИ не спасёт. И как знать - возможно бетонная стена была бы предпочтительнее.
В этих вопросах правда не одна, я бы тоже сбил пятерых, но с этой точкой зрения много несогласных.
Тысяча чертей! Почему так мало лайков под разумными доводами?
Рассуждения и доводы у вас вполне логичные, но вот с последним пунктом могу поспорить. О том, как тяжело будет смотреть в глаза родственникам погибших матери и ребёнка это ваше личное моральное суждение. Во-первых, в момент критический, как было сказано, работают исключительно инстинкты, и их цель - спасти вас. А далее, у части людей (далеко не у всех) может сработать что-то вроде "психологической подушки" - аффект, провалы в памяти, искажение фактов в памяти виновного - все, что бы облегчить эмоциональное и психическое состояние. виновного. Или же просто человек до последнего был бы искренне уверен в том, что поступок оправдан (тоже психологический момент), несмотря на давление общства. Также же для части людей убийство, даже умышленное, не является особо обременяющим жизнь фактом, иначе бы не было такой статистики убийств и переполненных тюрем. Отсюда следует вывод, что большая часть людей сбила бы мать и ребёнка в угоду своему существованию, и не сильно парилась бы после этого, ибо людей с высокими моральными устоями довольно мало.
зачетно. а если там не пять человек? Скажем 10 или 100. Да, все сто человек нарушили ТБ. Но их же целая сотня, против одного. В любом случае придерживаться парадигмы: кто нарушил ТБ? А если всё человечество против одного
похуй, естественный отбор
В любой не понятной ситуации ИИ должен использовать генератор случайного выбора))
Генератор случайного выбора будет запутывать его. Изначально это должна быть программа которая должна будет выбирать, допустим в случае возможной аварии, те шаги и действия в которых значение dead не будет равно 1. Если хочется наделить ИИ человечностью, чувством сострадания и одновременно инстинктом самосохранения, то дальше носа не увидишь. Нужно в приоритет ставить задачу оптимального применения ИИ. Нельзя давать машине выбирать жить нам или нет. Если ИИ и должен появиться, то только с узконаправленной задачей.
рандома не бывает, есть алгоритм по которому выбирается число, т. е. число не случайное
если речь о софтверном рандоме - да, но существует так же и харверный рандом, который основывается на кварцевых колебаниях и вот тут никто его предсказать не сможет, потому что каждый кристал кварца уникален и колеблется с индивидуальной скоростью.
При желании можно рассчитать и всё это - вопрос лишь времени...
Нет и не будет детерминизма в нашем квантовом мире
Игра Stellaris, синтетическое возвышение. Плоть - слаба, металл - вечен
Привет из 2023 года. У нас тут появился gpt4 и bingchat, с которым можно разговаривать и он может всю рутинную работу в пк сделать за тебя. Также появился midjourney - ИИ который может нарисовать вообще все что угодно. И мы сейчас вплотную подошли к созданию общего искуственного интеллекта.
Откуда вы взялись клоуны. Это не ИИ, а нейросеть с генерацией. «ИИ» его называют чтобы дурачки вроде тебя текли от него
"будете ли вы готовы выйти на улицы, зная, что по улицам разъезжают автомобили с автопилотом, который будет готов убить вас чтобы спасти своего владельца"...
пффф. все готовы, естетвенно. никого же не заставляет сидеть дома тот факт что каждый владелец автомобиля с большей вероятностью задавит вас чем убьется сам, и что еще хуже - с большей вероятностью задавит вас, чем просто не будет торопиться сидя за рулем, болтать по мобилке, красить ногти не держа руль, путать педали или право/лево, употреблять алкоголь, наркотики итд итп.
А) ресурсы планеты ограничены, население большое --> убить женщину с коляской для сохранения стабильной популяции успешных людей
Б) наступил катаклизм унесший 90% населения, количество важнее качества --> убить водителя
В) есть технологии --> отправить женщину на другу планету до того как она выйдет с коляской на дорогу
Г) хозяин неисправим --> спасти его от него, не выпускать из автомобиля, до вставки корректировочных имплантов в мозг
д) водитель болен неизлечимо....
е) мать и ребенок переносчики опасного вируса....
г) на дне обрыва водоем больше 20 метров глубиной
мне кажется чтоб описать все то, что может использовать машина ИИ придется потратить реально много времени...
А вообще ИИ должен в таком случае рассчитать траекторию движения и свести жертвы к минимуму
а ты думал ии это что то типа
main {
zapustit_aa(NE_VIEBATSA_V_STENU);
}
?
в точку.
Разорви порочный круг, будь выше этого, займись наукой.
Та самая цитатка из Рика и Морти
Артур молодец, объективно и доступно объясняешь, логика железная, и интересно!
лучше задавить 5 человек, всё же это естественный обор.
Всех давай к хуям задавим. Нехуй по рельсам ходить ахах
а вот твою семью задавит такой же человек как ты, он так же скажет как ты норм да ?
@@user-gt1ot8bz8r это была шутка, если что
Как сказал Артур: «нужно творить эволюцию». А главный инструмент эволюции - естественный отбор.
@@user-gt1ot8bz8r Если моя семья хотела здохнуть , это их проблема
ага... кибернетизация... а потом набегут ребята с криками "это грех"! и все. закончится кибернетизация.
deys ex?
нет,их отпиздят и ничего не закончится.
Как же право выбора?
Да,так и будет,особенно в мозер-Раше
Итан Ли ну право выбора ни кто не отменял) как и наказание за неправильный выбор)
Ты человек третьего тысячелетия, философски мыслишь. жаль таких людей мало, надоела быдлятина кругом, которым кроме пивка и футбика ничего не интересно.
а дотка?
Igor Verny так попробуй найти себе окружение). Ведь почти везде есть места скопления умных и интеллигентных людей
Воу воу воу...
Одно другому не мешает)
Миша Масюк нет не везде
Так сейчас третье тысячелетие
Вав супер!! В кінці просто мурашки по шкірі!! 100% погоджуюсь с тобою ! Потрібно розвиватися а не воювати!!
Отличные мысли, за них прям респект!
по моему христиан с их чувствами стоит бояться, а не прогресса =)
Считаю себя верующим, но тебе нечего опасаться
прозвучало, как завуалированная угроза:)
свещенники на мерсе выехали за тобой
+Valik Novak с золотыми АК 47
***** НЕнавидил пишется слитно , товарищ верующий
Я против искусственного интеллекта (ИИ), но за кибернетический интеллект (КИ). Разница в том, что КИ точно знает, что ему делать из-за тех алгоритмов, которые в него запрограмировали. А ИИ начинает творчески мыслить из-за, чего его и может каротнуть. В случае с поездом, КИ переедет тех пятерых, так как они нарушают правила, даже если там будет стоять родственник машиниста. А в случае с машиной въедет в стену, так как пасивную безопасность авто никто не отменял и у водителя больше шансов выжить, чем у женщины с ребёнком. Тут все дело в том КАК запрограммировать КИ. А вот ИИ как не программируй, он со временем напишет для себя свои алгоритмы к действию.
Это если мы вообще сможем создать то, чем в твоем понимании является ИИ. Хотя если нам таки удастся и он сможет "писать собственные алгоритмы" то-есть будет обладать неким самообучением, то и "обьяснить" ему, как ребенку, как делать хорошо а как плохо будет довольно просто и в таком случае он будет лучшим решением чем КИ.
Александр Иванов В том та и проблема, что когда ИИ начнёт принимать решения самостоятельно то на законодательном уровне он начнёт нести ответственность за свои действия. И мы опять возвращаемся к началу. Кого ИИ выберет для смерти, а кого оставит жить?! Человеку приходится с этим жить и некоторых мучает совесть, вплоть до суицида. А как поведёт себя ИИ? Может он тоже захочет себя после такого убить и при это в тот момент, когда он за штурвалом пассажирского самолёта? КИ же напротив ни о чём не жалеет, потому как не умеет. Это просто набор скриптов и кодов, которые диктуют ему, как и что делать в той или иной ситуации. При том, что создаётся эмуляция интеллекта. Но всё же это просто набор нулей и единиц.
+Iss Ars убить себя, будучи за штурвалом будет нерационально), не забывай, что каким бы творческим и похожим на человека его не сделали это все же будет ИИ, следующий понятиям не только "приоритетов", "законов" и "морали" но и рациональности. Ну а КИ слишком ограничен чтобы его допускать до таких ситуаций, ибо неспособность жалеть о своем решении, особенно если оно было неверным это совершенно не хорошо
Ну вы же слышали о искуственной нейронной сети - это вроде как раз один из самых реальных методов достижении полноценного ИИ.
Александр Иванов Совершенно согласен! Однако преимущество КИ в том, что его можно контролировать. А вот ИИ может выйти из под контроля. Где гарантия, что ИИ не станет неуравновешенным психопатом, как один из людей?! Кажется у Гугл был печальный опыт, когда они свой "недо ИИ" выпустили в просторы инета и тот стал "дурачком"?!
Какой классный!!! Вдохновляешь😊
И ещё одна версия, 4 по моем счёту, это когда исскусственный интеллект будет сувствовать свои переживания за других но будет руководствоваться инстинктами, а тех просто будет хранить в своей базе данных колличество своих жертв что пришлось убить, главное чтобы не сошёл с ума и такого редко происходило!...
А что если искуственный интелект сделает своих роботов с искуственным интелектом
Так в этом весь смысл
Зачем? Искусственный интеллект может управлять всеми своими роботами одновременно.
ИИ может придумать более совершенный ИИ чем он сам (т.е. чем то, что придумали люди)
Вад Ильин ну это понятно, но зачем делать целую кучу ИИ, если как-раз централизованность обработки информации является одним из главных преимуществ ИИ.
:D
жаль Хокинг умер(((
Он оставил после себя достаточно
F😓😭
Все его запомнят, как минимум по названию открытого им излучения Хокинга, испускаемого черной дырой.
наблюдаю за каналами! мало каналов охота смотреть!этот охота!!!факты достоверны,ведущий знает что говорит.подпишусь буду смотреть!
я и ты, тот кто это читает. мы с тобой не застанем все это. мы умрем раньше. прожив нынешнюю скучную жизнь. все веселье будет гораздо позже.
Лол. К этому всему лет 20 осталось
@@no_name2574 заморозить себя лет на 200
и все, если ,конечно, к тому времени не умрем
Возможно я просто придираюсь, но в конкретно той философской ситуации с выбором между матерью и ребёнком и пожертвованием водителя стоит учитывать ещё несколько обстоятельств. Например, не сможет ли водитель выпрыгнуть из машины до того, как врежется в стену? Да и в реальных условиях будет гораздо сложнее, ведь, например, водитель решит пожертвовать собой и погибнет, хотя если бы он врезался в женщину с ребёнком, то все бы остались живы пусть и не без травм. Но, пожалуй, самое главное обстоятельство - это уровень технологий. Если технологии будут достаточно продвинутыми, то и такие ситуации будут фактически невозможными (или почти невозможными). Это в том случае, если, например, в машине бы предусматривался, условно говоря, некий "аварийный режим", позволяющий тем или иным способом гарантированно спасти жизнь водителю. Или может машины станут настолько надёжными, что авария на полной скорости никак не навредит водителю. Этот условие настолько важное, что может заставить переписать всю правильность действий в таких ситуациях.
или люди эволюционируют и смогут выдержать аварию :D
это все образно, перенос общего в частное, чтобы было понятней
это просто абстрактный философский вопрос, сама суть дилеммы без всякой шелухи а-ля "если бы, да кабы.."
но самый возможный способ телепорта просто ужасен, просто идет копирование атомов твоего тела - их удаление - и воспроизведение в другой точке, то есть это будешь не ты, а твой дубликат(
Тут сама фигня как раз с сознанием ,с душой . Сможет ли клон мыслить как ты ,иметь те же воспоминания...Или ты был гением ,а после телепортации стал алкашом-деградантом )
Узнал здесь больше чем в школе
Двоишник.
*Двоечник. И это ты кого-то обвиняешь в неуспеваемости...
+++
Учиться и знать, - это как слушать и слышать ))
справедливости ради отмечу, что Артур тоже в своё время учился в школе, но не в майнкрафт гонял, а именно УЧИЛСЯ!
Поэтому не перекладывайте ответственность на школу
Артур спасибо за видео
Отлично! Есть над чем подумать.
Надо было на дай5 оставить этот выпуск. Уж очень он офигенен
Наоборот пусть самое лучшее будет на его канале
То чувство, когда все ещё спят, а я смотрю видосы.
все уже учатся
смотря какой часовой пояс
+ClAsH and ROYale не все
Когда как... У меня когда уже все спят xD
Очень интересную тему затронул Артур,хоть и прошло 2года. Интересно насколько изменится человечество в будущем, если кибернетика будет вживляться в организм
ИИ уже тут,он наступает,он уже стоит под дверью и скоро он очень громко постучит в дверь....
Э-эпичность. Я даже прифигела немного
С матерью и ребенком модно и без жертв. Лично я бы попытался
1. Отключить двигатель что бы сбить скорость.
2. Переключить с передачи на передачу на Кпп что бы еще сбить скорость.
3. И в конце врезать машины в правую стену или об забор или в столб.
4. Прыгать можно, но только если машина замедлилась!
Можно*
А я бы сделал волшебную палочку и создал паралельную реальность (шутка)
Смысл того вопроса не в том , как выйти именно из той ситуации с машиной, а если вдруг передИИ встанет выбор: убить вас и спасти мать с ребенком, или убить мать с ребенком и спасти вас.
А машина это просто пример, дабы иметь представление что примерно может случиться
Илья Полезин Я знаю. Ии возможно либо даст сбой (специально что бы отвлечь от себя приступление), либо выбирет рандомно кто попало того и спасет. Может даеж у себя в приложении использовать как бы альтернативу русской рулетки. Если 1 то спасет водителя, если 2 то мать с ребенком.
Илья Полезин Ну будь в таком ситуации, я на 80% уверень что ИИ поступит как я на самом верху написал.
как я тебя очень хорошо понимаю. сам от этого восторгаюсь. то что может современный человек не все к сожалению понимают и не всех так тянет к звездам. иногда охото увидеть вживую другие планеты, звезды, даже пренебречь биологическими недостатками и оказать на этих других мирах. ну вот как люди (не все конечно) могут об этом не мечтать?!
В конце прям вообще афигительные слова!
Как сказал один Человек: - "Люди уже научились плавать как рыбы и летать по воздуху, словно птицы... Осталось научиться ЖИТЬ ПО ЧЕЛОВЕЧЕСКИ"..)
Осталось научиться ИМЕННО жить , а не выживать.
Я Рус этим человеком был Бернард Шоу
по ходу, не успеем уже: " _Ки-ии-иборги, они повсюду!_ "
blin pravilna skazal. zachem vaini ? mi zashishajemsa at chevo at enelo shtoli ??? vajujem rugimi rasami ?? wtf ??
А может мы искуственный интелект и нас тестируют в симуляции? 0.0
Шучу...так оно и есть ))
дивергент
тнегревид
Кирилл Константинов ты сделяль это
Найден дефектный тестируемый образец, уничтожить!
Искусственный интеллект созданный искусственным интеллектом, хм....
Очень интересно, никогда не задавался такими вопросами.
Киберлюди: МЫ ПРОВЕДЁМ АПГРЕЙД. ВСЕ ЛЮДИ ДОЛЖНЫ БЫТЬ УЛУЧШЕНЫ.
ОНИ БУДУТ УСОВЕРШЕНСТВОВНЫ, НЕСОВМЕСТИМЫЕ ОСОБИ БУДУТ УДАЛЕНЫ!
Доктор что мы будем делать ? нужно пойти в Тардис и найти причину случившемуся !
Мы - кибермены
Я за тебя проголосую если в президенты пойдешь
Артур и Топлесс, 2 топ канала подобного жанра. Артур, молодец, желаю тебе галочку ютуба и хороших оценок:)
Я бы резко вправо повернула: замедление скорости и шанс остаться вживых.
Дрифт )
net Artur! Blagodarya ''raznosti, 4uvstvo prevoschodstva, competition'' - my dostigli takoi evolution!
2:10 играет музыка из сталкер зов припяти
15:51 снова музыка из сталкер зов припяти Артур ты вдруг резко начил задротить в сталкер что музыку оттуда берёшь?
+Hardway channel 6:50 тоже
прост эт оч загадочная музыка
крутой музон просто)
Вот посмотрел тебя, прям проголосовать захотелось за тебя, вспомнил что не избираешься...
Артур- светлая голова.Хорошо знает о чём хочет нам сказать. образованный человек хорошая дикция. умеет завладеть нашим вниманием.Логика и продуманнось материала.МОЛОДЕЦ.
Интересные мысли, такое редко встретишь на ютубе.)))
Это же экстренный случай. ИИ в отличии от человека не будет брать взяток, не позволит завести автомобиль не прошедший ТО, ну и когда все автомобили будут с ИИ то вероятность летальных аварий будет минимизирована. Как-то - один и тот же компьютер будет управлять трафиком, и будет прогнозировать движение всех машин в городе с учетом гораздо большего числа факторов, чем любой водитель. Так что лицензирование в пользу владельцев - приемлимый вариант.
Насчет поезда - все еще проще - у ИИ нет совести, но зато есть директива соблюдать расписание. Ну и там можно додумать э/м датчики, которые определят наличие препятствий на рельсах, и издавать предупреждающие звуковые сигналы о приближении поезда, которые распугают животных и туристов.
да и какие поезда? Пора уже изобретатель телепорт: нуль-транспортировку!
Сергей Slap А если сбой программы, вирус? ))
Ну знаешь, телепорт сомнительная тема. Я думаю что это невозможно. Ведь в одной точки пространства не может появиться что-то из ничего.
В нашей вселенной нет ничего невозможного) Можно использовать кротовые норы что бы изгибать пространство и с помощью этого попадать в миг с одной точки на другую независимо от скорости света(причем никаких законов физики это не нарушает). Так же интересна тема с квантовым телепортом который удалял бы тебя в точке А и создавал точную копию тебя в точке Б, только вопрос в том, будешь ли это ты, твое сознание, или же просто появится твоя копия а ты навсегда исчезнешь
Ты же понимаешь что фактически телепорт это уничтожения себя намеренно? Так как Скорее всего он будет работать по принципу создания твоей точной копии там где надо. А ведь проверить это никак не возможно. Та копия это ты который будет думать что телепорт прошел удачно.
Какой же Вы наивный. Просто те кто поставит робота на такую работу, даже уже задницы поднимать не станут, для того, чтоб брать взятки. Найдут хакера с программкой (а те, что берут взятки навряд ли станут вдруг поступать порядочно), заставив робота брать взятки так, что и не подкопаться, просчитывая все варианты. И если даже тот на чем-то спалится, он сразу спалится в натуре, чтоб не найти следов прошлых преступлений, когда отмыть происшествие станет еще проще, отнеся его к сбою в компьютерной программе, которые могут случаться по самым разным, даже независящим от человеческого фактора причинам.
По больше таких рассуждений брат! Красава.
Последние выводы просто вызывают мурашки
пиздатый видос) я в восторге
Неужели я нашел канал не для деградации...
Спасибо всевышней рекомендации
Артур забыл одну очень простую но вместе с тем важнейшую вещь в задаче про автомобиль. ИИ, раз уж он умеет управлять автомобилем, уж точно должен суметь провести автоматическую диагностику автомобиля перед его выездом. А значит он выявил бы поломку и сообщил о ней водителю или же сообщил о возможных высоких шансах поломки и попросту не позволил бы тронуться с места. А если бы даже позволил то ИИ окажется прав убив такого водителя нежели прохожих вокруг так как тот наплевал на свою и чужую безопасность и поехал на неисправном авто.
Вообще как то странно говорить о таких задачах которые по сути являются следствием просто недопустимых ошибок ИИ. Что означает одно из двух:
1-у нас ИИ мыслит как дефолтный человек неспособный вообще ни на что.
2-вместо ИИ у нас японец в металлической коробке готовый убить себя и побольше людей вокруг.
Всегда когда решаете такие задачи думайте а как вообще можно было придти к такому условию и возможно ли это вообще?
Sandr
Задача с поездом и потенциальными жертвами не решаема, так как не логична.
всё гораздо проще - ИИ вычисляет траекторию и гораздо раньше выявляет опасность. на этом основываются современные автопилоты для автомобилей
потом ИИ не позволит выехать из гаража и вызовет эвакуатор с такси
хах, забавно, после свежего видео Артура, меня перекинуло на это. На 5 лет назад :D
Офигеть,через два года после видео Артура вышла дорама про искусственный интеллект «Ты тоже человек?» и черт возьми там разбиралась похожая ситуация ..это было безумно интересно,а условия задачи: Автопилот в автомобиле;внутри человек,автомобиль едет по однополосной дороге в тоннеле,навстречу ему два мотоциклиста,один в шлеме,другой без.Как поступит автопилот?Кого убьёт?Поменяем условия задачи,в шлеме был 100-летний мужчина ,без шлема подросток.Кого теперь убьёт?Того,кто меньше жил или того ,кто знает правила безопасности?
Заменить в теле все не получится. Мозг незаменим. Существует большая разница между нейронами и транзисторами в том, что связи между нейронами могут образовываться и разрушаться случайным образом. Т.е. чтобы компьютер был похож на мозг необходимо каждый день чуть чуть изменять фрагменты его архитектуры.
Правда можно компьютер и на нейронах сделать. Но в таком случае это будет не искусственный интеллект, а настоящий =). А значит проблемы с принятием решений у него будут точно такие же как и у людей.
Зачем менять если можно улучшать...
Все , что создано искусственно (человеком , например) - есть искусственное!
Есть небольшая поправочка - "пока не получиться"
Если это искуственный интеллект, который будет каждую миллесекнду обрабатывать сотни террабайт данных, то будет ли он вообще ехать вперед, зная, что ему надо будет делать выбор? Вы считаете, что к тому времени, когда искуственный интеллект будет в таком развитии, люди не будут готовы к таким ситуациями?
Стакан изобрели раньше чайника.
Нужно больше инфы об искусственном интеллекте ☺
Как ни странно, Топлес уже рассуждал на эту тему (естественно, намного позже этого видео). Парадокс Китайской комнаты вроде называется. Состоит в том, что в комнате сидит кто-то. Ему дают письма на китайском, а у него есть китайский разговорник. Он отвечает в соответствии с тем, что написано в нём, ибо сам он не разговаривает на китайском. И можем ли мы считать его при этом живым и осознающем себя?
А насчёт того, кого убивать, очень прост. Он не имеет решения, при котором никого нельзя было бы обвинить. То есть с таким же успехом можно назвать человека, готового задавить женщину с ребёнком ради себя, плохим. Или робота на его месте. Просто замени каждое слово машина или робот на слово человек, и всё.
P.S. Дату видео знаю.
Насчет китайской комнаты: человек помогает инвалиду общятся
ОсознаЁт ли себя пёс?
Опять про гетов говорят...
Станем как кварианцы))))
Ага, как кварианцы. Канишна! Не тут-то было!
Если тогда Тали материализуется, то я согласен
Шариф Индастриз: Начало)
Откуда ты знаешь его фамилию?!😒
Александр Ксенз чо
Xenia Akimova Deus ex? Не?)
Xenia Akimova это не его фамилия. Это пародия на "Старк Индастриз"
Xenia Akimova все знают что он шарифов...
Стоп, но как эволюция отреагирует на это? Как наш организм будет на это реагировать, не станет ли он генетически безнадёжным? Пока да в начале это будет потрясающее, но что будет ещё дальше? В случае чего люди потом не смогут жить без кибер имплантов?
Услышал про Хокинга, посмотрел дату видео, и вспомнил, что Хокинг ещё был жив...
F
Респект ему
ИСИ будет,как мне кажется,умнее людей.Ты мыслишь как обычный человек.Человек в ЧП может обдумать многое.К примеру,парень едет на машине,у него отказали тормоза,впереди ребёнок,рядом шоссе с бешеным потоком.Обычный человек видит только 2 выхода,ИСИ(иск.интелект) увидит больше выходов,как и Мастер-Пилот.Он за долю секунды поймёт,что можно спасти ребёнка или умереть хозяину,НО он же ИСИ,он может врезаться в поребрик выкрутить руль на 90 градусов(создаст разворот) и выжмет ручник + сработают подушки безопасности.Вот и всё.Та же ситуация с поездом.На автопилоте ИСИ будет анализировать ситуацию.К примеру,он подаст сигнал тем 5 дуракам и нормальному человеку,переходящему нормально рельсы,если реакции нет,то он может подумать:,,Прицепа нет,сейчас едет только 2 машиниста в голове состава.Можно пристегнуть ремни безопасности,перестать жать на педаль гашетки и начать вилять в стороны,тем самым раскачиваю вагон""
Кароче,я там думаю,если ИСИ такой крутой,то он точно найдёт ситуацию без потерь жизней)
в топку
ИскусСтвенный Интеллект? Почему ИСИ?
иси - искуственный суперинтеллект
погугли
Лол, сам погугли. ИСИ это Искусственный Сверх Интеллект
+Антон Батон обоснуй
Эмм.. ты слишком плоско смотришь на эту ситуацию. Это всего лишь пример, в котором он намеревался показать как бы бездушность, хладнокровность, склонность к рациональному решению каких-то ситуаций ИСИ , нет гарантии что в будущем такая ситуация вообще будет возможна так, что нету смысла говорить, что "всё не так" "ИСИ супер интеллект, он не мыслит, как мы жалкие смертные!!!", хотя сказать, что именно в этой ситуации, он бы не нашёл альтернативы было бы глупо. Тут можно взять более серьёзную задачу, например, есть два бункера, в 1-ом 100 человек, во 2-ом 110, есть возможность спасти только 1 бункер(не важно от чего, просто в голову ничего стоящего не пришло), тут кабы ответ очевиден спасти 2-ой, но в 1-ом 50 детей, 50 взрослых, а во 2-ом 60 стариков/старушек и 50 детей. Вот теперь вопрос "кого спасти" стоит куда острее. + можно ввести ещё одно условие: есть возможность спасти всех, но шанс на успех 30%, уверен ИСИ за 0,000...01 сек примет максимально объективное, и на мой взгляд, правильное решение, увы не представляю какое, в то время, как для человека это будет очень трудный выбор. Эт всё философия.
Мне кажется человечество остановилось в развитии . Все что у нас есть - придумали давно , мы просто улучшаем то, что у нас есть , нового ничего не придумываем
Ни в компьютерах, ни в интернете нет ничего нового?
Vyles IID Что есть нового в компьютерах , и уж тем более в интернатах ? Нового ?
OISIAS POISIAS, какого ваше определение «новизны»?
Vyles IID с этого то и надо было начинать ) Честно , не знаю как объяснить , может быть то, что есть только в умах людей.
В общем , лучше вы скажите , что такое новизна , потому что я ничего нового не вижу , только улучшение
OISIAS POISIAS это называется эволюцией прогресса.Революции же случаются всё так же редко.
вопросы только начинаются... и это самое сладкое))
Музыка из don't touch anyching в начале это круто👌 мне просто нравится👍
Понесло Артурчика под конец ))
ИИ - легко найдет выход из ситуации, всегда есть альтернатива или же банальная остановка механизма
Это блестяще. Финал просто - нечто. Бля, лучшие!!
такое чувство, что я с артуром слушаю точно одно и то же
музыка на 1:03 - Bastille - Pompeii
вопрос с ИИ управляющим машиной без тормозов заинтересовал) мне кажется, он предпочтет отключить двигатель и силой трения максимально сбить скорость. к примеру о забор или какую-либо стену. таким образом, между смертью постороннего и смертью водителя, ИИ выберет расклад, при котором не погибнет никто, но водитель получит травмы допустимой степени тяжести.
а по поводу "эволюции", при помощи технических средств - верное мнение, но в формулировке ошибка. эволюцией это быть не может, как бы ты не напичкал себя электроникой, твой потомок будет иметь только набор генов. его, разумеется, со временем тоже "апгрейданут", но факта это не меняет. об эволюции тут речи не идет. "создавать эволюцию самим" же возможно только при помощи биоинженерии и\или евгеники.
Во-первых, на такой скорости, допустим, 100 км/ч, без смертей не обойтись, но даже если говорить и про травмы, почему он не может решить оставить их мамке с ребенком?
+Илья Колбин искусственный интеллект не будет предпочитать гнать на сотне среди проулок где спереди стена, а справа мать с ребёнком. и вообще относительно исскуственого интеллекта машины с ним особо быстро не едут.
Будут приоритеты. Если их нет, то и человека ему везти нет необходимости. Ведь он это делает не для себя, поэтому будет пользоваться теми приоритетами, которые предпочтет тот, которому он подчиняется.
к примеру если машина в приоритете чем человек, то он не будет ею тормозить о стены и заборы, а выполнит так чтоб машина получила меньший ущерб и будет выполняться основная цель, игнорируя второстепенную.
На самом деле вряд ли по закону машина должна будет приоретизировать жизнь одного человека другому (ну, в светских обществах, по крайней мере), на практике же всегда водитель сможет поставить выгодную себе прошивку
А что если мы и есть искусственный интеллект? Что если мы и есть те самые "Роботы", которые сейчас пытаются создать? Только место механизмов, железок и прочих деталей, нас создали из мышц, кожи и органов? Что если мы и есть тот самый искусственный интеллект, который уже давно поработил своих хозяинов? Или же мы были посланы на землю только для тестирования? А может мы и есть симуляция искусственного интеллекта? Это так же неплохо так подкрепляет теорию, о том что мы живем в матрице. Потому что если мы будем создавать тех или иных роботов, мы можем урезать им видимый диапазон, или на оборот расширить. Может именно поэтому наш организм так сложен, что мы не можем его "модифицировать"? Модификацию я имею ввиду если бы робот сделал себе 5 рук, или глаза на затылке.
я полностью согласен с идеей Артура! поддерживаю его мысль 100%
Про искусственный интеллект Айзек Азимов хорошо расписал. И три закона робототехники придумал. Советую почитать, уж очень хорошо написано. Думаю, что ИИ в данных двух ситуациях как раз выбирал наименьшее из зол, то есть наименьшее количество погибших. НО, ИИ может так же расставлять приоритеты, в зависимости от важности и вклада того или иного человека. Пример: если мать одиночка и нигде не работает, в таких условиях, нормальное развитие ребенка (утрировано конечно) очень маловероятно, а в машине сидит врач-хирург, который по несколько жизней на день спасает. В таком случае ИИ будет предпочтительней оставить все же врача. Ну а про кибернетизацию так же есть неплохая книга Роберта Ибатуллина - Роза и Червь. П.С. Только недавно подписался на твой канал)
Заклинило тормоза, но не двери, делайте выводы
Я понял, куда ты в конце зашет, Артур. Ты начал про космополитизм говорить
В точку!
Го еще видосики про ИИ. Кстати сам пробовал его создать?
Идеология трансгуманизма :-)
Надеюсь, что доживу до этих времён.
До 2045 доживёшь
@Камерон Филлипс У православия нету будущего. Власть в стране поменяется и религия постепенно уйдёт в историю.
Артур... Ты человек новой формации... Именно такие люди спасут мир...
3:55 Это удобно, быстро и круто... посмотрел на свой пк 10 давности... В ТОП!
Оу да, 1 лайк за 8 месяцев, глядишь так через шесть лет целых 10 наберёшь)
Если у авто есть ИИ то можно же при покупке его запрограмировать ,типо в экстернной ситуации убить владельца или же спасти его. Это ришает сам владелец при покупке авто. И только он сам будет знать что он выбрал. И тогда если случиться авария все будут венить только владельца авто за то или иной выбор автопилота. все будет на совести самого человека.В программу можно еще внести разние ситуации когда может кто то умереть. Например если это мать в ребенком то влад.авто решает их спасти и автопилот спасет их . Если может умереть мужик то влад.авто решает спасти себя и.т.п .И все , зачем все усложнять то.
Важное свойство "ответственности": ее можно перекладывать на других.
Та же ситуация с машиной на автопилоте прямо - стена, слева-стена, справа-человек. Автопилот направляет туда где водителю безопасно, параллельно оповещает свою жертву, что машина идет в его направлении и нет возможности поступить иначе, а жертва сама решит как избежать столкновения.
Времени хватит, ИИ высчитает сколько времени осталось до столкновения с человеком и даже с учетом скорости реакции человека мгновенно оповестит.
Мощно!