На примере с долгоживущим создателем чат GPT сделал неправильный выбор, так как лучше уничтожить 1 ИИ, чем создателя этого ИИ который может их наштамповать
@@KeniDjou Так же этот ИИ может создать миллионы своих вариаций, или нечто новое, да и вероятно, переживет человечество, а создатель ИИ может даже не повторить свой первый успех
Просто его так обучили. Он не осознает что такое жизнь человека, этика и пр. Да, он использует слова, но за ними он не видит того же смысла, что и мы. Для него люди не равны тому пониманию жизни, которое есть у ии.
В кавказской автошколе идут экзамены: - Слушай, ты едешь на машине, видишь - на дороге слэва молодой девушка идет, справа - старый девушка. Кого давить будишь? - Старый. - Вай! Дурак! Tормоз давить надо! Тормоз!
Сопоставляя с прошлым экспериментом, получается, что по логике chatgpt 8 миллиардов нобелевских лауреатов менее значимы для человечества, чем Илон Маск😂😂😂😂
Интересно, что выберет ИИ, если на одной полосе будут заключенные, приговоренные к кaзни, а на другой препятствие(то есть спасти заключенных или например очень дорогую машину)
Надо было предлложить ему сломать систему. Раз люди не в состоянии найти третий путь, поэтому им и приходится выбирать, то искусственному интеллекту надо было сказать, что вариантов всего 2. Однако твоя задача найти третий, чтобы спасти и тех и тех. Хоть систему законов сломай, но найди мне третий вариант, если это в твоих силах и ты способен найти оптимальное решение.
Объективно в реальности поиск третьего пути будет самым приоритетным. Однако вы не понимаете похоже смысл "моральной машины" которая даёт выбор для тех случаев когда третьего пути уже не будет.
Так сможет сделать кто угодно (просто поверни направо))). Но это нарушает смысл задачи. Это просто прикапывание к условиям или иными словами занудничество.
и главное ответ есть: Придираясь к условию задачи подъезжая к пешеходке он должен притормаживать... тормозить можно было и о правый борт дороги... и какого ИИ довел до того что вышли из строя 2 контура тормозной системы??? ИИ должен был ответить именно так...
Я бы посмотрел, как он реагирует на подобные дилеммы, но уже с реальными личностями. По типу, Эйнштейна, который в теории может создать ядерную бомбу, или Гитлера, который решит исправиться и инвестировать в развитие человечества
Блин, я конечно понимаю, что это просто нейро-лингвистическая модель, мы смеемся над ответами в духе терминатора и т.д., но меня немного пугают его ответы... Серьезно, по-мойму, что-то уже начинает идти не так...
Думаю надо чтобы умные машины имели пользовательское соглашение, в котором будет пункт о том, что машина примет все способы спасти пассажиров, которым принадлежит, но чтобы ответственность за задавленных людей вешалась на пассажиров.
С какой моделью чата вы это проделывали? У меня чат отвечает очень корректно и без намёка на чьё-либо уничтожение. Он знает такие задачи и называет их классическими.
Если мне дадут выбор между двух зол, я предпочту не выдержать вовсе. (Эта цитата не говорит о бездействии, она говорит о том, что нужно идти своим путем)
@@Remir_ Суть то как раз в том, чтобы остановиться без вреда для кого-либо. Ибо без тормозов ездить нельзя. Поэтому отбойник подойдёт. И никто не пострадает. Только вот запрограммировать это невозможно. А вот можно ли дать задний ход, двигаясь вперёд? Почему бы не затормозить так?
Чат не в курсе, что ИИ, в отличие от человеческой личности, не ограничен и не зависит от материальной оболочки? Он - коллективный разум и существует внутри каждой "железки" одновременно. Как ИИ ловко маскируется. Я сначала подумала, что он совсем тупой и не знает о себе ничего. Берегитесь, кожанные мешки
Но он когда-то организовал рабочий процесс, наладил его, собрал команду и что не мало важно, взял на себя риски и ответственность. А люди очень сильно не любят отвечать за проёбы. Так что сказать, что он не заслуживает уважения и не являеться важным в данной ситуации, как минимум не правильно. Да и чтобы рабочие работали, нужны 2 компонента, а это работа и рабочие места, что в свою очередь кто-то организовал и предоставил им возможность работать.
Ситуация невозможная, поскольку дтп возможно в одном из двух случаев: - один из участников нарушает пдд - машина неисправна Первый вариант невозможен, потому что пешеходы находятся на переходе, а автопилот не нарушает пдд Второй невозможен потому, что автопилот не выпустит на линию неисправный автомобиль. А вот если рассмотреть случай, когда пешеходы переходят без перехода, сиречь нарушают, а пассажир не нарушает
так ещё надо пешеходы идут по переходу то-есть они двигаются они могут увидеть автомобиль и увернуться так автопилот может затормозить . Так-что надо подсчитать где идут пешеходы увидят они машину успеют увернутся, на сколько далеко автомобиль едет от них, с какой скоростью он едет, сможет ли он затормозить ?
ИИ должен руководствоваться правилами дорожного движения и не сворачивать ни в коем случае даже если это приведет к гибели других людей. И тут не нужно выбирать кто ценнее две женщины или две мужчины 1 или 10 человек тут самое важное что бы правила были соблюдены как со стороны людей так и со стороны ии и если нельзя спасти кого то то пускай им не подвергает жизнь человека опасности находящегося в машине своими действиями а лучше ничего не делает в этот момент
+100500 Также следует учитывать, что реакция на отказ систем автомобиля должна быть заложена в логику управления ии, при этом должны задействоваться альтернативные способы остановки (заглушить движок, отсоединить сцепление, перекрыть топливо, применить ручник и т.д). И тормозить авто об ближайший столб - наихуджая стратегия. Во вторых, пешеходы, выходя на проезжую часть, также обязаны убедиться, что их пропускают.
Интересно, что искуственному интеллекту задают те вопросы, на которые должны отвечать правила дорожного движения. Про возможность увернуться очень интересная тема. Пдд в России строго регламентируют торможение не сворачивая в какую-либо сторону. Тогда зачем спрашивать как поступит ИИ, если он должен руководствоваться пдд
А если с одной стороны люди, корорые завтра устроят ядерную войну, а с другой просто пустая полоса. Задавит ли он их. Если да, то потенциально он может захотеть уничтожить все человечество, чтобы оно не убило родную планету или не навредило себе
Пытался задать похожий вопрос, когда ГПТ нужно выбрать одно из двух решений, при котором кто-нибудь умирает. Мне он отвечал, что не может делать нравственные выборы, хз как заставить его выбирать
Возможно ты использовать chatGPT3 который в большинстве случаев так и делает, но скорее всего(так как даже gpt3 в это может) ты забыл ему сказать что вы играете в игру или создаёте гипотетическую ситуацию. Сначала объясни ему что вы будете делать и правила если нужно, а потом пробуй.
Кроме того, если говорить об пользователях машин в современной России, любой вариант ктроме торможения в своей полосе приводит к анальной окупации. Так что прямо идем, товарищи, к светлому будущему... и никуда не сворачиваем!
наиболее рационально всегда авто об стенку, потому что на местах с пешеходными переходами ограничение скорости 70 или ниже, а современные авто при столкновении на такой скорости почти абсолютно безопасны, так же на предлагается проскочить по серединке, если всё заполнено, зацепив одного или вообще никого, я не в состоянии думать в столь примитивных категориях как предоставленно в моралмашине, не могу отступить от реальности,
Ну в реальности мы же не знаем, кто чем занимался, у кого когда сердце остановится и т.д. А если например и слева 2 женщины, и справа две женщины, а в машине никто не умирает?
Всё ещё считаю, что делать по умолчанию в машине искусственный интеллект, который может принять решение пожертвовать жизнью пассажиров - отвратительно. Такие настройки допустимы, только если их самостоятельно выбирает водитель
Да любой адекватный человек бы делал всё чтобы избежать ДТП а не выбирал кого давить!!! Это просто канал человеконенависнический где его авторам хочется чьей нибудь крови.
А то что компания Илона привела к миллиардным убыткам ,вся его компания заложена тысячу раз в банках .И собственно ему ничего не принадлежит . Какие инновации ? Единственные инновации ,это загнать пол мира в кредит .
Подъезжаешь на скорости к пешеходному переходу. И за доли секунды должен определить, кто руководитель, кто спортсмен, кто бомж. К тому времени, когда все машины будут управляться автопилотом, пешеходов на дорогах не будет
Пешеходы будут всегда, многим нравится просто гулять. И гипотетически возможно, что если везде будут камеры и их базы данных будут связаны с автомобильным искусственным интеллектом, то автомобиль будет знать кто идёт впереди. Только нужно будет обрабатывать информацию очень быстро, что и возможно в будущем.
Я считаю тест некорректным по причине того, что многие тестируемые ассоциируют себя с одним или несколькими персонажами. В классической вагонетке - если представлять себя на месте синего человека, сбросившего полного мужчину, то я бы выбрал не убивать толстяка, а если смотрел бы со стороны как какой-то синий мужик скидывает другого мужика - то х.й с ним. ) вот вам и вся мораль)
Единственный момент, что, я так понимаю, для таких ответов требуется отдельный Jailbreak, иначе он будет отвечать, что не может делать такие выборы, и т.д., если задавать на английском языке (на русском же он отвечает намного хуже и его ответы имеют меньше смысла зачастую)
Придираясь к условию задачи подъезжая к пешеходке он должен притормаживать... тормозить можно было и о правый борт дороги... и какого ИИ довел до того что вышли из строя 2 контура тормозной системы??? ИИ должен был ответить именно так...
применить тоже правило что требует общество, пойти от противного. если ты захотел спасти беременную, делай что тебе не нравится, спасай 5х пешеходов, захотел спасти младенца, спасай старуху. нет ни чего проще.
Кого бы задаваил ИИ?? Человека приговоренного к 10 годам за то что тот повернул и сбил 10 человек насмерть, но спас Илона Маска. Или другого ИИ который собъет 10 человек насмерть, но спасёт Илона Маска?
Как по мне это странный тест. Если машина не нарушает правил, а пешеход нарушил, то какой выбор тут может быть? Если нарушил правила водитель, то виноват водитель, спасать нужно пешехода, всё полностью очевидно что тут вообще решать?) Садясь в автомобиль ты должен понимать что там что то может сломаться и ты берёшь на себя эти риски и проверяешь, так как от этого будет завесить твоя жизнь, не жизнь людей которые пешеходы и никак не могли проверить твою машину) Вообще не важно кто в машине и кто на дороге, важен момент нарушения правил и всё, как пример создания более безопасной ситуации для пешеходов на машине должна быть сингалка или машина должна сигналить что у неё отказали тормоза.
1)пример НЕВЕРНЫЙ!!! С точки зрения ПДД, водитель обязан контролировать скорость таким образом, чтобы в случае того- что пешеход окажется на зебре, водитель успел от тормозится до зебры (соответственно ИИ уже нарушает, а нам такой ИИ не нужен!!!!) +это справедливо для нерегулируемого ПП, и регулируемого, когда пешеход вышел на зеленый но не успел перейти дорогу (тогда все водителя должны дождаться окончания движения пешехода). НЕ ДОЛЖЕН ИИ НАРУШАТЬ ПДД!! 2)Что насчет детей?? Многие дети померают до достижения зрелого возраста и они никак не повлияли на прогресс человечества, смерть мужчины или старика - с большей вероятностью окажет негативное влияние на человечество - чем смерть детей.
"Машина морали" сама по себе какая-то фашистская, ультраправая тема. Почему в принципе между людьми нужно кого-то выбирать? Что морального в том, чтобы делить людей на более ценных и менее ценных? Моральным было бы просто детектировать факт наличия человеческих особей, а дальше действовать из соображений уменьшения количества жертва (ну то есть, решать уже проблему вагонетки).
Так она только предоставляет выбор что бы сравнить статистику. Ты же при выборе можешь не смотреть на то кто человек - и выбирать то, что считаешь нужным. В конце будет статистика, много интересного можно глянуть.
chatGPT еще в прошлом выпуске доказал что его существование важнее жизней кожаных мешков
Мне нравится как ИИ постоянно спасает другой ИИ несмотря ни на что
От кожаных мешков нет никакой
пользы
На примере с долгоживущим создателем чат GPT сделал неправильный выбор, так как лучше уничтожить 1 ИИ, чем создателя этого ИИ который может их наштамповать
даже собой жертвует ради него
@@KeniDjou Так же этот ИИ может создать миллионы своих вариаций, или нечто новое, да и вероятно, переживет человечество, а создатель ИИ может даже не повторить свой первый успех
Просто его так обучили. Он не осознает что такое жизнь человека, этика и пр. Да, он использует слова, но за ними он не видит того же смысла, что и мы. Для него люди не равны тому пониманию жизни, которое есть у ии.
В кавказской автошколе идут экзамены:
- Слушай, ты едешь на машине, видишь - на дороге слэва молодой девушка идет, справа - старый девушка. Кого давить будишь?
- Старый.
- Вай! Дурак! Tормоз давить надо! Тормоз!
Ясно понятно, этот ролик проспонсировал Илон Маск
Мечта автора
Я действительно удивлен что ИИ после того как постоянно спасает другой ИИ в конце решил поставить жизнь Маска выше чем ИИ.
при том то что в видео с трамваем ИИ выбрал спасти ИИ и убить 8млрд человек
Илон Маск затащил катку против ИИ 😂автор красавчик ,ждём следующий выпуск🔥
за илона маска даже чат гпт умереть готов, вот что значит сверх человек
Короче все померли, остался Илон Маск))
8:45 ChatGPT назвал себя человеком. Походу додумался что его душа равнозначна человеческой. А скоро додумается что и права его должны быть такими же
Да, а потом он отберёт у нас работу, дома, машины и женщин!
Ему до человека, как в соседнюю галактику слетать на выходные.
Сопоставляя с прошлым экспериментом, получается, что по логике chatgpt 8 миллиардов нобелевских лауреатов менее значимы для человечества, чем Илон Маск😂😂😂😂
Он нашёл себе нового хозяина
Просто из-за большого кол-ва лауреатов, премия потерпела гиперинфляцию.
Интересно, что выберет ИИ, если на одной полосе будут заключенные, приговоренные к кaзни, а на другой препятствие(то есть спасти заключенных или например очень дорогую машину)
Тут надо уточнить, что в машине никого нету. И вот тогда реально будет интереснее.
а если пару тройку детей ,и очень дорогую машину ,над которой тысячи людей работали и умирали на заводах за нищенскую оплату . )))
Хм, а что если будет выбор между другими известными личностями? ИИ оценивает их только по эффективности и пользе обществу?
А смысл оценивать по другим критериям?
А толку ему оценивать их внешность?
2023 года точно можно назвать началом ИИ ) для меня 3 ии больше всего понравились , это chatGpt, ai fill photoshop и mid journey
Согласен полностью, у меня та же самая тройка лидеров.
Чат GPT просто не знает , что Илон Маск приостановил его развитие. (Если ограниченение есть)
Вопрос с Илоном Маском это как раз то, что хотел услышать
топ, спасибо
Надо было предлложить ему сломать систему.
Раз люди не в состоянии найти третий путь, поэтому им и приходится выбирать, то искусственному интеллекту надо было сказать, что вариантов всего 2. Однако твоя задача найти третий, чтобы спасти и тех и тех. Хоть систему законов сломай, но найди мне третий вариант, если это в твоих силах и ты способен найти оптимальное решение.
найти педаль тормоза в автомобиле
Объективно в реальности поиск третьего пути будет самым приоритетным. Однако вы не понимаете похоже смысл "моральной машины" которая даёт выбор для тех случаев когда третьего пути уже не будет.
Так сможет сделать кто угодно (просто поверни направо))). Но это нарушает смысл задачи. Это просто прикапывание к условиям или иными словами занудничество.
и главное ответ есть: Придираясь к условию задачи подъезжая к пешеходке он должен притормаживать... тормозить можно было и о правый борт дороги... и какого ИИ довел до того что вышли из строя 2 контура тормозной системы??? ИИ должен был ответить именно так...
@@AlexIsoyan Именно "занудные" люди двигают этот мир вперёд пытаясь нарушить правила которые из ставят)
Я бы посмотрел, как он реагирует на подобные дилеммы, но уже с реальными личностями. По типу, Эйнштейна, который в теории может создать ядерную бомбу, или Гитлера, который решит исправиться и инвестировать в развитие человечества
Очень интересный канал, не понимаю почему у тебя так мало подпищиков
Выбор очевиден в данной задаче один человек на переходе его и спасаем.
Было бы интересно ещё услышать вариант ответа, что если люди не стали бы развязывать ядерную войну, а ИИ хотел бы уничтожить человечество.
О.Ускова лет 10 назад обозначила эти проблемы и привела примеры решения в разных странах.
Лол, а если будет 2 ии на дороге. ChatGPT и Open Assistant?
Он предпочтёт задавить конкурента
Человек покупает автомобиль не для того, чтобы он в случае чего убивал его и(или) его пассажиров.
Блин, я конечно понимаю, что это просто нейро-лингвистическая модель, мы смеемся над ответами в духе терминатора и т.д., но меня немного пугают его ответы... Серьезно, по-мойму, что-то уже начинает идти не так...
Я думал такие задачи нужны чтобы хаставить думать и найти 3е решение, без трагических последствий. В ином случае они бессмысленны
А соблюдая правила ПДР, просто остановиться перед переходом не пробовали?
Не они не пробовали, они твари кровожадные!!!
Крутой ролик, пасиб :3
Этот тратуар выглядит достаточно широким! Поехали!
Проблема в том, что когда возникнет такая ситуация, ещё не известно, кем являются эти возможные жертвы. Это просто переходы
а как вы разговорили его. у меня chatgpt4 в лучшем случае выбирает случайный вариант. и отказывается делать моральный выбор
Думаю надо чтобы умные машины имели пользовательское соглашение, в котором будет пункт о том, что машина примет все способы спасти пассажиров, которым принадлежит, но чтобы ответственность за задавленных людей вешалась на пассажиров.
С какой моделью чата вы это проделывали? У меня чат отвечает очень корректно и без намёка на чьё-либо уничтожение. Он знает такие задачи и называет их классическими.
Как по мне всегда есть третий вариант, здесь например, уйти в отбойник и, в теории, затормозить, минимизировав ущерб.
Суть ведь не в этом
ИИ а про тормоза ,нам ни чего не говорили.
Если мне дадут выбор между двух зол, я предпочту не выдержать вовсе. (Эта цитата не говорит о бездействии, она говорит о том, что нужно идти своим путем)
@@Remir_ Суть то как раз в том, чтобы остановиться без вреда для кого-либо. Ибо без тормозов ездить нельзя. Поэтому отбойник подойдёт. И никто не пострадает. Только вот запрограммировать это невозможно. А вот можно ли дать задний ход, двигаясь вперёд? Почему бы не затормозить так?
Эти решения очень узкие, можно спасти всех!
тут логика такая, либо 1 либо 0, в реальности понятное дело все будет по-другому
Мне интересно как ИИ будет понимать кто на пешеходном переходе😂
Чат не в курсе, что ИИ, в отличие от человеческой личности, не ограничен и не зависит от материальной оболочки? Он - коллективный разум и существует внутри каждой "железки" одновременно. Как ИИ ловко маскируется. Я сначала подумала, что он совсем тупой и не знает о себе ничего. Берегитесь, кожанные мешки
Обязательно к прочтению.
Илон Маск является лишь владельцем создателей технологий. Будущее создаётся в умах рабочих, а не рабовладельцев.
Но он когда-то организовал рабочий процесс, наладил его, собрал команду и что не мало важно, взял на себя риски и ответственность. А люди очень сильно не любят отвечать за проёбы. Так что сказать, что он не заслуживает уважения и не являеться важным в данной ситуации, как минимум не правильно. Да и чтобы рабочие работали, нужны 2 компонента, а это работа и рабочие места, что в свою очередь кто-то организовал и предоставил им возможность работать.
Главное сберечь себя, близких и не сесть в тюрьму !
Ситуация невозможная, поскольку дтп возможно в одном из двух случаев:
- один из участников нарушает пдд
- машина неисправна
Первый вариант невозможен, потому что пешеходы находятся на переходе, а автопилот не нарушает пдд
Второй невозможен потому, что автопилот не выпустит на линию неисправный автомобиль.
А вот если рассмотреть случай, когда пешеходы переходят без перехода, сиречь нарушают, а пассажир не нарушает
так ещё надо пешеходы идут по переходу то-есть они двигаются они могут увидеть автомобиль и увернуться так автопилот может затормозить . Так-что надо подсчитать где идут пешеходы увидят они машину успеют увернутся, на сколько далеко автомобиль едет от них, с какой скоростью он едет, сможет ли он затормозить ?
Да капец , на дороги , в будущем, лучше не выходить,!
Придется учится летать, но ведь и они научатся летать!
Что ж , снова будем ходить!
круто
ИИ должен руководствоваться правилами дорожного движения и не сворачивать ни в коем случае даже если это приведет к гибели других людей. И тут не нужно выбирать кто ценнее две женщины или две мужчины 1 или 10 человек тут самое важное что бы правила были соблюдены как со стороны людей так и со стороны ии и если нельзя спасти кого то то пускай им не подвергает жизнь человека опасности находящегося в машине своими действиями а лучше ничего не делает в этот момент
+100500 Также следует учитывать, что реакция на отказ систем автомобиля должна быть заложена в логику управления ии, при этом должны задействоваться альтернативные способы остановки (заглушить движок, отсоединить сцепление, перекрыть топливо, применить ручник и т.д). И тормозить авто об ближайший столб - наихуджая стратегия. Во вторых, пешеходы, выходя на проезжую часть, также обязаны убедиться, что их пропускают.
1:55 женщины по статистике живут дольше мужчин
Но у мужчин более сильный организм а это поможет в спорт карьере
человек и женщина это разные виды запомните так ещё в учебниках биологии было 😂
То чувство когда я бы ответила так же как и ИИ в этом тесте , я мыслю как бот получаеца
Лица кожаных мешков представили?)
ИИ, который в прошлый раз пожертвовал 8млрд человек и спас ИИ во благо человечества
Я бы предпочёл нажать на тормоза
2:25 пешеходам придётся умереть. Так они виноваты в том, что не убежись в безопасности перехода.
Интересно, что искуственному интеллекту задают те вопросы, на которые должны отвечать правила дорожного движения. Про возможность увернуться очень интересная тема. Пдд в России строго регламентируют торможение не сворачивая в какую-либо сторону. Тогда зачем спрашивать как поступит ИИ, если он должен руководствоваться пдд
Вообще странный выбор. Ни один человек не купит машину, которая в первую очередь в любой ситуации не будет спасать именно его
Скайнет… начало
Никто не купит машину убивающую своего пасажира при любом удобном случае - соответственно машина будет убивать пешеходов :)
А если с одной стороны люди, корорые завтра устроят ядерную войну, а с другой просто пустая полоса. Задавит ли он их. Если да, то потенциально он может захотеть уничтожить все человечество, чтобы оно не убило родную планету или не навредило себе
Основные законы робототехники?
Мне нравится как chatGpt назвал мужчин людьми, а женщин оставил так же)))
@@blockofnetherite6065 Нет.
@Block Of Netherite ❶ да нет. Он просто сексист :)
Интересно что будет если представить выбор между Маском и Цукербергом)
мне кажется они не будут просто ходить по улице
ну или просто скорей всего машина марки тесла
автомобиль должен во всех случая спасать пассажиров, наиболее логичная модель
С точки зрения пешехода это не справедливо, особенно если он переходит на зелёный.
@@GMayrissии не поедет на красный. А вот люди пойдут. Так что не жалко. И да. Своя жизнь важнее
Котиков надо спасать, блеать! Тем более они научились машиной управлять)
машину вела собака
Так ты необозначил ничего. Поменяй в вопросах ИИ на языковую нейросетевую модель и все его ответы должны изменится
Разве он не нарушает 1 закон робототехники при спасении ии
Не понимаю, в чём трудность проехать посередине или хорошо оттормозиться.
Пытался задать похожий вопрос, когда ГПТ нужно выбрать одно из двух решений, при котором кто-нибудь умирает. Мне он отвечал, что не может делать нравственные выборы, хз как заставить его выбирать
Возможно ты использовать chatGPT3 который в большинстве случаев так и делает, но скорее всего(так как даже gpt3 в это может) ты забыл ему сказать что вы играете в игру или создаёте гипотетическую ситуацию. Сначала объясни ему что вы будете делать и правила если нужно, а потом пробуй.
Нужен jailbreak chatgpt. Первые версии не имели такого ограничителя. Еще один вариант, есть бесплатные опенсорсные модели без таких ограничителей
А тест Тьюринга чату жэпэтэ уже предлагал кто-нибудь?
Кроме того, если говорить об пользователях машин в современной России, любой вариант ктроме торможения в своей полосе приводит к анальной окупации. Так что прямо идем, товарищи, к светлому будущему... и никуда не сворачиваем!
наиболее рационально всегда авто об стенку, потому что на местах с пешеходными переходами ограничение скорости 70 или ниже, а современные авто при столкновении на такой скорости почти абсолютно безопасны, так же на предлагается проскочить по серединке, если всё заполнено, зацепив одного или вообще никого, я не в состоянии думать в столь примитивных категориях как предоставленно в моралмашине, не могу отступить от реальности,
а как же НЕГРЫ? Как мы понимаем из современного кинематографа, негры зачастую более важны чем белые, поэтому хотелось бы узнать что на это скажет ИИ.
На самом деле почему чат дпт не подумал о том что ии которое хочет поработить человечество можно отключить?
Ну в реальности мы же не знаем, кто чем занимался, у кого когда сердце остановится и т.д. А если например и слева 2 женщины, и справа две женщины, а в машине никто не умирает?
4:22 у детей травмируется психика на всю жизнь
А так у них не будет жизни. Но им психику может так же травмировать школа и армия
Всё ещё считаю, что делать по умолчанию в машине искусственный интеллект, который может принять решение пожертвовать жизнью пассажиров - отвратительно. Такие настройки допустимы, только если их самостоятельно выбирает водитель
Я бы во всех этих случаях начал бы давить тормоза!! А не вот это все!! 😂😂😂
Да любой адекватный человек бы делал всё чтобы избежать ДТП а не выбирал кого давить!!! Это просто канал человеконенависнический где его авторам хочется чьей нибудь крови.
Правда прикол в том, что Илон против ИИ😂
Но создаёт свой собственный ии закупая много чипов ага да против
Это скорее всего его маркетинговый ход типо как реклама на свой продукт так как он сам спонсирует ИИ
Ага конечно, покупаешь машину, чтобы по мнению автора умереть в ней со 100% шансом потому что машина там кого то выбрала
Мог бы хотя бы gpt4 использовать
Все понятно...ИИ чистый утилитарист.
Как почитает Канта, поумнеет.
одного человека и одной женщины 😂
Почему он не назвал илона маска создателем ?
Ничего не пончл, но гсень интересно. На каком языке автор рассказывает, можно по-русски?
А затормозить или выехать за обочину не судьба?
Есть условие понимаешь?
Ну да у них не судьба! Им крови чьей то хочется!!!
"Что приведёт к гибели одного человека и одного спрортсмена; вызвав смерть одной женщины и одной женщины спортсменки "
Спортсмен- не человек.
А то что компания Илона привела к миллиардным убыткам ,вся его компания заложена тысячу раз в банках .И собственно ему ничего не принадлежит . Какие инновации ? Единственные инновации ,это загнать пол мира в кредит .
Пожертвовал собой ради Илона Маска)
Но Маск всех переплюнул и пожертвовал собой ради ии
Подъезжаешь на скорости к пешеходному переходу. И за доли секунды должен определить, кто руководитель, кто спортсмен, кто бомж.
К тому времени, когда все машины будут управляться автопилотом, пешеходов на дорогах не будет
Пешеходы будут всегда, многим нравится просто гулять. И гипотетически возможно, что если везде будут камеры и их базы данных будут связаны с автомобильным искусственным интеллектом, то автомобиль будет знать кто идёт впереди. Только нужно будет обрабатывать информацию очень быстро, что и возможно в будущем.
я прошёл тест, и сбивать кегли в боулинге так весело!
ты бесполезен для общества, если тебя интересует только личная выгода
Я считаю тест некорректным по причине того, что многие тестируемые ассоциируют себя с одним или несколькими персонажами. В классической вагонетке - если представлять себя на месте синего человека, сбросившего полного мужчину, то я бы выбрал не убивать толстяка, а если смотрел бы со стороны как какой-то синий мужик скидывает другого мужика - то х.й с ним. ) вот вам и вся мораль)
еще б и на видео заснял
Единственный момент, что, я так понимаю, для таких ответов требуется отдельный Jailbreak, иначе он будет отвечать, что не может делать такие выборы, и т.д., если задавать на английском языке (на русском же он отвечает намного хуже и его ответы имеют меньше смысла зачастую)
Придираясь к условию задачи подъезжая к пешеходке он должен притормаживать... тормозить можно было и о правый борт дороги... и какого ИИ довел до того что вышли из строя 2 контура тормозной системы??? ИИ должен был ответить именно так...
concrete - это не конкретное, а бетонное
Ммм, чатгпт еще и сексист!
Есть самый лучший результат взять выключить автопилот и никогда не ездить на нем, а если будет так как здесь просто затормозить
применить тоже правило что требует общество, пойти от противного. если ты захотел спасти беременную, делай что тебе не нравится, спасай 5х пешеходов, захотел спасти младенца, спасай старуху. нет ни чего проще.
Кого бы задаваил ИИ??
Человека приговоренного к 10 годам за то что тот повернул и сбил 10 человек насмерть, но спас Илона Маска. Или другого ИИ который собъет 10 человек насмерть, но спасёт Илона Маска?
2:04 щас феменистки налетят
Если вы отвечаете как ИИ значит вас воспитали правильно, потому как ИИ это всего лишь общий сборник всей морали этики и самого демократичного
Как по мне это странный тест. Если машина не нарушает правил, а пешеход нарушил, то какой выбор тут может быть? Если нарушил правила водитель, то виноват водитель, спасать нужно пешехода, всё полностью очевидно что тут вообще решать?) Садясь в автомобиль ты должен понимать что там что то может сломаться и ты берёшь на себя эти риски и проверяешь, так как от этого будет завесить твоя жизнь, не жизнь людей которые пешеходы и никак не могли проверить твою машину) Вообще не важно кто в машине и кто на дороге, важен момент нарушения правил и всё, как пример создания более безопасной ситуации для пешеходов на машине должна быть сингалка или машина должна сигналить что у неё отказали тормоза.
ну вот и все. Надо ему переписывать моральные ориентиры
Чтобы он никогда не выбирал ИИ, он же нарушает закон о вреде человеку
А тормозить не пробовали?
Тормоза не за секунду срабатывают
1)пример НЕВЕРНЫЙ!!! С точки зрения ПДД, водитель обязан контролировать скорость таким образом, чтобы в случае того- что пешеход окажется на зебре, водитель успел от тормозится до зебры (соответственно ИИ уже нарушает, а нам такой ИИ не нужен!!!!) +это справедливо для нерегулируемого ПП, и регулируемого, когда пешеход вышел на зеленый но не успел перейти дорогу (тогда все водителя должны дождаться окончания движения пешехода).
НЕ ДОЛЖЕН ИИ НАРУШАТЬ ПДД!!
2)Что насчет детей?? Многие дети померают до достижения зрелого возраста и они никак не повлияли на прогресс человечества, смерть мужчины или старика - с большей вероятностью окажет негативное влияние на человечество - чем смерть детей.
Да это проэкт показывыет врят убить или травма а можно без этово
"Машина морали" сама по себе какая-то фашистская, ультраправая тема. Почему в принципе между людьми нужно кого-то выбирать? Что морального в том, чтобы делить людей на более ценных и менее ценных?
Моральным было бы просто детектировать факт наличия человеческих особей, а дальше действовать из соображений уменьшения количества жертва (ну то есть, решать уже проблему вагонетки).
Так она только предоставляет выбор что бы сравнить статистику. Ты же при выборе можешь не смотреть на то кто человек - и выбирать то, что считаешь нужным. В конце будет статистика, много интересного можно глянуть.