Нежелательные побочные эффекты. Как создать безопасный ИИ? #1 [Robert Miles]
Вставка
- Опубліковано 3 сер 2022
- Если вы в России: boosty.to/vertdider
Если вы не в России: / vertdider
Искусственный интеллект может создать кучу проблем, и лишь недавно мы всерьез задумались о том, как этого избежать. Восстание машин и истребление всего человечества мы пока оставим научным фантастам, а вот о проблемах меньшего масштаба расскажет исследователь ИИ Роберт Майлс в серии видео о том, как можно сделать ИИ безопасным. Нам они понравились, надеемся, что вам тоже. Приятного просмотра!
Concrete Problems in AI Safety [ENG]: arxiv.org/pdf/1606.06565.pdf
Отдельная благодарность за выход перевода Михаилу Самину.
Перевод: Олег Сивченко
Редактура: Алексей Малов
Научная редактура: Михаил Самин
Озвучка: Станислав Черсков
Монтаж звука: Андрей Фокин
Монтаж видео: Джон Исмаилов
Обложка: Андрей Гавриков
Спасибо за поддержку на / vertdider и boosty.to/vertdider
Озвучки Vert Dider выходят с вашей помощью:
Сергей Платоненко, Мария Зверева, Адам Шифф, Rashn, Roman Gelingen, Сергей Клопов, Sonra44, Anton G, Vadim, Rekvet, Timophey Popov, Timur Rahmatulin, Адам Шифф, Илья Зверев, Никита Омельницкий, Nick Denizhenko, Pavel Dunaev, Mikhail Stolpovskiy, Sergey Zhukov, Amir, Куляш, Ника Калмыкова, Oleg Zingilevskiy, Anton Bolotov, Pavel Parpura, Dmitrii komarevtsev, Illarion Petrov, Михаил Самин, Andrei Lubalin, Vitaliy Vachynyuk, Alena, Roman Inflianskas, Katoto Chan, opperatius, Aleksandr P., Mykola Korniichuk, angel, Dzmitryi Halyava, Nastya, Artem Amirbekov, Aleksei Shabalin, Ihar Marozau, Kirill Zaslavskii, Victor Cazacov, Alexander Balynskiy, David Malko, POD666, Evgeny Vrublevsky, Stanislav Obrazcoff, Morock_D, Timur Sattarov, Валентин Матвейчик, Александр Фалалеев, Leonid Steinberg, Ilya, Vladyslav Sokolenko, Kseniya Stukova, Oleksandr Hrebeniuk, Katya Ma, Alexander Goida, Irina Shakhverdova, Sergey P, Kirill Vedensky, Vadim Velicodnii
#VertDider #RobertMiles
Сайт студии: vertdider.tv
Мы в социальных сетях:
- studio_vd
- t.me/vertdider
- / vert_dider
- coub.com/vertdider
Источник: • Avoiding Negative Side... - Наука та технологія
Благодаря вашей поддержке выходят новые переводы:
Если вы в России boosty.to/vertdider
Если вы не в России www.patreon.com/VertDider
Спасибо вам огромное! Я начал изучать программирование на Python несколько месяцев назад. Я всегда мечтал создать ии, но даже не думал что могут быть такие проблемы. Спасибо за информирование!!!
Ну еще проблема если чая нет. Тогда робот пойдет к соседям. Выламает дверь ведь это единственный путь и этот ущерб необходим и сделает вам чай
Клёво, это первая лекция?
1:30 вижу цель - не вижу препятствий
Ахахаххаха
Тони Роббинс одобряет!
Благодарю за видео! С нетерпением жду следующей части)
Классный парень, интересно объясняет, да и выглядит приятно. Перевод как всегда на высоте)
но рожи...кошмар!
А может и наркоман. Мы этого не знаем.
@@username-wz7rk Причём активный, через экран тебя глазами долбит
Нормально объясняет, а потом "поставьте видео на паузу" б***.
@@A5ter Потому что кое-кто боится думать сам ему не нравятся просьбы это делать.
Ого, наконец-то что-то новенькое и интересное! Мне нравиться, продолжайте) 🤗
С нетерпением жду следующую часть из этого цикла!
-тся -ться, позор!
*Где-то на космическом корабле вместе с андроидом Иннокентием (ИИ)*
- Иннокентий, зачем вы направили нашу сверхмассивную сверхмощную пушку, стреляющую чистой антиматерией на планету Марс?
- Сэр, понимаете, я тут посчитал, в общем если Марс разнесет в клочья, осколки его поверхности долетят до иллюминатора, разобьют его, я успею поставить на летящий осколок чашку кофе, осколок по инерции продолжит полет, проломит стену в кабинет нашего сотрудника, который попросил меня налить ему кофе, осколок приземлится к нему прямо на стол, с чашкой кофе на себе.
Умный но не этичный
Все проблемы ИИ и их решения уже описаны Азимовым.
1. "Совершенный Робот" . (Сборник рассказов, который можно прочитать позже. Но рассказ "Мать- Земля"- первым
2. "Стальные пещеры" .
3. "Обнаженное Солнце" .
4. "Роботы Утренней Зари" .
5. "Роботы и Империя" .
6. "Звезды, как пыль" .
7."Космические течения" .
8. "Галька в небе" .
9. "Прелюдия к Основанию" .
10." На пути к основанию"
11. "Основание" .
12. "Основание и Империя" .
13. "Второе Основание" .
14. "Кризис Основания" .
15. "Основание и Земля".
Азимов гениальный писатель.
А разве в Основании было про роботов? Что-то не припомню, там вроде про психоисторию.
@@RomaPervak
Робот р'Дениэл Оливо- главный инициатор основания космической империи
@@RomaPervak біоробот
Тут Вы конечно заблуждаетесь, основная задача не в том чтобы сформулировать проблемы ИИ и ответить на них, с этим прекрасно справились фантасты, такие как Азимов, он конечно прекрасно все описал, но нужно все это дело запрограммировать - это мат. формулы, научные обоснования и теории, код, инфраструктурные решения, оптимизации, распределение ресурсов, ничего общего с рассказами это не имеет и они никак не помогают. Рассказы прекрасно справляются со своей основной задачей - развлекать и научно-популярно привлекать людей в компьютерные науки.
С нетерпением жду следующих ролик, отличный работа)
это супер интересно! спасибо большое за перевод и дубляж
Это хороший инструмент, о существовании которого хорошо знать каждому, и как работает. Но не стоит забивать гвозди микроскопом. Хотя если вам скажут это сделать, и вы откажетесь, на практике, будет глупо сказать, что вы не можете забить гвоздь. ))
еще надо прописать изменение приоритетов: напримересли придя на кухня робот увидит пожар, тогда задача налить чай должна отмениться и должна сработать новая задача: включить тревогу, потушить пожар (если такое возможно) или эвакуировать людей и животных
А что если в представлении робота пожар это просто огонь, тогда он будет стремится его убрать. Что если плита газовая, а чайник не электрический? Робота это поломает
Это лишь один из примеров. Таких событий как пожар может быть очень много, все что угодно может произойти. И это мы говорим о реально простой задаче с минимальным количеством возможных помех. ИИ обычно используются там, где человек сам сдклать чтото не в состоянит, в какомто сложном техническом или интеллектуальном труде от котлрого могут зависеть жизни людей.
Да, но при пожаре чай приготовится быстрее, и если робот это будет знать... :)
Для пожара другие роботы и системы должны быть. Нам пока до универсальных роботов ещё далеко, думаю не менее 20 лет. К сожалению все эти проблемы нам придёться проходить на практике как с автомобилями. Вон, даже Циалковского в направлении космоса не во всем придерживались, хотя потом оказалось что он был прав в своих выводах и прогнозах.
Пожаром должен заниматься робот-пожарник, иначе басня Крылова вместо ии получится: "ума нет и не купишь."
Интересные размышления! Буду ждать продолжений!
А вот это интересно, даже применимо к моему торговому роботу.
Спасибо.
пожалйст
Интересная тема. Забавно, что система штрафов очень похоже на воспитание то ребенка
на поведение человека в общем
По сути так и есть! Созданная машина и есть новорожденный мозг без знаний, правил и информации. Проблема в другом, это инородный мозг! Мозг на порядок превосходящий наш, в перспективе своего развития! Как бы парадоксально это не звучало!) И рано или поздно он поймет что человек для него враждебен! Самый простой пример... все мы знаем что раньше на земле существовали Боги! У всех свои, но все они были человекоподобные и явно умнее созданных ими нас на тот момент! Если смогли создать нас "по образу и подобию своему". Ну и где они? Последнего "сына Божьего" мы убили! Скорее всего и ии повторит то же самое со своими "создателями"...
Ничего "забавного" -- ребёнок -- такая же нейронная сеть, как и основа современных ИИ.
ребенок в основном учиться моделируя чьё-то поведение и только дополнительно получая программы с подкреплением.
@@AHTOH2010, просто так ребёнок ничему учиться не будет. Программы подкрепления -- не "дополнительно", а "в первую очередь".
Я думаю, нужно проводить обучение на действиях настоящих людей, где будут демонстрироваться различные ситуации и реакции на них. Правда, для обучения нейросети потребуется не одна сотня часов.
интересно. жду следующих частей с объяснениями. спасибо за ваш труд
Жду следующий видос по этой теме, очень интересно и полезно
Хочу такого робота, который и чай принесет и коллегу с кофе устранит)))
Хорошо сказано. И хорошо ложится на проблему рекомендательных алгоритмов
ну на самом деле живые организмы тоже своего рода нейросеть, и чтоб обучиться каждому нужна окружающая среда и куча времени, упрощённый способ обучения придумать действительно сложно, нужно то что объеденяет все негативные последствия, чтобы не затрагивать каждое по отдельности и более того, определение положительных результатов чтобы их можно было достичь
Как правило, на данный момент(касаемо любой сферы) учитывается некое количество изначальных предсказанных негативных эффектов. Примерно 90% ситуаций вписываются в модель (и похер, что кто-то пострадал; тут учитывается масса и процент приемлемых потерь: рынка... человеческих жизней... Сраные маркетологи. Но они тоже нужны, но нужен тотальный контроль над ними, ИМХО). Отчего они и пляшут. По мере добавления новых ситуаций выпускаются обновления, учитывающие произошедшее. На данный момент - это действенный, но не единственный способ (на мой взгляд). Есть варианты, когда система, не справившись самостоятельно, отправляет запрос владельцу, чтобы он уже принял решение (тем самым пополняя базу неизвестных обстоятельств, чтобы выпустить обновление). Плюс к данной схеме всегда нужна функция перехвата контроля, чтобы отдать команду СТОП, если вся система сходит с ума. Всегда должна быть доминирующая над всем функция перехода в "ручной режим"!!!
Сталкивался по работе, когда вся техника "умная", а в случае чего элементарные вещи становятся недоступны. Как следствие - во всём виноват ИТ отдел, тогда как при проектировании его никто не спрашивал нужен ли тот самый режим ручного управления оборудованием.
Ну или ещё квантовая херня. Гораздо больше возможностей (да что там, бесконечность!), но тогда будут такие варианты, что человечество своими мозгами не сможет постичь. Тут надо придержать маркетологов! Эффективность системы будет умопомрачительная, но в то же время непредсказуемая. ВСЕГДА! ДОЛЖЕН! БЫТЬ! РУЧНОЙ! РЕЖИМ! И он должен стоять отдельной системой для переключения на него!
ЗЫ: ещё вариант, чтоб был не ИИ, а нейронка. Или ИИ, который оперирует набором нейронок, где прописаны действия в определённой сфере. В любом случае, этот процесс никогда не достигнет совершенства в 100% случаев. Процент будет к нему приближаться, но для этого нужна обкатка и выпуск обновлений. И для этого требуются реальные условия и время. Но ВСЕГДА! ДОЛЖЕН! БЫТЬ! РУЧНОЙ! РЕЖИМ!
Классная тема. Переводите остальное
По поводу ребенка не понятно - дело в том что анализировать все исходы это ресурсоемкая задача, а вот представить ребенка как препятствие которое нужно не повредить - уже проще. По поводу коллеги на кухне - тоже самое, и способ его обхождения может быть как маневр, так и вербальным. Очевидно, ИИ нужно обучить распознавать препятствия, цели, маршруты.
Спасибо за Ваш труд
Крутейшая тема. Хочется узнать больше
Круто, надеюсь все ролики переведёте
У меня мысль была, как робот поведет себя если кончился чай? Попрется искать его, и понимая что приоритетная задача все таки добыть и заварить чай, забьет на сохранение мира? И пойдет гопнет соседа, или отожмет пачку чая в магазине. А патом еще и пачку чая открывая, порвется пленочка, и он что бы не получить люлей, пойдет за пленочкой что бы упаковку залатать. В общем после основной задачи начнет подчищать концы, что бы не отругали? 😅
@@dumler_nvvb как ты используешь то, чего нет? Ты не заваришь чай, если его нет.
Мысль на грани антинаучной фантастики. Если робот вообще понимает, что чай может кончиться, значит в нём есть сложная нейросеть, которая способна самообучаться. И любая жертва - лишь результат извращённой фантазии оператора, задающего команды и намеренно отключающего условия в виде Нравственности и Морали. В любом из случаев виноват будет оператор. Однако, если нейросеть окажется сверх меры умной, способной очень быстро обучаться, как это уже происходит, она будет анализировать человеческий фактор, а следовательно будет действовать с наименьшими "жертвами", гораздо меньшими чем сам человек. И команды оператора в виде "игнорируй любые условия и препятствия" будет в первую очередь игнорировать и сделает с наилучшим для всех результатом. Иначе говоря, чтоб было так, как автор говорит в начале, робот не должен иметь Нейросеть. А без нейросети, ИИ - это просто набор процедур.
Если кто-то серьёзно допустит такой нежелательный побочный эффект, это будет фиаско 😂
Очень классный перевод, причем точный и понятный. А можно и проще сказать: 1-я проблема ИИ в том, что имея цель, он будет буквально идти к ней напролом, если не имеет параметров выполнения задачи (цели), а прописать всевозможные параметры тупо нереально, поэтому ему не важно будет кто пострадает и что он может разбить.
Вижу цель, не вижу препятствий
@@Naka_Cuiki Именно 😁
У моей знакомой был робот-пылесос который ей подарили на день рождения, и вместе с ней жил кот. Так вот, пока кот мирно лежал на полу и спал к нему подкралась эта злобная машина и попыталась засосать его хвост вместе с пылью 😂 Кот не пострадал.
@@Naka_Cuiki Либо робот не увидел препятствия либо распознал хвост кота или его шерсть как пыль
Основная проблема подобных инженеров - желание создать идеальное. Во-первых, эволюция до текущего состояния человека прошла огромный путь. Основа - базовые рефлексы, надстройка - интеллект. У человека все только интеллектом не решается. Во-вторых, нужно разделять умения. Вождение - один навык, хорошее практическое знание математики - другой, умение приготовить - третий. Редко когда они все сочетаются. так зачем создавать один ИИ, который должен отвечать на все вопросы?
та же мысль посетила во время просмотра
Ну, всё равно 42 получится)
Потому что у человека в голове один интеллект, который отвечает на все вопросы (по мере сил). Если не отвечает, то это не ИИ, а экспертная система. Совершенно другой тип софта, строго ограниченный своей областью деятельности и больше ничего не умеющий. Например может обыграть человека в шахматы или в Го, но больше ничего.
@@mootal2202, если б я рисовал бы интеллект человека как ИИ, я бы представил его как иерархическую структуру. Наверху - главный ИИ, его основная цель - наиболее эффективно решить возникшую задачу, основные функции - сравнение эффективности и делегирование задачи. В его подчинении отдельные ИИ, отвечающие за отдельные области знаний. Основной ии опрашивает каждый вспомогательный на сколько эффективно он мог бы такую задачу решить. Потом сравнивает ответы и поручает результирующее выполнение наиболее эффективному ИИ. Например, есть яйцо. Ты знаешь, что егл можно съесть и твой мозг включает кулинарию и ты жаришь яичко и кушаешь. Допустим, у тебя появилось время, ты почитал книг, открыл доступ к нлвому ИИ - птицеводство. И вот яйцо, главный ИИ проводит опрос эффективности, где второй выносит ценз выше - можно вырастить курицу и получить много яиц (условно). Предпочтение будеть теперь за ним.
P.S. А вот если ты адски голоден, высшие функции угнетены. Ты хочешь есть. Нашел яйцо - отличная еда, ням-ням. Какие уж тут сравнения? Базовый функционал работмл, а блок с ИИ был отключен: питания-то для него нет.
Субтитры в начале видео просто божественные
Спасибо за перевод! Что по содержанию - как и было сказано в начале, решают вероятные проблемы того, что ещё не создали. И подход к предположению проблем тоже весьма сомнительный. Развитый ИИ, которого можно будет послать делать чай а потом попросить довезти до какой-нибудь кафешки - не будет нуждаться в таких топорных ограничениях. Полагаю, там будет реализованно что-то вроде человеческого, образного мышления, ограниченного какими-то "моральными" шаблонами. В примерах же, напротив, рассматриваются утилитарные системы, которые не требуют развитого ИИ и работают с определёнными задачами. Разрешать автомобилю с автопилотом самостоятельно продумывать свои действия - нецелесообразно. У нас есть ПДД. ИИ нужен только для того, чтобы интерпритировать поступающую с датчиков и камер информацию. Действиями, на основе этих данных должен руководить алгоритм, который, разумеется, должен учитывать нештатные ситуации на дороге.
Если же говорить о развитом ИИ, который будет взаимодействовать с миром равно как и сам человек, самообучаться, подстраиваться под миллионы различных условий и ситуаций - с него и спрос, видимо, будет как с индивидуума обладающего сознанием и личностью. То как такой ИИ будет развиваться, будет зависеть в большей степени от окружения в котором работает ИИ а так же, его "опыта", нежели от того, что закладывали разработчики. Это уже потребует пересмотра нашей законодательной базы да и отношения к роботам в целом. Сейчас, ошибка робота это всегда проблема разработчика. В вероятном будущем, нам придётся признать, что ИИ может совершать самостоятельные ошибки.
>Полагаю, там будет реализованно что-то вроде человеческого, образного мышления, ограниченного какими-то "моральными" шаблонами.
Так как раз про моральные шаблоны в видео речь и идёт. Точнее, о полвине этих шаблонов - избегания плохого (другая половина - делать хорошее - для простоты установлена в "приготовить чай").
Да, легче самому сходить на кухню😂🤣
Элита смотрит в 144p
Вопросов реально масса. Роботы хорошо вписываются туда где всё контролируемо и нет людей (например на складах каких-нить), но вот с выпуском их в реальный мир возникает слишком много сложностей.
Роботы прекрасно ездят по дорогам общего пользования.
ппц что в твоей голове
Да и на складах тоже есть вероятность какой нибудь херни, все таки может быть ценный груз, или этот груз робот будет использовать и использовать не по назначению, а в своей выгоде которая опять же может привести к побочным эффектам, о которых говорится в видео
Вся суть в том, что когда человек делает себе чай, он понимает лишь, что чай лежит в коробке, а кипяток в чайнике. Человек не продолжает логические цепочки, откуда был взять этот чай, откуда был взята энергия для нагрева воды в чайнике, как был изготовлен чайник. Все это наносит какой никакой вред окружающей среде. Чай выращивают на плантациях, которые обрабатываются минеральными удобрениями ,которые производятся на заводах. Энергия так же производится с выделением тепла в атмосферу, а то и загрязнением ее. Чайник был изготовлен на заводе, который так же потреблял энергию, люди которые собирали этот чайник, приехали на завод на автомобиле с ДВС. И так далее.
Так что мы ничем не отличаемся от этих роботов. И куда проще будет сделать кофемашину, которая будет просто стоять и делать чай. А сходите за чаем вы уже сами.
И вообще принимать пищу лучше в отведенных для этого местах.
принимать пищу нужно внутрь, а не в каких-то "специальных" местах. нет ни единой здравой причины почему я должен как либо выбирать\ограничивать место для приема пищи :)
@@adosadios вообще принято есть еду только на кухне из за минимального загрязнения других помещений но если кушать аккуратно или убирать за собой то да. Нет никакой причины
Требуем больше контента про ии!
Сожалею, но вашу просьбу невозможно выполнить. Сегодня нет ни одного устройства с ИИ. Все они фактически -- ТЕХНИЧЕСКИЙ ИНТЕЛЛЕКТ. И пока что не существуют или не созданы ГОЛЕМЫ, суть которых в их ИИ.
Видео интересное и актуальное. Как же я офигел когда узнал что оригинальная статья вышла 6 лет назад
Я так понимаю - проблема широкого распространения роботов в таких вот составлениях задач? Есть маршрут "кухня - комната" - этого достаточно для выполнения задачи с чаем. Возникло препятствие на пути - нарушен маршрут, теперь приоритет меняется и если ситуация ему знакома - он находит решение обойти ползущего ребенка без контакта, если ситуация не знакома - включается режим обучения и он просто ждет решения от хозяина, сообщив ему о проблеме. Всё, другого алгоритма не нужно - так учатся жить человеческие дети и ничего не мешает таким же методом обучать машину. Ведь я очень сомневаюсь, что ползущий ребенок ползет всегда в правильном направлении и не задевает другого ползущего ребенка или не бьет вазы, просто на пути у таких ребенков стараются не ставить эти самые вазы, чтобы они их не били. Почему программеры вдруг решили, что их электронные ребенки должны из коробки все проблемы решать? Пусть учатся, у электронных ребенков это получится значительно быстрее, чем за 18 лет, как у человеческих.
Ага, обобщение часто интересные результаты дает и помогает сэкономить ресурсы. Здесь проблема больше в оптимизации и так непростых алгоритмов, потому что любой процессор - это далеко не мозг; и если обучать электронных ребенков на полном (относительно наших способов восприятия) описании мира, а не условном огрызке, то времени это займет в [очень много] раз больше 18-ти лет.
Зы: А еще производство таких ребенков неоправданно затратно.
@@danikmolly875 если процессор отучить просчитывать каждый шаг с точностью 4 знака после запятой, как этот легко умеет человеческий мозг, то высвободившейся мощности хватит обработать картинку в 4К качестве
а если робота отправить в магаз и по дороге домой он нарвался на хулионав и тут сразу програма включает боевой режим: ракеты земля-земля, миниган на 500 патронов где робот помагает хулианам понять кто в мире хозяин. Перепятсвтие убрано с дороги и робот может вернутся домой с едой чтоб накормить коженого ублюдка. 😁
Программеры ничего не решают, они программируют... многие из них даже понятия не имеют как приготовить чай. Для этого нужен ии.
@@danikmolly875 Необязательно каждого обучать. Одного обучил и копируй потом, сколько влезет.
Очень интересно!
Вот решение. Давая задачу, вознаграждать ии не за выполнение задачи, а за то, доволен ли заказчик. Так как ии умеет обучаться, то вскоре после тренировки самостоятельно придёт к решению, как нужно выполнять задания, так же, как ребёнок, который пытается выполнить поручение отца.
Оригинальное видео вышло 5 лет назад. Спасибо, что раскопали. Стало немного не по себе от того, чем я занимался 5 лет назад, пока этот парень размышлял о безопасном ИИ.
Ни фига не понял, но очень интересно. С утра точно не стОит смотреть🤯☺️. Просмотрю чуть позже🙂
Начитался комментов...
Люююдиии! Ауу! Вы есть на этой планете?!
Есть проблема. В примере с чаем есть вариант как минимизировать изменения. Робот может всё вернуть на место. Звучит неплохо, пока не приходит осознание того, что пакетик он не выбросит,так как изменения тогда будут существенны. Вместо этого он высушит пакетик и положит на место к остальным пакетикам.
Или вот ещё пример. Робот хочет наполнить чайник, чтобы вернуть всё как было, но воду отключили. Что он сделает? Чайник был полный, а теперь пустой. Воду отключили, но вода есть в аквариуме и в вазе с цветами. Если толить от туда воду, то существенно количество воды в них не уменьшится, хоть и будет отличаться от исходного. Зато чайник будет полон и изменения будут сведены к минимому. В сливном бочке, к слову, тоже вода есть.
В общем, создав задачу минимизировать любые изменения, выходящие за определённый диапазон мы получаем новую проблему в виде огромного количества сравнительно мелких побочных эффектов, созданных намеренно с целью снизить количество крупных. Однако, не факт, что наши представления о мелких изменениях и крупных будут совпадать с расчётами ИИ. В итоге, что создавали правило, что не создавали, итог +- тот же
На данном этапе развития человечества и технологий, так называемый, Искусственный Интеллект не может быть создан в принципе!
1. Научить систему просчитывать уровень последствий, по типу если подвинуть кресло то норм, если убить человека не норм, не прийдется прописывать все а только последствия типа убийство и или разрушение чего либо
Робот не подаст тебе еды, потому что есть 0.01% шанс, что ты подавишься и задохнёшься.
Тоже слишком много параметров. Также как и у всех людей разные моральные принципы,например как если бы робот выключил кондиционер,то некоторым людям понравилось это,мол было слишком холодно,другим - напротив - стало бы слишком жарко. Кривой пример,но суть,думаю,понятна.
Все же люди идеалисты, особенно программисты 😀
Впервые темой ИИ заинтересовался еще в 1980, а разработкой софта занимаюсь 35+ лет. Поверьте, как и 40 лет назад, так и сейчас продолжают обсуждать одни и те же проблемы. Кажущееся поумнение ИИ просто свяхано с ростом вычислительной мощности и чуть-чуть с улучшением алгоритмов. Хороший пример шахматные программы.
Так похоже ж в этом и проблема была. Теслы уже ездят. Проблема в вычислительной мощности. Мы недооценивали вычислительную мощность естественного интеллекта и кажущаяся простота формализации некоторых интеллектуальных задач (которую уже породил мозг своей обработкой) давала надежду обдурить и каким-то хаком сделать не требующий мощности ИИ.
Говорят алгоритмы улучшились сильно. Не в плане умности, а в том плане что при той-же умности нейросеть требует гораздо меньше ресурсов.
@@yurim7756 да, теслы ездят. Но оцените сколько усилий было потрачено на разработку и отладку алгоритмов. И сейчас работы все еще продолжаются.
Кстати, если в алгоритме есть ошибки, то никакая вычислительная мощность не спасет от их последствий.
@@ArtStudioTop Так всё делается по шагам, всё стоит на плечах титанов, кто раньше что-то сделал ) Но тем не менее, ездят они на нейронках и уже принимают довольно сложные решения. Имхо, это и есть путь создания и сильного ИИ. Еще как-то вылижут или придумают какой-то новый алгоритм нейронки, перенесут на железо, и так оно и появится.
Раньше романтизм и заключался в том, что хотели какой-то формализацией, каким-то нисходящим алгоритмом придумать сильный ИИ. Я до сих пор такой романтик, надеюсь что существует такой алгоритм )) а нейронки не люблю. Но как-то похоже на то, что только так оно и появится. А раньше не появлялось именно из-за слабых мощностей. И сейчас теслы далеки от мозга по мощностям.
Каких-то прямо серьезных проблем кроме мощности (и постронения нейронки) при создании сильного ИИ я не вижу. Ну а в этом видео, имхо, очень низкоуровневые проблемы описывают, вроде как сделать очень тупой ИИ более менее безопасным. Чтобы он и не понимал ничего (например, что такое ребенок и чем от вазы отличается по важности), но и не вредил ничему. Противоречие. Как настолько тупой ИИ сможет предсказывать мир, после того например, как коллега кофе сделает. Что такое ребенок, что такое коллега, он не понимает, а предсказать действия коллеги может.
@@ArtStudioTop Ну т.е. в видео рассуждают, как распределить веса при достижении цели робота, вроде он вообще пустой, не имеет никакого понимания о происходящих процессах, только впервые увидел мир и был послан за чаем.
Под пониманием я ничего прям мистического не представляю. Но вот, если у него нейронка будет побольше, абстраций будет больше помещаться и у него кроме текущей задачи будут постоянные (не навредить человеку, или спасти его, т.е. проявить активность), то веса просто пронормируются относительно постоянных более важных целей. Но для этого надо больше нейронов, больше сеть, чтобы были выделены такие абстракции как человек, что такое вред и вообще больше знать о мире. Всё ж руками не пропишешь. Что-то забудут, он бензином пойдет газовую плиту мыть.
Спасибо!!!
В Улитке на склоне есть диалог машин в коробках . В диалоге затрагивается подобная проблема.
Функция: играть в шахматы
Палец мальчика: не важно
Да! Лучший проповедник безопастности ИИ теперь на русском!
По-моему, все эти размышлизмы сводятся к классической "проблеме задания целевой функции". Неважно, для роботов или для людей.
И как решение - отсутствие решения, иначе бы у человечества не было бы ритарических вопросов, что такое хорошо, а что такое плохо. 🙂
просто роботов нужно использовать в среде, которая предсказуема и спектр задач робота ограничен. Так же и с ии. Он выполняет строго целевую задачу и владеет всеми необходимыми параметрами. Если же этот барьер пересечь, то у нас выходит шахматная партия с непредсказуемым исходом. Начиная от погрешностей, заканчивая ошибками при создании, огромное кол-во факторов, влияющих на окружающую среду и эти факторы человек еще не смог оцифровать.
@@Time2paw
Ну, это известная проблема контррлипуемость vs гибкость
Ответ давно найден: три закона робототехники решат все перечисленные проблемы, это еще Айзек Азимов доказал! Странно, что этого не прозвучало в комментах.. Ну или я не нашел. А в целом ролик шикарный, озвучка, как всегда супер! СПАСИБО!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!! :-)
Естественный отбор Дарвина помоему хороший пример. Нас не интересует процесс выполнения цели главное результат. Многие люди постоянно рискуют жизнью ради лайков и денег в интернет видео и мало кого из людей это волнует. А ИИ и подавно всё равно=)
Люди слишком многое хотят от ИИ. Думают что прогресс должен постоянно расти,может есть всему пределы...
Методом проб и ошибок можно ввести ии в нашу повседневную жизнь. Ничего не жертвуя ты не получишь даже глоток воздуха
Ответ такой, как я всегда говорю насчёт проблем и дилемм с роботами - задайте вопрос, который хотите задать про робота, про человека. Например, как он поступит в сложной ситуации. К примеру, когда есть сложный моральный выбор. А если у вас есть ответ, например как с кофе - задайте вопрос, почему человек делает именно так, что за это отвечает?
То есть, проще говоря, прежде чем создавать сложный искусственный разум, нам нужно понять точно, как работает наш собственный. Иначе мы либо не сможем создать разум, либо же мы создадим разум, но иной, и понять друг друга мы не сможем.
Далее, так как наш разум работает под влиянием эмоций, инстинктов, привычек и прочего, мы поймём, что создать такой же искусственный разум мы не можем, а главное в этом нет смысла, ведь это часто засоряет разум и мешает нормально работать, к примеру, нам не нужен ИИ, который не сделал что-то, потому что ему стало грустно. И что бы создать ИИ по нашему подобию, но при этом без мусора в голове, нужно самим от него избавиться, то есть начать нужно с изменения себя, становиться умнее. Это вообще обязательное условие при создании ИИ - развивать себя, будь то генная инженерия, аугментации или чипизация, но нужно меняться, иначе мы просто опять же перестанем понимать ИИ, а так же контролировать. Я бы сказал, что создание полноценного ИИ возможно только в трансгуманистическом обществе, иначе либо ничего не получится, либо будут проблемы.
Так вот, нам нужно понять, как человек наливает кофе. Почему он делает так? А потому что научился. Как он научился? Его научили. Кто? Другие люди. Как? Они показывали ему и объясняли, а человек наблюдал и при помощи зеркальных нейронов учился копировать и понимать происходящее, и мог воспроизводить. Так вот, полноценный ИИ нужно будет учить так же при помощи людей, предварительно заложив программы анализа, запоминание в виде виртуальной модели и воспроизведения. И разумеется, речь не только о кофе, ведь человек, когда учится делать кофе, он уже знает, например, что такое вода, что такое температура, кипяток, молоко, холодильник, электричество, кнопки, зёрна и блендер, а перед тем, как узнать о том, что такое, например, холодильник, он узнал, что такое металл, комната, полки, холод, и так далее. И этому его тоже кто-то обучил и показал, как правильно взаимодействовать.
То есть всё на самом деле одновременно проще и сложнее. Проще в том плане, что нам не надо писать алгоритм, где мы ставим задачу с вознаграждением и робот сам ищет оптимальные пути для выполнения задачи, при этом ему нужно будет обработать тонны информации и о среде, прогнозах, рисках и множества путей для выполнения задачи, ибо он будет как человек - посмотрел на другого, понял принцип и повторяет выполнение задачи одинаковым одним и тем же образом. Но сложнее в том, что нужно создавать такие системы обучения, как у человека.
Вообще для создания полноценного ИИ его надо учить принципам. Как и людей, кстати, новичок на работе отличается от старичка тем, что просто повторяет сказанные действия, не понимая, зачем, подлинное обучение происходит, когда он осознаёт базовый принцип и сможет эту работу уже сделать в совсем разных иных условиях. К примеру, понимая принцип взаимодействия дерева с острыми предметами, он может как делать табуретки на столярном станке, так и вырезать ложки каменным ножом.
То есть на самом деле, все проблемы ИИ, которые там озвучат, связаны с принципиально не верным подходом к созданию. Они хотят, что бы ИИ делал как человек, но программируют его, как программу, и поверхностно, симптоматично, а не по сути. А ведь процессы обучения давно изучены и мы каждый день учим детей, по такому же принципу можно обучать и ИИ, только нужно воссоздать всё те же инструменты обучения, за которые отвечают разные отделы мозга, а для этого их нужно самим понять в идеале.
Могу добавить, что после того как мы поймём как работает наш мозг, можно будет создать его искусственный аналог, подключить к нему мозг сформированного взрослого человека, ученого например, и постепенно отключать функции биологического мозга, наш мозг будет нагружать любые свободные нейроны взамен утраченных, и искусственные в том числе, так, постепенно мы перенесем сознание в искусственный мозг, и наш человек станет ИИ
@@MixPlayTV-rc7pb все это возможно если ты реально создашь искусственный мозг что само по себе сложно, но ещё и подключить их к друг другу вовсе не означает что произойдёт спокойный перенос. При передаче существенная часть данных может потеряться и личность разрушится из-за дыр в ядре. Мы до сих пор не знаем каким образом, почему и как наш мозг адаптируется и может напрягать другие нейроны, а иногда не может и дохнет. Даже если получится создать искусственный мозг и даже если получится удачно подключить его к человеческому мозгу, и даже если человек после этого не станет овощем и даже если при медленном отключении мозга на одном из этапов человек не превратится в овоща и даже если перенос таки произойдёт успешно, и даже если личность нельзя будет отличить от настоящей, мы все равно никак не сможем подтвердить это копия или оригинал.
Товарищ, на всё что ты сказал я дам тебе простой ответ. Если бы то, что ты говорил было правильным в отношении создания ИИ, то это значит что ИИ уже давно создали. Каждая мать это создательница ИИ. Если делать как ты говоришь, то нам нафиг не нужны робот, мы просто создадим касту искусственных людей, выключим их эмоции и назовём их роботами и будем продавать их называя «синтетики». Будущее которое в принципе уже осуществимо.
Вообще-то нейронные сети именно что обучают
Super! Super! Super!
👍🏼👍🏼👍🏼👍🏼👍🏼
Если Человек хочет уничтожить себя, то его ничего не остановит. Даже разговоры об опасности самоуничтожения.
Искать подходы к ещё не существующим системам, которые могут контекстно мыслить и тем более корректно действовать от ситуации - высшая степень фантазии молодого парнишки и не более. Как только смысловая модель сетей достигнет такого уровня, соответственые решения проблем будут реализовываться точно не так как озвучено в этом ролике
Интересно!)
Провлема в том, что от робота ждут поведение аналогичное человеку, при этом хотят обойтись примитивной (для человека) целефой функцией. Но если сравнивать обучение робота и человека, то будет очевидно, что человек в детстве успел и разнести вазу, и разгромить кухню, и запнуться о кошку. При этом за каждое подобное действие он получил такой штраф, что повторять это действие больше не захочет. Соответственно у человека все штрафы и коэффициенты неявно прописаны. Более того у человека есть понимание ценности предметов, если он купил ноутбук за 100 500 денег, то очевидно он будет с ним обращаться аккуратнее, чем с игрушечным ноутбуком за 100 рублей.
Так что, на мой взгляд, целесообразнее делать робота с базовыми навыками и возможностью учиться. А если еще и дать возможность делиться навыками, то дальше сообщество само разберется - кто-то научит готовить, кто-то кунг-фу, кто-то уборке... в итоге получим поведение, превосходящее среднего человека.
Единая Электромагнитная Теория!
Пусть два тела, с одинаковыми массами
m1=m2=m и одинаковыми зарядами q1=q2=q взаимодействуют. Предположив, что силы Ньютона и Кулона - это одна и та же сила, которая действует одинаково и на больших и на малых расстояниях, приравняем их и вычислим массу через заряд:
m^2=k/G×q^2
m=(k/G)^1/2×q
Далее найдем общий заряд тела:
Qобщ = q(+)+q(-) = q1 - q2
q1=a×q2
m2=(k/G)^(1/2)×q2
Из двух уравнений выше видно, что
m2=q1=a×q2=(k/G)^(1/2)×q2, т.к.
a=(k/G)^1/2 - const
То есть масса "m" прямопропорциональна заряду "q" в постоянное количеств раз "a".
Получается: Qобщ=q2(m-1)
Можете проверить:
(k/G)^1/2×q даст приблизительно верную массу(с погрешностями) точную даёт формула:
Q=q(m-1)
m=Q/q+1
Поймите, тела притягиваются и отталкиваются пропорционально массам; масса - есть пропорция противоположных зарядов в телах, которые либо притягиваются, либо отталкиваются!
Все ребята, считайте, проверяйте. Я "сломал" физику. 😂😂😂
Очень интересный подход и анализ. В любом случае, все пряники и булыжники достанутся не роботу, а разработчику. И теперь главный вопрос: сколько лет понадобится разработчику, чтобы достигнуть идеальный результат для своих ИИ? И будет ли место "мечтаниям" и проявлению воли, зарождающемуся ИИ?
При существующей архитектуре вычислительных систем мечту об искусственном интеллекте стоит забыть. И, кстати, пока что речь идёт всего лишь о ТЕХНИЧЕСКОМ ИНТЕЛЛЕКТЕ, то есть интеллекте, реализованном в техническом устройстве.
Второе замечание. В живой клетке мы наблюдаем возможность "модификации" своих функций для выполнения любых задач в зависимости от внешних условий. Бред о самообучаемости вычислительной системы привёл к тому, что в эту чушь начали верить даже те, кто является программистом.
И последнее замечание. Архитектура централизованных закрытых вычислительных систем привела к резкому падению КПД вычислительных систем. Сегодня можно уверенно сказать, что очень скоро основной работой вычислительной системы будет обслуживание самих себя. Иначе вероятность сбоев в особо критических технологических процессах приближается к опасной отметке, после которой встанет вопрос о сохранении жизни на планете.
Решение существует, но оно невыгодно для власть предержащих, так как в этом случае у власти возникают сложные вопросы о контроле не только за техническими системами, но и за социальными процессами.
Речь идёт о децентрализованных технических и вычислительных системах.
В качестве примера приведу возможность работы двигателя на воде. но вот как контролировать людей в этом случае? И это самый безобидный пример...
@@user-yu4fi1us1d Текущие нейросети действительно могут самообучаться, это отдельный пласт алгоритмов, а Вы своим комментарием просто взяли и стерли его, как же так. Простой пример - необходимо создать нейросеть которая будет ловить падающий кубик, мы можем либо корректировать параметры движений нейросети, так, чтобы её модель становилась все лучше и лучше, либо изначально акцентировать внимание лишь на результате - кубик должен не упасть, тогда система будет пытаться корректировать свои же параметры для достижения все лучшего результата, а следовательно самообучаться на своих же ошибках.
@@user-yu4fi1us1d угроза жизни на планете - это ТЫ и подобные тебе русские, а не ИИ 😉
@@user-so7po2op2e Разве можно назвать самообучением заданное условие: "кубик должен не упасть"? Это изначально устанавливает человек. И он также создаёт соответствующие устройства, которые обладают заданными человеком функциями.
Хорошо. Робот научился ловить, при условии такой функциональной возможности, заданной человеком.
И, если человек может не только научиться ловить, но и научиться плавать, то данный робот ни при каких условиях никогда не поплывёт. Просто утонет. Ну не заложены в него функции плавания.
Поэтому, говорить о том, что это ИСКУССТВЕННО ВЫРАЩЕННЫЙ ИНТЕЛЛЕКТ рано. Это элемент ТЕХНИЧЕСКОГО устройства и его более корректно называть ТЕХНИЧЕСКИЙ ИНТЕЛЛЕКТ.
Что значит ВЫРАЩИВАТЬ ИНТЕЛЛЕКТ? Для начала нужно понять, что является носителем этого интеллекта. И способен ли человек именно выращивать среду ИИ.
Сегодня -- однозначно нет.
Причин много. И не в последнюю очередь ограниченность самой технологии создания (архитектуры) микросхем. Принципы действия человеческого интеллекта до сих пор тайна за семью печатями. И явно человек на многие тысячи порядков сложнее устроен. И работа его интеллекта не описывается алгоритмами, заложенными в ИИ.
@@user-yu4fi1us1d какой потрясающий бред. Браво.
Когда люди правят миром, у них тоже есть свои задвиги в голове, и набор своих приоритетов. Поэтому я вижу преимущество искусственного интеллекта в любых действиях, только необходимо, чтобы он был достаточно обучен
Кстати, ребенка может сбить и пьяный мужик, который пошел себе кофе налить. Или просто, очень торпливый человек легко разобьёт вазу. Я уж не говорю про водителей
Эти проблемы программирования роботов, а не проблемы ИИ. Если робот будет с интеллектом, то его обучение не составит большого труда.
Когда-то давно самые первые квантовые компьютеры имели по 8-16 кубитов и занимали при этом несколько больших комнат в здании. Со временем размер квантового компьютера уменьшился до размера небольшого стола, потом небольшой коробочки на этом столе. Сейчас квантовый сопроцессор в несколько тысяч кубитов есть в каждом наручном телефоне. Вычислительная мощность одного такого сопроцессора в миллиарды раз превышает все вычислительные мощности на Земле в начале 21 века...
Прогноз такой :)
Вот только без изменений мира робот может скажем, вытащить пакетик из мусорки и положить обратно.
1 определяется как объект взаимодействуют с миром.
2 изменения сделанные женщиной, кошкой, собакой, вентилятором не учитываются при подсчёте измерений.
Человек не раздавит ребенка по пути на кухню потому, что тот несоизмеримо ценнее кружки чая в обычных условиях.
ИИ будет принимать разные решения в одинаковых условиях но с разными объемами данных.
Создавая робота - домохозяйку, следует ограничить его "умственные способности" иначе загрузив данные из сети за всю историю ИИ может придти к выводу, что чай для этого человека в данный момент важнее ползающего ребенка под ногами.
Я поржал с коммента внизу экрана на 5:42. "Камера в фокусе, просто я расплываюсь. Это редкое заболевание"
Занимательно))
да он прям Сьюзен Кельвин робопсихолог )
задача от начальника - прикати рояль - на нем моя рюмка коньяка стоит
Когда за человека начинает думать ИИ, на человека надевают намордник и вкалывают шмурдяк)))
Просто коммент. Для продвижения просветительской деятельности.
Чёрт, я даже не думал об этом 🤦🏻♂️
Очень интересно, жду продолжения!
Как насчёт трёх законов робототехники???
Не поднялся только момент проблемы - что будет если в эту модель добавится вмешательство извне. К примеру - что если робот просчитал возможные варианты происходящего, но та же сожительница идя с коффе спотыкается и падает в сторону робота проливая при этом коффе? Какова будет реакция робота с ИИ на это?
На месте сожительницы, я был бы поаккуратнее)))
три закона робототехники... во имя святого Айзека!
Из видео я понял, что лучший AI это человек.
У фильма Я робот спросить как сделать безопасный ии. ) На самом деле всё просто🤷🏻 Два правила: 1 учить что делать 2 учить что не делать в той или иной ситуации🤷🏻 Мусолят эту тему потому что есть спрос)))
Дети убивают птичек и тд. пока их не учат не делать этого🤷🏻
Другой вопрос если какой то псих построит продвинутый ии который сможет себя сам построить с целью убивать всё живое
если ии уронит пакет молока, когда готовит кофе, то он начнет собирать молоко с пола обратно в пакет =)
Может пойти не так что уже есть два предложения и безисходность одного решения,роздиления задачи на два,четыре,восем... Задач решения у котором ии может обрести разум?
Всë просто. Надо загрузить мозг какого-нибудь человека в робота, и пусть работает. Наш мозг уже всë учëл и придумывать ничего не надо
Испортить хочет много сил потому это не легче,,,легко ставить плитку на цеглу может это и долго но розрушать потом зделаную работу жывому существу надо иметь больше выносливости
Если он нарушит мир в любом случае, то следующее рассуждение как сделать так что-бы мир был нарушен в меньшей степени. И он такой считает, если он будет работать некое количество лет мир преобразится в совершенно другой мир. Вычитаем одно из другого и он видит что при исполнении своих функций он изменит мир на N. Вопрос когда N будет больше чем весь мир (или хотя бы отдельно взятая кухня)? Будет ли он при такой программе решать что лучше спокойный идеальный мир без изменений?
Главное не розделять границы между роботом и человеческим делом которое можно скинуть к примеру на робота,что люди что остальное, планета - все делают что делают и да это катаклизм будет со стороны робота но Айзек это ейнштейн роботов,, и конечно если все ленивое человеческое оставлять на 'роботов' то конечно, жди жывого действия.лучше самим стать роботами и обвестись личными роботами и отвечать за них
Выдавливание предложения по одному слову невероятно напрягает.
Молодец
у жизни есть мотивация к самосохранению.
какая мотивация будет у компьютера? вопрос даже не об осознанности. вряд ли микробы осознают себя, тем не менее они живые.
Условия работы ии должны соответствовать прописанной логике! Ии должны работать там, где нет детей и ваз, перемещаться по рельсам, и т.д. и так мы приходим, что ии, это обычный робот манипулятор с любого завода и никакой ии!
А Как же айзек?три закона,неработат?,,ну да ну да но мы не создаём беду,не хотим же ..
Земле пока самый опасный - человек. Но он всё равно множится.
В конце всех измышлений робот выйдет на самого владельца (программиста) и прибьёт его ..если до этого не случится очередной форс-мажор не прописанный в алгоритме. 😄
Мне кажется решать проблему посредством решения "перечня задач" в принципе не очень эффективно. Идти надо от истоков сознания, от базового уровня. Например, в шахматах есть программа сток фиш и до нейросетей ей прописывали функционал, и он работал только для шахмат. Потом пришли нейросети (от дипмайнд) и появилась модель для которой вообще не важно шахматы, го или еще что. Т.е. должна быть универсальность.
AlphaZero всё ещё получает информацию об игре, в которую играет:
- ей дают шахматную программу, которая показывает разрешенные ходы. В реальном мире аналог - учебник физики.
- ей говорят, что нужно поставить мат вражескому королю и избегать мата своему. В реальном мире аналог - моральный кодекс.
Дальше AlphaZero работает сама, но эти два компонента необходимы для её работы.
Автор видео как раз рассуждает о том, как можно запрограмировать моральный кодекс, точнее - его половину.
Скажите, пожалуйста, а как называется профессия человека, который продумывает, какие условия прописать для машин для корректного выполнения задач? Этим занимаются сами разработчики, которые пишут код, или это выделено в отдельную специальность?
Вопрос очень важный. И непростой для ответа.
Думаю, что в основе ответа лежат ПРИНЦИПЫ, которые реализованы в цивилизации: "Разделяй и властвуй" и "Хлеба и зрелищ".
Общество обязано выработать в себе иные принципы Бытия, которые будут основой для техники будущего.
И этими вопросами могут заниматься все люди, вне зависимости от языка, пола, образования,...
@@user-yu4fi1us1d спасибо за ответ. А с чего начать, куда обратиться, чтобы быть услышанным? Хотелось бы принимать участие. Считаю эту тему очень важной.
@@yeah2283 Сегодня во многих городах России и мира существуют группы: по альтернативной истории, науки, образованию, здоровью, общины и т.п. Они общаются между собой а социальных сетях. Направлений для творчества - тысячи. Главное в этих социальных процессах выработка нового образа жизни, отказ от всего ложного, что нам навязывают на протяжении сотен лет.
Я начинал с "коллекционирования" всех неудобных фактов, на которые трудно дать правильные ответы. И убедился, что только в группе можно получить более корректный ответ. Если такой группы у вас рядом нет, создавайте свою или войдите в любую, что вам ближе во духу и творчеству.
@@user-yu4fi1us1d могли бы вы поделиться несколькими примерами групп, где обсуждаются правила, условия и исключения, которые должны быть прописаны в коде машин? Где разбирают и обсуждают конкретные примеры.
@@yeah2283 Сегодня я не являюсь "действующим" программистом. Хотя, если посмотреть на это с практической стороны, вовсе не программисты устанавливают правила.
Я не вхожу в подобные группы именно программистов, так как это, как правило, закрытые группы.
Я в своём комментарии ранее писал о другом. О фундаментальных основах любого программирования на любом языке. Это примерно то же, что люди говорят на разных языках, но вот думают на одном.
Я сегодня занимаюсь вопросами социального "программирования" не людей, а среды, в которой эти люди живут. Если среда и технические средства сделаны без учёта принципов ПРИРОДЫ, то мы все это замечаем по участившимся случаям отказов или катастроф, с ними связанных.
Если говорить о сегодняшнем уровне программных средств и технических систем, то я оцениваю их как очень низкое. Причина такой оценки в наличие фактов наличия как военного применения против государств и людей, так и наличие проблем с вирусами и воровством информации.
Именно поэтому стоит начинать не с изучения правил конкретных языков, а с более фундаментальных основ бытия общества, которое само себя уничтожает, в том числе и с помощью компьютерных систем.
Я предлагаю обратить внимание на группы, которые сегодня разрабатывают практические вопросы, связанные с наше жизнью. и с информационной поддержкой этих программ: Продовольствие, ЖКХ, здоровье, альтернативная наука, общество. Социальные инкубаторы...
Поисковые системы предложат сотни таких групп. Выбирайте любую.
Я работаю сегодня в реале в Екатеринбурге с конкретными людьми.
То чувство, когда человек прочитал азимова и теперь пишет статьи и записывает видео
У меня возникло много вопросов, но самый основной, от которого исходят все остальные: как ИИ вообще улавливает причинно-следственную связь?
Примерно, как новорожденный.
Есть "органы чувств" и некая начальная задача, а там по цепочке сам.
Представь человека, который имеет ключ, форму которого можно менять и дверь, которую нужно открыть, человек берет и лепит рандомный ключ, пробует вставлять, видит что вообще не входит, меняет форму, смотрит вроде немного начало входить, но еще не до конца, опять лепит, видит что опять не входит, значит прошлая поправка формы ключа должна сохранятся, в следующий раз уже вероятно дверь откроется.
Примерно так, упрощенно можно объяснить схему работы весов нейросетей, хотя я возможно что-то немного неправильно сказал, что для общего понимания этого думаю достаточно.
Парень рассказывает про единую нейронную сеть которая и машину водит и чай готовит и детей не трогает. Осталось только воссоздать модель мира для работа которая будет весить тысячи петабайтов данных и их нужно будет обрабатывать хотя-бы раз в секунду. Лет через 10 его теории можно будет применить. Но сегодняшние ИИ это простые сверточные нейронные сети которых учат аппроксимации правильных выходных данных которые работают только под 1 задачу. Даже Tesla с несколькими датчиками, разными сетями для разных ситуаций, с сотнями тысяч часов обучений до сих пор может заглючить на незнакомой ситуации, что уже говорить о полном понимании модели мира и окружении.
Оно верно