@@FilSerge бесплатно. Ограничение только на длительнтость одной сессии (12 часов максимум). Ну и хотя очень редко, но может возникнуть ситуация, когда на тебя не хватит вычислительного девайса на серверах гугла.
@@rekval странное дело, когда залез в настройки колаба, то там мне предложили видеокарту за 10$ в месяц со словами о том, что в моём регионе эта функция не предоставляется. При это, если залесть в настройки рантайма уже в самом ноутбуке, то спокойно даётся выбор между GPU и TPU. Очень не обычно. Тем не менее спасибо за наводку. Оказывается мой комп в 2 раза медленнее, чем их серверные мощности. Думаю теперь вовсе перебраться програмировать на планшет :D
Я офигел, когда увидел своего кота под занавеской у тебя в видео. Но потом вспомнил, что я же тебе его и прислал). Очень интересные видео у тебя, я все посмотрел.
Я вам по-хорошему завидую. В мое время, когда я начал заниматься радиотехникой ("радиокружок" в Доме Пионеров, были такие в 80-х), а потом микроэлектроникой в студенческие годы, мы собирали компьютеры "на коленке" из микросхем. Всякие "Радио-86РК", "Орион-128", "ZX Spectrum". Писали свои поделки на Ассемблере. Как таковой тематической литературы не было. Мы даже представить себе не могли таких широчайших возможностей, которые сегодня открыты каждому школьнику и студенту с доступом в Интернет. Но вот смотрю на современную молодежь: не вылезают из своих "гаджетов". Ничего не нужно кроме игрушек и тик-тока. А тем, что постарше - тусоваться в гипермаркетах, да еще "вейпить", прикидываясь паровозом. А вы молодец. Я бы даже сказал, самородок. Подписался на канал и с большим интересом смотрю ваши видео. Творческих вам успехов.
Большое человеческое СПС за самое лучшее видео формата "я пишу базовый лёгкий код объясняя его основные моменты, после чего вы там уже сами углубляйтесь и разбирайтесь". Неиронично, нормальных видосов такого рода по нейросетям кроме этого не нашёл. Абсолютно рабочий код, нормальная подача материала без какой-то супертеории, которая всё равно к написанному коду с трудом прикладывается и вот всего такого прочего. Ещё раз спасибо.
Как привести входные данные к удобному для нейросети виду: 1) Использовать сигмоиду 2) Разделить на масимальное значение 3) Разделить на 10^n, где n количество разрядов в числе Я не знаю, применяют ли третий способ, но это первое что пришло мне на ум, когда я узнал, что лучше всё сводить к периоду [0:1].
6:50 я думаю, что делить на 255 каждый пиксель не очень хорошо, ведь в результате будут получаться числа с бесконечным остатком после плавающей точки, что может быть источником погрешностей. Но если эти погрешности всё же не существенны, то лучше не делить на 255, а умножать на 0.00392 потому что операция умножения всегда быстрее.
Формула в синопсах должна решить это перед передачей в нейрон , конечно лучше ограничить плавающие точки , только из-за скорости принятия решения, сегодня я ввел задачу, подключился к Google, дали мне 25 ram и на выходе на решения задачи , комп оценил это в 6.8 лет ))))
Вы скажете ПАРАДОКС, но чем меньше людей смотрят без подписки - тем лучше . Пояснительная бригада. Если смотрят только подписчики, значит видос не попал в рекомендации другим людям 😎
случайно попалось ваше видео ! я в этих вопросах полный новичок но вы так интересно рассказываете что досмотрел до конца ! спасибо за ваши труды ! очень интересно!!!
Дружище, обычно смотрю все ролики через UA-cam Vanced, чтоб рекламы не было, но там нет возможности авторизации, оставить комент или поставить лайк, поэтому специально зашёл с компьютера, чтоб поставить лайки за классные ролики 👍🏼
Спасибо за подсказку. Пробую сделать по Вашей инструкции для выполнения кода на PC. В итоге, почему-то третья команда не выполняется. Удобный интерфейс Jupyter Notebook не запускается. Если подробнее об установке, то вот: в программе Онигири последний из импортируемых модулей - "google.colab files". Этот модуль не ставится и не импортируется на PC. Вернее, pip отчитывается об установке, но при запуске в коде этот модуль не принимается. После дальнейшей проверки кода при прохождении эпох тренировки нейросети "model.fit(train_batches, epochs=1)" программа работает медленно или вообще зависает. Все это приходится делать в режиме cmd или в python shell так как никакой jupyter notebook почему-то не запустился, и его удобный интерфейс не появился. Пока не понятно, в чем проблема. Но еще раз спасибо за изначальную подсказку!
Было бы неплохо еще применить аугментации к исходным данным, потому что на самом деле подобные модели могут затыкаться на моментах, где классифицируемый объект находится где нибудь в углу экрана, или что то такое здесь у тебя эта проблема не проявляется поскольку ты юзаешь предобученую модель, но если бы ты попытался создать свою у тебя бы эта проблема вылезла, а обучаешь ты только веса у последнего слоя. Также чтобы избежать таких значений как у тебя нужно бы было на выходной Dense слой поставить функцию активации softmax, она бы сгладила значения. Еще есть метод борьбы с зашумленностью изображения - давать нейросети на вход слегка забюренные изображения, для этого например подойдет Гаусовский блюр, его реализация есть в библиотеке opencv, по сути это простенький сверточный фильтр, хотя вообще то для сверточной сети шумы не так страшны, но как вариант, на самом деле не знаю на каких данных обучалась та модель которую ты юзал, но блюр применяют частенько при обучении, попробуй сделать это уже со своей собственной сетью, а еще про аугментации не забудь
В пайтона недоработанный синтаксис с ущербными if, например, всё остальное написано на С. Качество кроссплатформенности библиотек и дроч с установкой пакетов приводят к суицидам.
@@zhenshuang То что пайтон не идеальный это конечно факт, но такого высера я давно не читал. Чисто ламер думает, что посмотрев 3 урока стал супер программером. Скажи, в каком месте в пайтоне ущербный if, это вообще как понимать, тебе чё урок на плюсах по условным ветвлениям показался лучше чем на пайтоне? Дроч с установкой, самый большой пиздежь, на том же Pycharm делается в 2 клика, буквально. На линуксе любая библиотека в 1 команду, на винде, наверное тоже. То что там много чего написано на сишке, это только плюс, если хочешь иди в 20 году учи Асембли, абстракция же зло
Очень интересно и доходчиво, пожалуйста продолжай тему, мне кажется следующий шаг это создание своих датасетов для уникальных объектов. Было бы очень интересно искать именно своего кота;-)
@@lit1041 Блин почему все так хотят кодить на готовых языках. Ты же фактически его не сам сделал, а скопировал... Можно же пойти и написать свой язык. Как же горит, я сам пишу на низкоуровневом языке, но блять, пайтон супер удобный, и хейтить его за то что "ой за тебя все уже написали" очень тупо. Ты когда теорему по математике используешь ты же ее не выводишь каждый раз сам, верно?
Блин чел, пока ты еще не достаточно велик что бы не читать комменты, спасибо тебе. Ты быстро учишься, ты не рассказываешь про это, ты делаешь простые видео, но я понимаю что для этого тебе нужно учиться быстро и постоянно. Спасибо что стимулируешь некоторых из нас не только идеями, но и примером. Я с тобой относительно давно (наверное 3-4 года) и планирую поддерживать тебя дальше. Молодец, ваще красавчик, можно побольше вот этого вот?
Чувак, ты выбросил тестовую выборку, которую используют в процессе обучения для контроля того что сеть действительно учится. Поэтому ты и не уловил, что допустил ошибки. Поставь в конечном слое активационную функцию сигмойд - она ограничена с низу нулём и сверху единицей. Получишь стабильное предсказание 🔮
@@TexHuK01 в конце после сверки есть слой который выдаёт финальное предсказание - он является как раз перцептроном. В нем ставят сигмойд чтобы ограничить предсказание от 0 до 1
@@TexHuK01 Последний нейрон имеет сигмойдную функцию активации, выход который можно интерпретировать как вероятность(от 0 до 1), к перцептрону последний нейрон никакого отношения не имеет ибо он имеет ступенчатую функцию активации
@@AleckBoronnikov под стабильностью имеется ввиду разброс значений, а не точность. Сигмойд если выдаёт 0,01 то это условно можно считать за 1% вероятности, а вот софтмаксом все не так - если в одном канале 0 в другом канале почти 0, то второй канал все равно победит с показателем 100%.
Я где-то месяца 2 назад написал сетку по классификации кошек и собак на Pytorch(Это другой фреймворк, он несколько отличается от TensorFlow), я тренил сетку на gpu в Google Colab, у меня это заняло 10 часов, и на валидационной выборке у меня в конце получалось 83-85% точности, а на тестовой в итоге 87%, что странно довольно, причем все эпохи ошибка на валидации была меньше, чем на тренировочной выборке, я тренил на 3000 фотках(1500 на каждый класс), данные можно взять на Kaggle(площадка для соревнований по ML), и у меня была два выхода(там в конце Softmax+ CrossEntropy)
Спасибо за видос) очень интересно) инфу подаёшь легко и непринужденно) я тупой в программирование)) и хотелось бы больше инфы для нубов)) заранее спасибо)
Да уж, я сам врач но немного увлекаюсь программированием. И для меня программирование в разы сложнее медицины. Благо хоть в программировании не так страшно ошибиться.
скажи мне пожалуйста, Кирилл. Почему если пойти к пяти врачам с одной проблемой, все пять делают разные 5 диагнозов? Это же значит, что как минимум четверо (если не все 5) врут, правильно? Ну как так можно учиться 7 лет на врача, чтобы ставить разные диагнозы? Они дипломы покупают что ли, или просто это не люди в твари жестокие? Ну как так? Ну почему? Ты написал про "не страшно ошибиться в программировании" и мне стало смешно. Мне кажется, врачи которых я встречал - ошибаются намеренно и получают какие-то откаты от похоронного бюро. Я не знаю, как еще можно быть такими тварями и не разбираться в медицине. Ничего личного. Я просто сижу в ахуе.
@@hroostwear7724 просто у одних и тех же симптомов могут быть дохренадцать разных причин. а врачи ведь на 100% вас не знают. вот им приходится гадать на основании той инфы, которую вы им предоставляете, и которую они способны понять на данный момент времени.
Вообще хотелось бы больше видео про Colab, ибо большинство нейронок требуют CUDA, а новую видюху ради этого покупать не очень как то. Я для себя Colab открыл когда пытался dain-app запустить.
Интересное видео! Спасибо. Может быть ты как-нибудь расскажешь как лучше всего начать учиться программированию)) И ты не указал в описании ссылку на патреон
Не думал посмотреть в сторону обучения НН посредством генетических алгоритмов и записать нам видос, как ты это с нуля пишешь?) Было бы интересно. Спасибо за контент!
Так, сегодня я покажу как создать свою нейросеть: импортируем 10000 библиотек немного картинок ну и кода надо побольше Теперь берём волшебный пластилин от гугла и всё склеиваем *через час* А теперь этот волшебный пластилин можно скачать на свою слабенькую ПеКарню чтобы было! А! И чуть не забыл! Подпишитесь пожалуйста на канал!
Обязательно ли писать нейросеть в таких специфичных IDE? Или можно обойтись в самом начале чем-то попроще? (Учу питон и на данный момент использую мвс)
@@c4llv07e так ты и это словосочетание читаешь неправильно, ты хотя бы транскрипцию посмотри, а потом этот бред пиши. А еще название группы к ЯП никакого отношения не имеет.
Начал читать "Грокаем глубокое обучение" Траска Эндрю. И там этот Джупитер рекомендуют поставить. Забил, начал писать в VS Code. Спасибо за навотку на Коллаборатори. Попробую её.
Чувак, честно, не очень хочется чтоб твой канал превратился в очередной канал о программировании. У тебя очень круто получается рассказывать про физику и математику, а такого контента на ютубе гораздо меньше, чем о программировании.
10:36 ни разу не слышал о "Лесах пней")) здорово узнавать что-то новое - пошел читать А последним слоем можно было бы добавить какую-нибудь активашку типа ReLU, чтобы не интерпретировать загадочный "-9"))
По умолчанию Colab работает с CPU. В настройках можно выбрать GPU/TPU что в разы быстрее
Где?
За 10$ в месяц?
@@FilSerge бесплатно. Ограничение только на длительнтость одной сессии (12 часов максимум). Ну и хотя очень редко, но может возникнуть ситуация, когда на тебя не хватит вычислительного девайса на серверах гугла.
За деньги ты получаешь больший приоритет при раздаче вычислительных мощей, сами мощи мощнее и длительность сессии увеличена
@@rekval странное дело, когда залез в настройки колаба, то там мне предложили видеокарту за 10$ в месяц со словами о том, что в моём регионе эта функция не предоставляется. При это, если залесть в настройки рантайма уже в самом ноутбуке, то спокойно даётся выбор между GPU и TPU. Очень не обычно.
Тем не менее спасибо за наводку.
Оказывается мой комп в 2 раза медленнее, чем их серверные мощности. Думаю теперь вовсе перебраться програмировать на планшет :D
Я офигел, когда увидел своего кота под занавеской у тебя в видео. Но потом вспомнил, что я же тебе его и прислал). Очень интересные видео у тебя, я все посмотрел.
Я вам по-хорошему завидую. В мое время, когда я начал заниматься радиотехникой ("радиокружок" в Доме Пионеров, были такие в 80-х), а потом микроэлектроникой в студенческие годы, мы собирали компьютеры "на коленке" из микросхем. Всякие "Радио-86РК", "Орион-128", "ZX Spectrum". Писали свои поделки на Ассемблере. Как таковой тематической литературы не было. Мы даже представить себе не могли таких широчайших возможностей, которые сегодня открыты каждому школьнику и студенту с доступом в Интернет. Но вот смотрю на современную молодежь: не вылезают из своих "гаджетов". Ничего не нужно кроме игрушек и тик-тока. А тем, что постарше - тусоваться в гипермаркетах, да еще "вейпить", прикидываясь паровозом. А вы молодец. Я бы даже сказал, самородок. Подписался на канал и с большим интересом смотрю ваши видео. Творческих вам успехов.
Вы просто не бываете в местах, где тусуется хорошая молодёжь. А в толпе такой никак не выделяется, вот и кажется что все в гаджетах и тик-токах)
@@Ckraidага
Полностью согласен, только вот читаю я этот комментарий с самого настоящего смартфона.
Большое человеческое СПС за самое лучшее видео формата "я пишу базовый лёгкий код объясняя его основные моменты, после чего вы там уже сами углубляйтесь и разбирайтесь".
Неиронично, нормальных видосов такого рода по нейросетям кроме этого не нашёл. Абсолютно рабочий код, нормальная подача материала без какой-то супертеории, которая всё равно к написанному коду с трудом прикладывается и вот всего такого прочего.
Ещё раз спасибо.
Ну для data science важнее как раз понимание теории, а код это дело техники
14:49 - Автор данного канала на самом деле японская нейросеть, мы тебя раскусили 😏
А перпетум китайская нейросеть
@@ТерпонШмидт почему?
Вот юджин немецкая нейросеть!(в видео про вартандер он выкрикевал немецкие фразы)
@@ТерпонШмидт Перпетуум ведь тоже увлёкся аниме
Возможно он когда-то еще и аниме озвучил? ... может быть.
Включите субтитры
спасибо за годное аниме, давно таких не видел
+
@@drimef085 Hi Felix!!! -12.242534351132
Это был филлер
Я подпишусь. Я сеньор с 15 летним опытом разработки в Европе, но не могу не отвесить тебе респект.
Уже подписан. Смотрим, не всегда понятно, но всегда интересно. Нравится твоя дотошность и основательность в подготовке видосов.
Как привести входные данные к удобному для нейросети виду:
1) Использовать сигмоиду
2) Разделить на масимальное значение
3) Разделить на 10^n, где n количество разрядов в числе
Я не знаю, применяют ли третий способ, но это первое что пришло мне на ум, когда я узнал, что лучше всё сводить к периоду [0:1].
Испытания нейросети - не испытания нейросети, если ей не скармливается фото создателя.
Мне, вот, очуметь как интересно, ты больше кот или собака
Сейчас перепишу код из видео и проверю😂😁😝😜
Но как по мне, он скорее кот😋😉
@@anrie-f1x Обязательно расскажи потом)
@@anrie-f1x ждем результатов
Ну-сс?
Тоже жду
Круто! Прямо программирование будущего какое-то, все за тебя уже сделано, включая данные, оболочку и даже удаленные мощности )
Включите субтитры в конце)
Ахахах, гуру анус панса ноты и коды а курить..
@@alexiadaz1006 курить маз
Куриный анус Санса ноты и другие коды а я курю маенез
Почти каждое аниме начинается с этих слов)
Блять что он там сказал
Для преобразования значений изображения (с 0-256 на 0-1) есть метод пайтона: skimage.img_as_float
6:50 я думаю, что делить на 255 каждый пиксель не очень хорошо, ведь в результате будут получаться числа с бесконечным остатком после плавающей точки, что может быть источником погрешностей. Но если эти погрешности всё же не существенны, то лучше не делить на 255, а умножать на 0.00392 потому что операция умножения всегда быстрее.
Формула в синопсах должна решить это перед передачей в нейрон , конечно лучше ограничить плавающие точки , только из-за скорости принятия решения, сегодня я ввел задачу, подключился к Google, дали мне 25 ram и на выходе на решения задачи , комп оценил это в 6.8 лет ))))
Привет, ты хорошо разбираешься в нейросетях?
@@Mystery-x9m нет
Погрешности абсолютно не важны, можно вообще цвета поменять, главное чтобы разные цвета не стали одинаковыми
Можно просто округлить числа до какого-то знака после запятой и всё
Приятный человек. Харизматичный. Молодец.
Вы скажете ПАРАДОКС,
но чем меньше людей смотрят без подписки - тем лучше .
Пояснительная бригада.
Если смотрят только подписчики, значит видос не попал в рекомендации другим людям 😎
Завидую Белой завистью твоей молодости и твоей компетентности! Молодец!!! Лайк + Подписка!)
Смешно звучит
Твои видео заменяют мне уроки информатики на летних каникулах, в хорошем смысле
Тут информатики 0
Комментарий для поднятия видоса в топы
спасибо большое! завтра иду сдавать это как проект в универе:)
без вашего объяснения вообще бы запуталась, это все так сложно для меня.
Как раз наоборот, Пайтон оригинальное произношение, а Питон - русскоязычная калька :D
пхутон
чувак ты чо там же написано путхон
Ну вообще питон не потому что змея, а потому что Монти Пайтон.
@@bamb0oo пютхон -- так правильнее
Так майкрософт или микрософт?
Зашла посмотреть перед экзаменом)
Приятная подача (на Соколовского чем-то похож (смотрела его раньше))
Давно искала подобный канал😌
Спасибо, очень полезная инфа для меня начинающего в области нейро сетей.
Здарова, все еще изучаешь?
Как нормально пойдет?
У тебя спец. какой?
я просто тоже из КЗ
хотел спросить из земляков
@@marlenzhantore8218 о, привет, я тоже с КЗ
Привет, ты хорошо разбираешься в нейросетях?
случайно попалось ваше видео ! я в этих вопросах полный новичок но вы так интересно рассказываете что досмотрел до конца ! спасибо за ваши труды ! очень интересно!!!
Один из лучших каналов по программированию. Только ты побуждаешь творить, особенно нейронки. Спасибо! (Надеюсь ты это прочитал)
Ты очень приятный молодой человек и снимаешь очень классные видео)
Как всегда круто!
Твои видосы всегда мотивируют на самостоятельные исследования! Пролинковал канал всем друзьям)
Изпользуй в конце как функцию активации сигмоиду, она все красиво сглаживает к 0 или 1 и выдает более правдивые предсказания
Дружище, обычно смотрю все ролики через UA-cam Vanced, чтоб рекламы не было, но там нет возможности авторизации, оставить комент или поставить лайк, поэтому специально зашёл с компьютера, чтоб поставить лайки за классные ролики 👍🏼
Там есть возможность авторизации
@@kagaths Я пробовал. Пишет "Please check your network connection", поэтому я решил, что авторизация не возможна
Написал кота, что бы распознавал код от собаки
на змеином языке )
@@gimeron-db на человеческих руках
Спасибо за видео. Я не знал что есть дополнение. Все время кучу фиготы с анакондой ставлю
Очень познавательный контент! Расширяет сознание:)
Спасибо! С удовольствием послушала твою информацию! Кажется, что буду возвращаться на этот сайт ещё не раз😊 !
Можно и без конды: 1. ставим питон 3.8; 2. pip install jupyterlab 3. jupyter lab
Последние 2 команды (т.е. 2 и 3) в терминале или cmd
Спасибо за подсказку. Пробую сделать по Вашей инструкции для выполнения кода на PC. В итоге, почему-то третья команда не выполняется. Удобный интерфейс Jupyter Notebook не запускается. Если подробнее об установке, то вот: в программе Онигири последний из импортируемых модулей - "google.colab files". Этот модуль не ставится и не импортируется на PC. Вернее, pip отчитывается об установке, но при запуске в коде этот модуль не принимается. После дальнейшей проверки кода при прохождении эпох тренировки нейросети "model.fit(train_batches, epochs=1)" программа работает медленно или вообще зависает. Все это приходится делать в режиме cmd или в python shell так как никакой jupyter notebook почему-то не запустился, и его удобный интерфейс не появился.
Пока не понятно, в чем проблема. Но еще раз спасибо за изначальную подсказку!
Нужен человек в команду, который хорошо разбирается в нейросетях для крупного проекта с высоким потенциалом коммерциализации.
Спасибо дружище, благодаря твоему видео защитил курсовую работу по СПОВМ на 5 баллов.
Привет, ты хорошо разбираешься в нейросетях?
@@Mystery-x9m нет, я уже больше года не имел с ними дел :D
@@amoriblain3655 а не знаешь случайно людей, которые разбираются? Мне для коммерческого проекта нужно
Автору большое спасибо. Прохожу на Степике курс по нейросетям от МФТИ . Это целый курс. Мальчик же объяснил всё буквально на пальцах.
Как всегда годный контент, спасибо
Совсем недавно наткнулся на твой канал, продолжай, очень интересно.
Было бы неплохо еще применить аугментации к исходным данным, потому что на самом деле подобные модели могут затыкаться на моментах, где классифицируемый объект находится где нибудь в углу экрана, или что то такое здесь у тебя эта проблема не проявляется поскольку ты юзаешь предобученую модель, но если бы ты попытался создать свою у тебя бы эта проблема вылезла, а обучаешь ты только веса у последнего слоя. Также чтобы избежать таких значений как у тебя нужно бы было на выходной Dense слой поставить функцию активации softmax, она бы сгладила значения. Еще есть метод борьбы с зашумленностью изображения - давать нейросети на вход слегка забюренные изображения, для этого например подойдет Гаусовский блюр, его реализация есть в библиотеке opencv, по сути это простенький сверточный фильтр, хотя вообще то для сверточной сети шумы не так страшны, но как вариант, на самом деле не знаю на каких данных обучалась та модель которую ты юзал, но блюр применяют частенько при обучении, попробуй сделать это уже со своей собственной сетью, а еще про аугментации не забудь
Софтмакс нужна когда объектов больше двух, тут сигмоида лучше
Первый понятный и полезный видео о нейросетям которую я нашел в течения 3 дней спасибо😅
Скажу две вещи: поздравляю с началом использования питона
Спасибо за весьма полезную инфу
В пайтона недоработанный синтаксис с ущербными if, например, всё остальное написано на С. Качество кроссплатформенности библиотек и дроч с установкой пакетов приводят к суицидам.
@@zhenshuang То что пайтон не идеальный это конечно факт, но такого высера я давно не читал. Чисто ламер думает, что посмотрев 3 урока стал супер программером. Скажи, в каком месте в пайтоне ущербный if, это вообще как понимать, тебе чё урок на плюсах по условным ветвлениям показался лучше чем на пайтоне? Дроч с установкой, самый большой пиздежь, на том же Pycharm делается в 2 клика, буквально. На линуксе любая библиотека в 1 команду, на винде, наверное тоже. То что там много чего написано на сишке, это только плюс, если хочешь иди в 20 году учи Асембли, абстракция же зло
@@undefined_element обычно в две.
> pip install %name%
Потом ругань и
> python -m pip install %name%
@@randomstick9023 у меня python -m не срабатывает но py -m срабатывает
прям когда о подписке сказал.....ажЪ за душу взял ))
Очень интересно и доходчиво, пожалуйста продолжай тему, мне кажется следующий шаг это создание своих датасетов для уникальных объектов. Было бы очень интересно искать именно своего кота;-)
Ок, уговорил, подписался, как только услышал от тебя про "лес пней". Ты жжешь чувак! )))
Мне 12, люблю смотреть твои видосы, больше всего про ИИ заходит) Кстати, тоже учусь на Пайтоне кодить.
Блин, почему все хотят кодить неросети на пайтоне? Ты же фактически её не сам сделаешь, а скопируешь... С таким же успехом можно и готовую скачать
Учи лучше джаву, она быстрее и мощнее
@@beautiful_ground лучше - учить и пайтон, и джаву) Полезнее будет
@@beautiful_ground челу 12 лет... круто что он вообще что-то взялся сам учить.
В его возрасте кто-то учиться не питону, а курить...
@@lit1041 Блин почему все так хотят кодить на готовых языках. Ты же фактически его не сам сделал, а скопировал... Можно же пойти и написать свой язык.
Как же горит, я сам пишу на низкоуровневом языке, но блять, пайтон супер удобный, и хейтить его за то что "ой за тебя все уже написали" очень тупо. Ты когда теорему по математике используешь ты же ее не выводишь каждый раз сам, верно?
Очень интересно подаешь. Тоже захотелось попробовать.
:D Мне больше всего понравился конец видео с очень-очень котами, котами-собаками и попугаями кото-псами.
И некомальчиками собаками
Не перестаёшь радовать новыми видосами
Довайте нейросеть которая отличает кота от хлеба
невозможно
Скидывайте свой хлеб мне в почту
Кота от шаурмы* вот это невозможно
@@sgeinok5950 это оставим для IBM Watson, хотя волнуюсь за комп
Проще по запаху
Чувак, я случайно наткнулся на твой канал. Я крайне заинтересован в нейросетях, поэтому подписка.
У тябя очень мягкий и добрый голос. Да и внешне ты очень весёлый.
@@vasyapetrov7911 в голос
Звучит как нечто эротичное.
@@vasyapetrov7911 ахах🤣 вы правы, как-то по гейски это. Но ничего такого, просто он необычный чувак.
Он настолько веселый, что кажется, что это сарказм
@@purplep3466 Так и есть
Чел, красавчик, не ожидал чего ждать, а тут ты, лойсссс)
видео: вышло 2 минуты назад
комментарии: вау классный ролик, спасибо
И так же ясно, что хороший
Кто-то смотрит на х7
Рад, что у тебя хорошее настроение, постарайся сохранить его к будущим видео
Эмм
Я когда за основы нейросетей брался, у меня так голова пухла от теории))
Привет, ты хорошо разбираешься в нейросетях?
Блин чел, пока ты еще не достаточно велик что бы не читать комменты, спасибо тебе. Ты быстро учишься, ты не рассказываешь про это, ты делаешь простые видео, но я понимаю что для этого тебе нужно учиться быстро и постоянно. Спасибо что стимулируешь некоторых из нас не только идеями, но и примером.
Я с тобой относительно давно (наверное 3-4 года) и планирую поддерживать тебя дальше. Молодец, ваще красавчик, можно побольше вот этого вот?
О как же я долго ждал Python. Не забрасывай его) Он интереснее чем кажется)
Тоже недавно начал изучать питон, твое видео оказалось довольно полезным
14:54 - Анимешники поставили лайк.
чёрт возьми - да!
я поставил лайк с криком: ТЫ КАК ЭТО ВЫГОВОРИЛ?!
Да-да-да)))
@@DarkSlear изи но не с первого раза можно выговорить
Yes
Спасибо, это очень сильно помогло в прогрессе моего проекта
Концовка убила =)
P.S. Курано спонса но теике окуришимас та!
выпендреж
@@Gretanit возможно
подажжи, ты デ забыл
курано спонса но теике дэ окуришимас
@@АртёмКолпаков-ц8ф сорян, но разницы не вижу = )
Ну так и че это значит, для нормальных обьясните)
Спасибо за контент.
P.S. У тебя такой прикольный голос! 👍
ахуеть
Именно такое видео я и ждал
Отличный канал, часто мотивирует меня. Спасибо :>
Ура, мой кот в видео!!
Ну как можно быть не подписанным? Он же такой няшка!
Чувак, ты выбросил тестовую выборку, которую используют в процессе обучения для контроля того что сеть действительно учится. Поэтому ты и не уловил, что допустил ошибки. Поставь в конечном слое активационную функцию сигмойд - она ограничена с низу нулём и сверху единицей. Получишь стабильное предсказание 🔮
он же свертование использует вроде. а функция сигмоид, это разве не к парцетрону? (ошибка обратного распространения)
@@TexHuK01 в конце после сверки есть слой который выдаёт финальное предсказание - он является как раз перцептроном. В нем ставят сигмойд чтобы ограничить предсказание от 0 до 1
@@TexHuK01 Последний нейрон имеет сигмойдную функцию активации, выход который можно интерпретировать как вероятность(от 0 до 1), к перцептрону последний нейрон никакого отношения не имеет ибо он имеет ступенчатую функцию активации
Стабильности это не добавит. Просто предикт будет в диапазоне от 0 до 1.
@@AleckBoronnikov под стабильностью имеется ввиду разброс значений, а не точность. Сигмойд если выдаёт 0,01 то это условно можно считать за 1% вероятности, а вот софтмаксом все не так - если в одном канале 0 в другом канале почти 0, то второй канал все равно победит с показателем 100%.
Я где-то месяца 2 назад написал сетку по классификации кошек и собак на Pytorch(Это другой фреймворк, он несколько отличается от TensorFlow), я тренил сетку на gpu в Google Colab, у меня это заняло 10 часов, и на валидационной выборке у меня в конце получалось 83-85% точности, а на тестовой в итоге 87%, что странно довольно, причем все эпохи ошибка на валидации была меньше, чем на тренировочной выборке, я тренил на 3000 фотках(1500 на каждый класс), данные можно взять на Kaggle(площадка для соревнований по ML), и у меня была два выхода(там в конце Softmax+ CrossEntropy)
Спасибо за видос) очень интересно) инфу подаёшь легко и непринужденно) я тупой в программирование)) и хотелось бы больше инфы для нубов)) заранее спасибо)
Ура, отличный звук и картинка! Видимо тебя "покормили" спасибо за видео
Это незаконно, быть таким умным.
Что умного то ?
@@Китоблатов как минимум то, что он знает о чем говорит, а не просто рассказывает какую-то инфу
умные все, а у него было желание. И он понимал, что разжевывать надо полностью, чтобы было понятно для людей с любой подготовкой
Обойдешься. Буду смотреть без подписки
Да уж, я сам врач но немного увлекаюсь программированием. И для меня программирование в разы сложнее медицины. Благо хоть в программировании не так страшно ошибиться.
смотря что программируешь. а если софт медицинский? или за систему безопасности в поезде отвечает?
скажи мне пожалуйста, Кирилл. Почему если пойти к пяти врачам с одной проблемой, все пять делают разные 5 диагнозов? Это же значит, что как минимум четверо (если не все 5) врут, правильно? Ну как так можно учиться 7 лет на врача, чтобы ставить разные диагнозы? Они дипломы покупают что ли, или просто это не люди в твари жестокие? Ну как так? Ну почему? Ты написал про "не страшно ошибиться в программировании" и мне стало смешно. Мне кажется, врачи которых я встречал - ошибаются намеренно и получают какие-то откаты от похоронного бюро. Я не знаю, как еще можно быть такими тварями и не разбираться в медицине. Ничего личного. Я просто сижу в ахуе.
@@hroostwear7724 просто у одних и тех же симптомов могут быть дохренадцать разных причин. а врачи ведь на 100% вас не знают. вот им приходится гадать на основании той инфы, которую вы им предоставляете, и которую они способны понять на данный момент времени.
@@ILoveSoImAlive медицина неточная наука, и болезнь не всегда можно спрогнозировать и даже быть уверенным в том, что лечение поможет.
Так ты представь, как страшно ошибиться физику-ядерщику...
Низу не понимаю, но это чрезвычайно интересно
Хороший канал, интересный контент. Пора бы уже и кнопочку ютубовскую парню прислать.
Тоже начал учить питон и tensorflow неделю назад
Вообще хотелось бы больше видео про Colab, ибо большинство нейронок требуют CUDA, а новую видюху ради этого покупать не очень как то. Я для себя Colab открыл когда пытался dain-app запустить.
Самая актуальная привьюшка на видео.
12:56 ура, мой кот похож на кота, по видению нейросети
Лайк не глядя за название
Хотелось бы увидеть уроки по программированию от тебя...
-9 , это очень, очень КОТ))) , ты сделал мой день!)
Интересное видео! Спасибо. Может быть ты как-нибудь расскажешь как лучше всего начать учиться программированию))
И ты не указал в описании ссылку на патреон
Я тоже только начинаю делать нейросети и Боже это самый понятный гайд который я видел
Не думал посмотреть в сторону обучения НН посредством генетических алгоритмов и записать нам видос, как ты это с нуля пишешь?) Было бы интересно. Спасибо за контент!
Бля концовка с очень котами и собаками очень настроение подняла, спасибо за видос)
Копэц ты зарос так быстро
Люблю твои видео
Так, сегодня я покажу как создать свою нейросеть:
импортируем 10000 библиотек
немного картинок
ну и кода надо побольше
Теперь берём волшебный пластилин от гугла и всё склеиваем
*через час*
А теперь этот волшебный пластилин можно скачать на свою слабенькую ПеКарню чтобы было!
А! И чуть не забыл! Подпишитесь пожалуйста на канал!
Уже на второй минуте ставлю лайк, спасибо, оказывается я не один такой.
Обязательно ли писать нейросеть в таких специфичных IDE? Или можно обойтись в самом начале чем-то попроще? (Учу питон и на данный момент использую мвс)
Большое спасибо за видео, очень приятно смотреть)
Я тот единственный гуманитарий, который пайтон называет "пизон" :D
Плохой из тебя гуманитарий
Не позорь гуманитариев
питох
Пистон
Хайтом
Ты реально мегамозг!!! Благодарю!
0:12 наоборот, по русски называют питон, а правильно пайтон
Правильно пай[th]н
За python и двор стреляю в упор
@@Tezla0 монти пайтон, значит ЯП называется пайтон
То есть pyton специализирован для нейросетей, а java для игр ?
@@c4llv07e так ты и это словосочетание читаешь неправильно, ты хотя бы транскрипцию посмотри, а потом этот бред пиши.
А еще название группы к ЯП никакого отношения не имеет.
Начал читать "Грокаем глубокое обучение" Траска Эндрю. И там этот Джупитер рекомендуют поставить. Забил, начал писать в VS Code. Спасибо за навотку на Коллаборатори. Попробую её.
Чувак, честно, не очень хочется чтоб твой канал превратился в очередной канал о программировании. У тебя очень круто получается рассказывать про физику и математику, а такого контента на ютубе гораздо меньше, чем о программировании.
Программирование неразрывно связано с математикой и физикой. Прикладные науки без прикладывания не имеют смысла, на мой взгляд
10:36 ни разу не слышал о "Лесах пней")) здорово узнавать что-то новое - пошел читать
А последним слоем можно было бы добавить какую-нибудь активашку типа ReLU, чтобы не интерпретировать загадочный "-9"))
Последним слоем сигмоида для таких задач ставится