НЕЙРОСЕТЬ своими руками за 10 минут на Python

Поділитися
Вставка
  • Опубліковано 5 січ 2025

КОМЕНТАРІ • 1,8 тис.

  • @emche852
    @emche852 5 років тому +2621

    "Чтобы пользоваться формулами - не обязательно понимать, как они работают"
    Отлично, теперь знаю, как надо было отвечать моему преподу по Искусственному интеллекту :D

    • @Адам-с5г
      @Адам-с5г 5 років тому +46

      Это не искуственый интелект а запрание записсаные команды ,это сеть не сможет развиваться

    • @emche852
      @emche852 5 років тому +8

      @@Адам-с5г Эт да)
      Я это к тому, что сети изучали на предмете "Искусственный интеллект" в академке)

    • @PavelMostovoy
      @PavelMostovoy 5 років тому +11

      @@Адам-с5г по сути - к решению она приходит сама посредствам многократного повторения, и подбора весов. тоже самое происходит у нас в голове, потэтому "придумать" решение значительно более энергозатратно чем успользовать уже "готовое" просчет модели это затратно - обработка значительно легче.

    • @Alkozavrius
      @Alkozavrius 5 років тому +17

      @@PavelMostovoy "Придумать" решение - это и есть использовать опыт многократного решения подобных задач.

    • @Alkozavrius
      @Alkozavrius 5 років тому +44

      Еще цитата от автора канала: "Чтобы программировать, не обязательно знать математику". Предлагаю вести цитатник от Хауди Хо.

  • @johngalt7525
    @johngalt7525 5 років тому +150

    Полный код из видоса. Не благодарите)))
    import numpy as np
    def sigmoid(x):
    return 1 / (1 + np.exp(-x))
    training_inputs = np.array([[0, 0, 1],
    [1, 1, 1],
    [1, 0, 1],
    [0, 1, 1]])
    training_outputs = np.array([[0, 1, 1, 0]]).T
    np.random.seed(1)
    synaptic_weights = 2*np.random.random((3, 1))-1
    print("Случайные инициализирующие веса:")
    print(synaptic_weights)
    # Метод обратного распространения
    for i in range(20000):
    input_layer = training_inputs
    outputs = sigmoid(np.dot(input_layer, synaptic_weights))
    err = training_outputs - outputs
    adjustments = np.dot(input_layer.T, err*(outputs*(1-outputs)))
    synaptic_weights += adjustments
    print("Веса после обучения:")
    print(synaptic_weights)
    print("Результат после обучения:")
    print(outputs)
    # ТЕСТ
    new_inputs = np.array([1, 1, 0]) # Новая ситуация
    output = sigmoid(np.dot(new_inputs, synaptic_weights))
    print("Новая ситуация: ")
    print(output)

    • @nicko6815
      @nicko6815 5 років тому +11

      Работает! Плюс тебе человек!

    • @k1mer
      @k1mer 3 роки тому +5

      четко!

    • @blxssxddd
      @blxssxddd 2 роки тому +3

      что делать если "." не является внутренней или внешней командой, исполняемой программой или пакетным файлом.

    • @Gulaev05
      @Gulaev05 Рік тому +3

      sps

    • @beka6318
      @beka6318 Рік тому +2

      @@blxssxddd а ты куда поставил?

  • @dud6585
    @dud6585 5 років тому +3018

    Под каждым видосом с каким то кодом найдётся чувак, который напишет, что ничего не понял и соберет много лайков

    • @АнарНаурзалиева
      @АнарНаурзалиева 5 років тому +16

      жЫза

    • @MaxKlatt
      @MaxKlatt 5 років тому +95

      ничиво ни понел

    • @andrey-bq1qf
      @andrey-bq1qf 5 років тому +29

      заебали флуды, из за них в коменты перестал заходить давно. ютубу давно пора вести рейтинг и санкции флудбоям

    • @davidbackham7197
      @davidbackham7197 5 років тому +58

      Ну а чё ты хотел? Автор канала делает кликбейт и говорит что за 10 минут объяснит то, на что месяцы уходят. Конечно, ничего непонятно.

    • @kirigakurenosato.8544
      @kirigakurenosato.8544 5 років тому +33

      Под каждым видосом с какимто кодом найдется чувак, который напишет, что под каждым видосом с каким-то кодом найдется чувак, который напишет, что ничего не понял и соберет много лайков.

  • @knice1874
    @knice1874 Рік тому +23

    Мозг принял входные данные, увидел выходные и пошел отдыхать

  • @kanie.loutis1890
    @kanie.loutis1890 5 років тому +2501

    "Все что произошло сейчас у вашем мозгу называется мышление" , лично у меня произошло короткое замыкание -_-

    • @wildfire539
      @wildfire539 5 років тому +16

      Короткое ты хотел сказать?)

    • @kanie.loutis1890
      @kanie.loutis1890 5 років тому +61

      @@wildfire539 виш , даже тут проебался , спасибо

    • @roudeepofficial
      @roudeepofficial 5 років тому +4

      😁😁

    • @nickiminaj0882
      @nickiminaj0882 5 років тому +19

      Это не урок а выебон

    • @ΔΕΟΣ-ρ7ρ
      @ΔΕΟΣ-ρ7ρ 5 років тому +10

      @@nickiminaj0882 Где ты увидела слово "Урок"?

  • @alexanderandryukov2187
    @alexanderandryukov2187 10 місяців тому +8

    Спасибо тебе, автор ролика. 4 года назад я посмотрел это видео и принял решение перейти в программирование на питон. Месяц назад стал синьор-разработчиком. Сейчас пересмотрел снова спустя 4 года. Аж прослезился немного.

  • @vsweetbread
    @vsweetbread 4 роки тому +341

    При вводе [0,0,0] ответ будет ровно 0.5
    Чтобы такой фигни не было, надо добавить ещё 1 входной нейрон. На входе у него всегда 1. Знакомьтесь, "Нейрон смещения"

    • @misterbebra2460
      @misterbebra2460 4 роки тому +4

      Какие люди :D

    • @vsweetbread
      @vsweetbread 4 роки тому +3

      @@misterbebra2460 Мяу

    • @heisenberg6874
      @heisenberg6874 3 роки тому +42

      да, bias обязательно нужно указывать. но это же хауди хо: нужно громкое название для бессмысленного видео, которое 90% не поймут, а 10% знающим это нафиг не надо смотреть

    • @theneon9073
      @theneon9073 3 роки тому +4

      Здравствуйте, а как добавить нейрон смещения?

    • @theneon9073
      @theneon9073 2 роки тому

      @@ИмяФамилия-к1м5с Хорошо, попробую. Большое спасибо

  • @OdemGeek
    @OdemGeek 5 років тому +248

    1:55 и тут я понял что видимо в моем мозге нет никаких сетей

    • @xz3885
      @xz3885 4 роки тому +2

      +

    • @PianoElipse
      @PianoElipse 4 роки тому

      нда я тоже ее не решил :D

    • @OdemGeek
      @OdemGeek 4 роки тому +2

      @@PianoElipse спустя 3 месяца я её понял

    • @CREEPTONII
      @CREEPTONII 4 роки тому

      ))))) пахахаха

    • @Нэн-в7м
      @Нэн-в7м 4 роки тому

      уххх... не одна я такая

  • @youngMarf
    @youngMarf 5 років тому +2274

    Нихуя не понял, но очень интересно!!

    • @PonosBabuina
      @PonosBabuina 5 років тому +47

      Ахах только что написать хотел

    • @aegrisomnia7503
      @aegrisomnia7503 5 років тому +21

      @@PonosBabuina не ты один

    • @smdfb7334
      @smdfb7334 5 років тому +34

      там же вообще элементарно всё

    • @sm1le134
      @sm1le134 5 років тому +5

      Так же написать хотел))

    • @wildfire539
      @wildfire539 5 років тому +42

      то чувство когда все что ты знаешь это как написать страничку на html и вдруг решил посмотреть такой видосик.

  • @HYPERONIUM
    @HYPERONIUM 5 років тому +118

    В общем, надо знать математику хорошо. Расходимся.

    • @БибСабЗиро
      @БибСабЗиро 3 роки тому

      Здравствуйте маньячелло

    • @Ethernord22
      @Ethernord22 3 роки тому +5

      да ппц, достали эти челы которые говорят что мол не надо формулы знать, математиком быть и начинают ебашить уравнения от которых хочется в гуманитарии зарыться

    • @Psevdonim107
      @Psevdonim107 10 місяців тому

      Ну... а какого класса?

  • @__username1
    @__username1 5 років тому +543

    Выпусти видос: "Нейросеть для чайников"

    • @mrmiquy6640
      @mrmiquy6640 5 років тому +21

      Так это и был видос "Нейросеть для чайников", просто у этого видоса название другое

    • @ФедяМинов
      @ФедяМинов 5 років тому +4

      Ага, десятиминутный))

    • @mrmiquy6640
      @mrmiquy6640 5 років тому

      @@ФедяМинов А ему что тратить время на таких чайников как я? Вот он и "экономит" время

    • @__username1
      @__username1 5 років тому +4

      @@mrmiquy6640 Сложно очень и непонятно немного

    • @technic_and_programming
      @technic_and_programming 5 років тому +5

      *Мне почти понятно!*

  • @УилляКирилля
    @УилляКирилля 4 роки тому +211

    Чувак, я хотел создать простой ИИ что бы с кем то болтать, но взломал пентагон, чё делать._.

    • @MetamorphosisMetamorphosis-s
      @MetamorphosisMetamorphosis-s 3 роки тому +12

      сильно поломал его? Сломанную вещь надо сделать пака не кто не узнал об этом.

    • @kweqer
      @kweqer 3 роки тому +4

      Одинокий чел

    • @vitecgames2207
      @vitecgames2207 3 роки тому +2

      Такаяже ситуация

    • @ВКонтакте-п5ф
      @ВКонтакте-п5ф 3 роки тому +1

      Что это?

    • @PavelS-m5r
      @PavelS-m5r 3 роки тому +6

      Заломай обратно

  • @Sma1lON
    @Sma1lON 5 років тому +30

    Понял 70% информации и было довольно таки интересно:)
    Хауди, радуй так ещё чаще:)

  • @zerokot2453
    @zerokot2453 2 роки тому +66

    Очень хорошая книга для чайника: Тарик Рашид "Создаем нейронную сеть". Понятное объяснение непростой математики, которая лежит в основе нс. На мой взгляд, надо прочитать или посмотреть несколько авторов, тогда сформируется свое понимание. Хауди Хо выражаю благодарность за отличную популяризацию многих полезных вещей!

  • @shinigaff663
    @shinigaff663 5 років тому +49

    Годный видос) спасибо за твоё творчество, хауди хо!)

    • @ytyulia_fire2988
      @ytyulia_fire2988 4 роки тому +1

      то чувство когда пролистал почти 20-30 комментов с плохими отзывами, и думаешь: " хауди наверное не читает коменты", и вдруг ты видишь это!

  • @Viktovian
    @Viktovian 5 років тому +49

    1:54 мой мозг вычислил что :если 1-й столбик 1 и 3-й столбик 1 то на выводе тоже 1. Т. К. не хватило данных о влиянии 2-го столбика на результат. Нужно было добавить в пример 5 : значения 1;1;0. = 1 Ну а в примере 6 уже спрашивать что будет на выходе если на входе 1;0;0 . Или я не прав?

    • @АлександрСклюев-ы8э
      @АлександрСклюев-ы8э 4 роки тому +11

      Я даже не понял что ты сказал

    • @piphuip2573
      @piphuip2573 4 роки тому +4

      Viki pedia, я вообще подумал, что результат - это конъюнкция 1-го и 3-го столбца и дизъюнкция результата со 2-ым 😂

    • @user-hv8rh8nk9d
      @user-hv8rh8nk9d 4 роки тому +2

      Lil Ghost я тоже

    • @nikkho625
      @nikkho625 4 роки тому

      даже если добавить твой 5й вариант в обучение то при пихание в просчет например 0,0,0 результат вычислений 0,5. в моем случае работоспособен только пример автора) т.е. 1,1,0 вычисляет правильно, 1,0,0 вычисляет правильно, любые другие интерпритации значений нет.

    • @PlaysByAlex
      @PlaysByAlex 2 роки тому

      @@nikkho625 точно, пихнул ему
      training_inputs = np.array([[0,0,1],[0,1,1],[1,1,1],[1,1,0],[1,0,0]])
      training_outputs = np.array([[0,1,1,1,0]]).T
      Довольно просто, если новая ситуация ([0,0,0]), должно выдать 0 ровно, но нет, выдаёт 0,5

  • @Sadykhzadeh
    @Sadykhzadeh 5 років тому +705

    Комментарии этого видео:
    99,999% - Нихуя не понял, но очень интересно!
    0,001% - мой комментарий.

    • @voicetv9048
      @voicetv9048 5 років тому +19

      Походу он сам не понял что написал 🤔

    • @headhunter8928
      @headhunter8928 5 років тому +18

      Ты только что обосрался

    • @trage5962
      @trage5962 5 років тому +16

      Ты не правильно посчитал 99,999+0,0001=99,9991% аххаахахха

    • @trage5962
      @trage5962 5 років тому +14

      Ахахах изменил типа умник

    • @remeyperson2017
      @remeyperson2017 5 років тому +10

      @@trage5962 все равно он тупой, он пишет, что его комент 0.001 от всех коментов. На данный момент комментов всего 600. Из этого следует, что это не один коммент, а 0.6 коммента

  • @happychoices4156
    @happychoices4156 4 роки тому +8

    Прекрасные понятные уроки, на очень непростые темы по-простому. Огромное спасибо! Смотрим только вас, потому что у вас реально можно научиться и получить честную информацию!

  • @Nifacy55
    @Nifacy55 5 років тому +5

    АААОАОАОАОА!!!!
    Только в прошлом видео в комментах спросил про создание нейросетей, и .... НОВЫЙ ВИДОС )))
    Спасибо хауди)))

  • @oleslav07
    @oleslav07 5 років тому +1

    Kод с видео
    import numpy as np
    def sigmoid(x):
    return 1/(1+np.exp(-x))
    training_inputs = np.array([[0,0,1],
    [1,1,1],
    [1,0,1],
    [0,1,1]])
    training_outputs = np.array([[0,1,1,0]]).T
    np.random.seed(1)
    synaptics_weights = 2 * np.random.random((3,1)) - 1
    print('Випадкові ініціалізували ваги:')
    print(synaptics_weights)
    # Method back
    for i in range(20000):
    input_layer = training_inputs
    outputs = sigmoid( np.dot(input_layer, synaptics_weights) )
    err = training_outputs - outputs
    adjustment = np.dot(input_layer.T, err*(outputs*(1-outputs)))
    synaptics_weights += adjustment
    print('Ваги після навчання:')
    print(synaptics_weights)
    print('Результат після навчання:')
    print(outputs)
    new_inputs = np.array([1,1,0])
    output = sigmoid(np.dot(new_inputs, synaptics_weights) )
    print('Нова ситуація')
    print(output)

  • @некитбезфамилии
    @некитбезфамилии 5 років тому +7

    оу привет я ждал твой новый видос и мне кажется ты лучше всех делаешь видео уроки по языкам программирования у тебя всегда годный контент

  • @knitlis
    @knitlis 5 років тому +1

    Если вы ничего не поняли, то более подробное разжовывание информации, схожей с представленной на видео, можно найти в книге Тарика Рашида "Создаём нейронную сеть".

  • @onemasterlomaster1829
    @onemasterlomaster1829 5 років тому +6

    Хауди Хо™ - Просто о мире IT!
    *годно! давай еще , так просто и понятно объяснил*

    • @ШариктыБалбес-ч8с
      @ШариктыБалбес-ч8с 4 роки тому

      Вот мало что понятно если честно. Какие ещё весы w1 w2 w3? Что это за весы такие?

  • @iuliiadrei4550
    @iuliiadrei4550 5 років тому +7

    Спасибо за короткий пример, где все по делу!

  • @amai_anton
    @amai_anton 5 років тому +101

    Мой мозг не понял таблицу, я просто вспомнил информатику, типа таблица истинности

    • @Epenckorn
      @Epenckorn 5 років тому +8

      Я тоже сначала про НЕ-ИЛИ вспомнил, но потом уже заметил третью переменную. Ассоциативное мышление, блин...
      Представление данных - уровень "что я делаю?"

    • @МаксимШилов-ю5й
      @МаксимШилов-ю5й 5 років тому +1

      Я такая же х*йня

    • @AKI-yl7yn
      @AKI-yl7yn 5 років тому

      я тоже

    • @refrigerator887
      @refrigerator887 5 років тому +2

      У вас у всех уже имеется на это дело натренированная нейросеть

    • @МаксимШилов-ю5й
      @МаксимШилов-ю5й 5 років тому

      @@refrigerator887 почему бы и нет.
      -Джарвис
      -Да сэр?

  • @АндрейРеш-г9в
    @АндрейРеш-г9в 4 роки тому +3

    Понятно, класс, что так четко объяснено, сейчас по ссылке попробую потренироваться.

  • @игорьвасильев-ю6ы
    @игорьвасильев-ю6ы 3 роки тому +4

    1:59 вывод может быть как 1 так и 0: например если задача предразумевает только что у первого значения должна быть единица то вывод 1, а если подразумевает что главное что бы было в первом значении и в третьем то 0

  • @madnomad6528
    @madnomad6528 2 роки тому

    "Чтобы пользоваться формулами - не обязательно понимать, как они работают" - не ожидал от тебя такого!!! Сбился ты с пути истинного !

  • @abramov.olegator
    @abramov.olegator 5 років тому +9

    Если и рассматривать примеры,на примере таблицы,то можно с уверенностью сказать,что выходной параметр,зависит от совокупности расположения элементов и их последовательностью,т.е тем самым расширить данный урок и показать как они взаимодействуют между собой

  • @no_name9466
    @no_name9466 5 років тому +173

    "Урок" из разряда: щя с умным видом зачитаю текст, и вставлю рекламу...

    • @gatix7120
      @gatix7120 5 років тому +4

      "Зачитаю текст" - текст который подготовил до записи видео.

    • @doffyso
      @doffyso 5 років тому +1

      ты чо раскомназдор пащиму ты не можеш заблакировать тилиграм

    • @arsalannamnanov1820
      @arsalannamnanov1820 5 років тому +14

      @@gatix7120 Ты имеешь ввиду "позаимствовал"? (ua-cam.com/video/kft1AJ9WVDk/v-deo.html) Не в обиду хауди, но если и брать чей-то контент, то хотя бы отсылаться к нему

    • @PetroUralov
      @PetroUralov 4 роки тому +5

      @@arsalannamnanov1820 ахахаха -он даже код списал с него. Только тот чувак объясняет обстоятельнее , и без тревожной тупой музыки.
      Блин это как наши певуны ртом ,все американские песни перепивают и выдают за свои.

    • @yvffgngnngngngng9651
      @yvffgngnngngngng9651 4 роки тому

      Хауди вобще стырил видео просто.

  • @helencherryy5529
    @helencherryy5529 4 роки тому +17

    Никто:
    Абсолютно никто:
    5-классницы: ПЕЙТАН

    • @kadencodelol9110
      @kadencodelol9110 4 роки тому

      Судя по твоему шаблонному комментарию, который не в тему. То ты как-раз пятиклассник, и да, Хауди спиздил ролик.

  • @vbvb4355
    @vbvb4355 6 місяців тому +2

    Когда открываешь статью по функции активации перебрасывает на взрослые сайты, эх а я так и не узнал про это

  • @afonasyo705
    @afonasyo705 5 років тому +5

    Сейчас сказал другу: Хочешь узнать от чего точно можно сказать .
    Я ему включил это видео в скорости 1.25 что бы побыстрее. Он выхватил и с серьёзным видом смотрел. Сказал спасибо и попросил дать ссылку на канал.
    Я попросил его пересказать что там и он в примерной точности это сделал. Я охренел. Потом вспомнил что он ОГЭ матан сдал почти на максимальный балл. Я не помню какие там быллы.
    В общем я удостоверился, в том, что ты реально знаешь о чем вещает простолюдинам.
    К стати. Я на тебя друга навёл. Надеюсь он станет просвященным как ты

  • @egorforat7656
    @egorforat7656 4 роки тому +1

    Когда не понимаешь что происходит в коде и просто перепечатал готовый пример. Отличное видео, четко показывает что автора слушать не надо.

  • @frustix4324
    @frustix4324 5 років тому +6

    Очень годный видос.
    - Мозг.
    Понял, что ничего не понял, но лайк поставил.

  • @filinkedr
    @filinkedr 4 роки тому +1

    Не, я лучше подожду, когда нам на информатике объясняет, то есть через 10 лет

  • @CODEBLOG
    @CODEBLOG 5 років тому +51

    Я как раз на эту же тему сейчас снимаю практический курс на с# ))

    • @_dyats
      @_dyats 5 років тому +5

      Молниеносная подписка.

    • @ПростоЁж-щ3ъ
      @ПростоЁж-щ3ъ 5 років тому +1

      Норм курс, рекомендую.

    • @andrejzzk
      @andrejzzk 5 років тому +2

      Не ожидал что найду канал как твой в комментариях

    • @Grapeoff
      @Grapeoff 5 років тому +1

      О, привет

    • @CODEBLOG
      @CODEBLOG 5 років тому

      @@_dyats Спасибо )

  • @МариничевГеоргий
    @МариничевГеоргий 3 роки тому +1

    Учу python третий день. Что касается синтаксиса языка и стандартных его функции и команд более, менее понятно. Но как только начинаю подключать какие либо модули или внешние библиотеки. Начинает темнеть в глазах, а в голове начинается писк. А ещё говорят что это лёгкий язык. Когда то писал игрушку на basic, при помощи фреймворка Blitz 3d. И вроде все было понятно. И даже физическую библиотеку умудрялся юзать. А тут как только какой то пример. Так я сразу плыву в понимании практически каждой строчки. Походу реально не каждому дано быть программистом.

    • @endershteker90
      @endershteker90 3 роки тому +1

      Так это только 3 день

    • @disco9330
      @disco9330 2 роки тому +1

      Так за 3 дня ты не поймешь. Python по своей сути один сахар. С помощью библиотек легко писать. Попробуй написать нейросеть на C++

  • @chafir_c_saxorom9076
    @chafir_c_saxorom9076 4 роки тому +13

    Случилась эпилепсия, спасибо....
    Видео кста очень информативное.

  • @unknownuser4179
    @unknownuser4179 5 років тому +1

    Все понял на все 100%, спасибо, Хауди!

  • @Nyuhach666
    @Nyuhach666 6 місяців тому +3

    Я ищу источники по созданию ии только для того , чтобы сделать свою нейро-саму либо Скайнет

  • @redcucumber157
    @redcucumber157 5 років тому +5

    Traceback (most recent call last):
    File "..\Playground\", line 28, in
    synaptic_weights += adjustments
    NameError: name 'adjustments' is not defined
    synaptic_weights += adjustments

    • @vladimirv.myagdeev4221
      @vladimirv.myagdeev4221 5 років тому +2

      not defined, написано же, чего тут непонятного? ;-)

  • @PRO-yc2jr
    @PRO-yc2jr Рік тому +1

    перешел по ссылке на статью по функциям активации и афигел

  • @АлександрПавлий-ж4ж
    @АлександрПавлий-ж4ж 5 років тому +14

    Для тех кто не понял: нейронная сеть - очень сложная нелинейная многомерная функция которая аппроксимирует (приближает) распределение данных, а ее обучение - поиск таких параметров этой функции при которой разница между распред. данных и значениями функции минимально. Тот же принцип работает в простом методе наименьших квадратов

    • @ДмитрийКузин-я2з
      @ДмитрийКузин-я2з 2 роки тому +2

      Это еще что.. Я вот вам скажу еще коечто.. Нейросет в идеале - это копия человеческого тела. Загляните внутрь него.. На уровне... хотя бы клеток ДНК и РНК..Там каждая клетка работает по более "простым" биопрограммам... в которых заключены милионы других "простых" функций... И это только уровень клеток... Я молчу еще про уровень атомов.., кварков, бозонов Хигса, про уровень "инфузории туфельки", про клетки вирусов, про клетки кишечников, желудка, сердца.... Какой тут Искусственный Интеллект, который пытаются создать "мартышки с гранатой"....

  • @DzuAbu
    @DzuAbu 5 років тому

    Всё понял. Создал за 7 минут. Благодарствую.

  • @mirodilsultanov4623
    @mirodilsultanov4623 5 років тому +5

    Аааа, красавчиик. Давно хотел что то такое

  • @kite5855
    @kite5855 4 роки тому +1

    На слове "градиентый спуск" мой мозг взорвался

  • @ИльдарЗубов
    @ИльдарЗубов 5 років тому +5

    Ничего непонятно , но безумно интересно !! Автор респект

  • @lazyfi_803
    @lazyfi_803 3 роки тому +2

    Вот код Хауди Хо кому надо:
    import numpy as np
    def sigmoid(x):
    return 1/(1 + np.exp(-x))
    training_inputs = np.array([[0, 0, 1],
    [1, 1, 1],
    [1, 0, 1],
    [0, 1, 1]])
    training_outputs = np.array([[0, 1, 1, 0]]).T
    np.random.seed(1)
    synaptic_weights = 2 * np.random.random((3,1)) - 1
    print("Случайные инициализирующие веса:")
    print(synaptic_weights)
    for i in range(20000):
    input_layer = training_inputs
    outputs = sigmoid(np.dot(input_layer, synaptic_weights))
    err = training_outputs - outputs
    adjustments = np.dot(input_layer.T, err * (outputs * (1 - outputs)))
    synaptic_weights += adjustments
    print("Веса после обучения:")
    print(synaptic_weights)
    print("Результат после обучения:")
    print(outputs)
    #Тест
    new_inputs = np.array([1, 1, 0])
    output = sigmoid(np.dot(new_inputs, synaptic_weights))
    print("Новая ситуация:")
    print(output)

    • @yarocoder2161
      @yarocoder2161 2 роки тому

      Спасибо таким людям

  • @АртемБуренок-н4п
    @АртемБуренок-н4п 3 роки тому +14

    Чел, ну какой метод обратного распространения ошибки? Ты же используешь обычный градиентный спуск. И зачем двухслойной сети функция активации? А ну ещё матан не обязательно знать, понимаю.

  • @stranger-SM
    @stranger-SM 4 роки тому +1

    Странно.
    Говориться, что "мозг видит входные и выходные данные, и вычислил взаимосвязь". Если известны и входные и выходные данные, то что ищем то?

  • @ДаниилКирик-л8е
    @ДаниилКирик-л8е 5 років тому +20

    О-па-чки, ещё один годный контент подъехал

    • @cheburek5116
      @cheburek5116 5 років тому +2

      Языки можно изучать вечно, они бесконечны как наша вселенная

    • @К.Т-я4б
      @К.Т-я4б 5 років тому +1

      Георгий Иванов это у тебя были мысли вслух?

  • @timon1816
    @timon1816 2 роки тому

    Те, кто пишут о том какой прекрасный ролик и какой автор молодец - либо боты, либо лицемеры

  • @whoaml1975
    @whoaml1975 5 років тому +22

    Ты топ!!!Лайк сразу же)))Спасибо за интересный видос.

  • @MagicMightNew
    @MagicMightNew 5 років тому

    Как в тему-то. Только сегодня проставил зачет по методам распознавания)

  • @mikheeffff
    @mikheeffff 5 років тому +7

    Хауди, огромное спасибо, познавательно.

  • @SuperBlinchik
    @SuperBlinchik 5 років тому +1

    Всё очень понятно!!! От меня царский Лайк!!!

  • @NickKirieiev
    @NickKirieiev 4 роки тому +4

    два часа ночи! Завтра на работу рано утром а я бля смотрю непонятную но интересную дичь!

  • @Mystery-x9m
    @Mystery-x9m 2 роки тому

    Нужен человек в команду, который хорошо разбирается в нейросетях. Проект крупный, с высоким коммерческим потенциалом.

  • @afonasyo705
    @afonasyo705 5 років тому +122

    Я часто смотрю это. Но у меня за частую возникает вопрос:

    • @roudeepofficial
      @roudeepofficial 5 років тому

      😁😁😁😁

    • @semyondyachenko4183
      @semyondyachenko4183 5 років тому +3

      не волнуйся тебе простительно так как он сам ничего не понимает.

    • @afonasyo705
      @afonasyo705 5 років тому +2

      @@semyondyachenko4183 сейчас сказал другу: Хочешь узнать от чего точно можно сказать .
      Я ему это включил в скорости 1.25 что бы побыстрее. Он выхватил и с серьёзным видом смотрел. Сказал спасибо и попросил дать ссылку на канал.
      Я попросил его пересказать что там и он в примерной точности это сделал. Я охренел. Потом вспомнил что он ОГЭ матан сдал почти на максимальный балл. Я не помню какие там быллы.
      В общем хауди реально знает о чем вещает простолюдинам

    • @torcher5023
      @torcher5023 5 років тому +5

      @@afonasyo705 какая связь существует между огэ и матаном?

    • @gonextifid1973
      @gonextifid1973 5 років тому

      @@afonasyo705 наверное ты говоришь про ЕГЭ, потому что математический анализ, полная вероятность, комбинаторика проходится в 10-11 классах, да и все равно недостаточно углубленно для полного понимания

  • @Play-cl3nr
    @Play-cl3nr 5 років тому +1

    for i in range(20000000):
    СЛ:
    [[-0.16595599]
    [ 0.44064899]
    [-0.99977125]]
    Веса после об
    [[17.32101257]
    [-0.20285244]
    [-8.45767881]]
    Результат
    [[2.12219164e-04]
    [9.99826729e-01]
    [9.99858537e-01]
    [1.73262200e-04]]

  • @SM-cc8lt
    @SM-cc8lt 4 роки тому +8

    Если ввести в тест [0,0,0] или [0,1,0] ответы 'ии' дает [0.5] и [0.44854606] соответственно. Хотя по идеи ответы должны быть нули и единицы. Подскажите почему так произошло?

    • @lellel5521
      @lellel5521 4 роки тому

      как я понял он не нашел взаимосвязи с другими данными, попробуй ввести все массивы из чисел с 0 и 1, наверное, сработает

    • @falsetruevich2723
      @falsetruevich2723 4 роки тому

      Нейросеть вбирает данные, то, чего ей не хватило вылилось в неточность выхода.

    • @Амфо
      @Амфо 4 роки тому +2

      Потому-что результат до сигмоиды равняется 0. Например веса равняются w1, w2, w3 А числа 0, 0, 0. Результат до сигмоиды равняется 0*w1 + 0*w2 + 0*w3 = 0. Поэтому все-равно какие данные результат будет 0.5. Потому-что сигмоида в точке 0 равняется 0.5

    • @МішаОборін
      @МішаОборін 2 роки тому

      @@Амфо Большое спасибо, я все думал: "почему так происходит?"

  • @geneivy
    @geneivy 5 років тому +1

    Черт, да ты жжешь! Крутейшие уроки! По сути, такие проекты как этот или голосовой помощник, что ты делал, это то, из-за чего я изначально начал заниматься программированием. Правда, теперь, когда приходиться делать какие-то сайты на заказ, сижу такой, типа, "блин, надо делать заказ, а я хочу пилить нейросеть...")

  • @djAbyssRT
    @djAbyssRT 4 роки тому +8

    6:18 - не забыл напомнить зрителям что такое "транспонировать" ?

  • @takeshikobach4709
    @takeshikobach4709 3 роки тому

    Хай Хауди! Крутой контент

  • @youtubechanel4788
    @youtubechanel4788 5 років тому +4

    Не, ну здесь лайк, однозначно!

  • @alexneigh7089
    @alexneigh7089 5 років тому

    Именно веса будут оказывать наибольшую роль и играть наибольшее влияние. Публика в восторге.

  • @bas1c941
    @bas1c941 4 роки тому +3

    А если число с буквой Е в результате,это норм?(это при большом количестве циклов)

    • @endershteker90
      @endershteker90 3 роки тому +1

      Да

    • @endershteker90
      @endershteker90 3 роки тому +1

      Например 1.5e-6 это 1.5 * 10^6 что равно 1.5/1000000

  • @alwayswannacry7726
    @alwayswannacry7726 4 роки тому +1

    Благодаря этому видео, я не понял основы машинного обучения, но начал интересоваться ими. Спасибо!

  • @gonextifid1973
    @gonextifid1973 5 років тому +18

    В большинстве случаев ml и data science идут рука об руку, поэтому важную часть также составляет визуализация полученных данных и постановка задачи, неплохо было бы снять полноценный ролик со всеми плюшками

  • @Владислав-г3ю
    @Владислав-г3ю 5 років тому +10

    Вот только нихрена не очевидно, что на выходе функции в итоге должно быть значение из первого столбца, это может быть с такой же вероятностью и конъюнкция значений из первого и третьего столбца например, и тогда нейросеть выдает совершенно неправильное значение на тесте. Так что пример не очень подходящий и учить сетку надо на большем наборе данных

    • @ВладимирКозлов-в2г
      @ВладимирКозлов-в2г 4 роки тому +1

      Влад, базара ноль, но ты слишком буквально все понимаешь. Обучение нейросети на то и обучение, какой пример имеем, на том и учим. И естественно, чем больше вариаций/примеров, тем точнее получится результат. Исходная формула никому неизвестна, пока автор не представит таблицу с исчерпывающим вариантом комбинаций. Автор просто озвучил явно бросающуюся на глаза закономерность, и имея лишь такой ограниченный набор вариантов, трудно отрицать отрицать его догадки. Вот если будет больше комбинаций, тогда и нейросеть по-другому научится. Я, кстати, увидел в примере формулу x1_И_(x2_ИЛИ_x3). При таком варианте второй столбец тоже играет роль

  • @artemka_ak7469
    @artemka_ak7469 Рік тому +1

    Почему ссылка на статью по функциям активации перекидывает меня на сайт с не тем что надо...?

  • @lind9696
    @lind9696 5 років тому +237

    Хауди, чё за игнор. Уже 5 раз звоню тебе на номер. Не отвечаешь, занят наверное) 1:15

    • @trial_bot
      @trial_bot 5 років тому +71

      @Пожиратель Кишок ты вообще в юмор не можешь? Жаль...

    • @alexwebb1501
      @alexwebb1501 5 років тому +5

      В Узбекистане код +998

    • @marab6392
      @marab6392 5 років тому +4

      @@alexwebb1501 Он Узбек ну я незнаю точно но его зовут Абрахам

    • @marab6392
      @marab6392 5 років тому

      Шутка

    • @USER-GU4GJJURFGJKV
      @USER-GU4GJJURFGJKV 5 років тому +2

      Ты его телка и он тебя бросил? )))))

  • @laomy8224
    @laomy8224 5 років тому

    Рашид Т. "Создаем нейронную сеть" хорошая книга для изучения нейроных сетей? Или посоветуете лучше?

  • @denispashnev912
    @denispashnev912 5 років тому +168

    "Необязательно понимать как они работают"....Пока

  • @anarchycrusader885
    @anarchycrusader885 4 роки тому +3

    вылетает ошибка
    ValueError: non-broadcastable output operand with shape (3,1) doesn't match the broadcast shape (3,4)

    • @herrlixus6723
      @herrlixus6723 4 роки тому

      при вычислении adjustments функция np.dot дает сбой замени ее аналогичным adj = sum(inputs.T * error*(output*(1-output)))

    • @hurtg
      @hurtg 4 роки тому +1

      написано что у тебя мать шлюха

  • @qa337
    @qa337 5 років тому +74

    *Нихуя не интересно, но очень понятно!*

  • @FTSMAG
    @FTSMAG 5 років тому +4

    Спасибо, благодаря вам заинтересовался нейронными сетями.

  • @trixion74
    @trixion74 2 роки тому

    6:50 почему мы полученный список умножаем на 2, а потом еще вычитаем 1, и как это вообще работает?

  • @юнитошка
    @юнитошка 4 роки тому +4

    "то что у вас в мозгу называется мышление"
    Я без мозга: ахаххахаахаах....

  • @antonkyzma2046
    @antonkyzma2046 5 років тому +1

    О вдохновенный вдохновитель Хауди Хо! Расскажи, с чего начать web-программисту (начинающему) набирать опыт и реально зарабатывать? Есть ли смысл лезть во фриланс в 2019 году и как ни есть дошираки будучи программистом хоть и без опыта;-) Вопрос с нотками юмора, а то нытики достали о тяжёлой судьбе программиста:-)

  • @thedimas3007
    @thedimas3007 5 років тому +6

    Хауди, привет можешь пожалуйста сказать какие книги читать и какими сервисами пользоваться для full-stack разработчика

    • @TheProfessionalGambler
      @TheProfessionalGambler 5 років тому +1

      Туалет на вокзале, топовый бесплатный сервис. Можно и как жилье использовать. Вообще всё в одном для флу стэка.

    • @ascode964
      @ascode964 4 роки тому

      Блять нашел кого спрашивать. Прямо у профи совета просишь

  • @АлександраКолачева

    Хорошо, что мне все объяснили, плохо то, что я ничего не понял 😅

  • @speedarts5454
    @speedarts5454 5 років тому +14

    К слову о первом примере: почему именно про первый столбец речь? Почему не про произведение первого и последнего числа?

    • @Maxutka13
      @Maxutka13 4 роки тому

      Потому что есть только 1 и 0, а произведение может выйти за эти рамки

    • @stranger-SM
      @stranger-SM 4 роки тому

      @@Maxutka13
      Как произведение 1 и 0 может выйти за рамки?

    • @Maxutka13
      @Maxutka13 4 роки тому

      @@stranger-SM Бля, я протупил, думал он имел ввиду сумму

  • @parker4237
    @parker4237 5 років тому +2

    Давай ещё видео про нейросети на питоне. Развивай эту тему дальше

  • @av-sg3lp
    @av-sg3lp 4 роки тому +74

    Автор просто спёр видео отсюда: ua-cam.com/video/kft1AJ9WVDk/v-deo.html
    Он даже названия переменных не менял

    • @andreyamigo
      @andreyamigo 4 роки тому +5

      Истинный плагиат. Молодец Avriolo!

    • @ShortBooks09
      @ShortBooks09 4 роки тому +1

      А что, так можно было ?? 🤔🤷🏽‍♂️

    • @vidayru
      @vidayru 4 роки тому +4

      гм, это для тех кто в англ полный чайник, и программирует только по памяти

    • @Science790
      @Science790 4 роки тому +8

      @@vidayru нет, это только ради контента, иначе можно было указать автора. Просто взял, перезаписал видео, сказал несколько умных слов, вот тебе просмотры

    • @user-yl1zp5kp5k
      @user-yl1zp5kp5k 4 роки тому +2

      Это не автор . а нейросеть уже скопировала, российская нейросеть, поэтому весь.ютьюб, российского сегмента, состоит из плагиата, отсюда вывод купи букварь и начинай с нуля.

  • @satoya7295
    @satoya7295 4 роки тому +1

    Скажите пожалуйста что за фоновая музыка здесь играет?

  • @Alekscross
    @Alekscross 5 років тому +3

    Понял многие моменты только потому, что сам изучал эту тему)

  • @ИгорьИванов-ь4ч4г
    @ИгорьИванов-ь4ч4г 2 роки тому

    "И теперь, когда мы понимаем общий принцип действия, давайте перейдем..." - умилило прям... :-)

  • @НатальяУльянова
    @НатальяУльянова 5 років тому +4

    побольше таких видео! после того как я посмотрела презентацию полного автопилота Tesla, то что рассказал Андрей Карпаты, их директор по нейронным сетям, очень интересно, как это все "изнутри" устроено )

    • @RespWar
      @RespWar 5 років тому

      Наталья Ульянова только устроено это далеко не так , как в видео )

  • @АндрейВоинов-п5ш
    @АндрейВоинов-п5ш 5 років тому +1

    Если вы заинтересовались нейронками на Python рекомендую к прочтению книгу Тарика Рашида "Нейронные сети на Python" доступное и понятное объяснение. После прочтения 100 стр можете пересмотреть это видео дабы полностью отложить в голове представление о нейронках.
    UPD: Надеюсь кому-то пригодилась инфа.

  • @anywaysnowy
    @anywaysnowy 5 років тому +5

    Хауди привет!У меня две новости хорошая и плохая.Хорошая состоит в том,что ты затронул очень актуальную тему.А плохая,что очень сложно воспринимать её без примеров.Сделай стрим с обучением на примере простой игры.Есть куча вариаций в американском сегменте.Но в русском нет ничего толкового.Спасибо!

  • @PavelS-m5r
    @PavelS-m5r 3 роки тому +1

    И после запуска получаем....
    Traceback (most recent call last):
    File "C:/Users/User/PycharmProjects/Project/Project.py", line 26, in
    synaptic_weights += adjustments
    ValueError: non-broadcastable output operand with shape (3,1) doesn't match the broadcast shape (3,4)
    Как же я люблю учиться. Вот постоянно такая лажа во всех предметах. Вроде бы всё доходчиво объясняют, все вокруг радостно кивают гривой и говорят, что им всем всё понятно. А после запуска мы получаем вот такую вот лажу и хз чё и как с этим делать и где конкретно ошибка.

    • @bocik2854
      @bocik2854 3 роки тому +1

      в трейсбеке же всё написано, ЛОЛ

    • @endershteker90
      @endershteker90 3 роки тому +1

      Код кривой, такая же ошибка была. Лучше на канале sentdex уроки посмотреть.

  • @АртемРычков-л2ш
    @АртемРычков-л2ш 5 років тому +9

    Хауди, было бы очень круто, если бы ты записал курс по созданию небольшого блога с нуля на php ^^

    • @Alkozavrius
      @Alkozavrius 5 років тому +1

      У него есть про все языки за 1 час с нуля, я уже все выучил кроме нейросетей

  • @pigeon4665
    @pigeon4665 4 роки тому

    Скажите плз, как называется игра на фоне (в начале, середине, конце).

  • @jaroslavtavgen3939
    @jaroslavtavgen3939 5 років тому +3

    print(sigmoid( np.dot(np.array([[0, 1, 0]]), synaptic_weights) )) выдаст "0.44".

    • @fedor2379
      @fedor2379 5 років тому +1

      Это потому, что не обязательно знать математику и как работают функции, получил правильный ответ в одном конкретном случае - успех, пилим видос

  • @krot878
    @krot878 5 років тому +1

    хочу видос который обучит питону!!!
    а не тот курс питон за час где мы сделали калькулятор, и ты сказал, ну все ребята, читайте "укус питона"
    кек, я наверно для этого и открываю твои видео, потому что в книге нифига не понятно
    ну а в целом, я тебя очень уважаю, Хауди, ты просто пушка в рус ютюбе в плане кода, постоянно залипаю у тебя на канале) но питон так и не могу выучить( а вот html и css ты афигенно рассказал,
    успехов тебе во всем) спасио за уроки

    • @ponurkuvaty2792
      @ponurkuvaty2792 5 років тому

      Есть такая прога SoloLearn

    • @krot878
      @krot878 5 років тому

      Alchemy удачи

    • @ponurkuvaty2792
      @ponurkuvaty2792 5 років тому

      @@krot878 тебе просто не хватает желания. В инете есть вся необходимая информация, если бы ты действительно захотел выучить, ты бы ее нашел. Тебе не поможет видео, если ты не хочешь даже попытаться понять книгу и/или погуглить то, что тебе не понятно.

  • @bellrow_q
    @bellrow_q 5 років тому +4

    Хауди, сможешь в одном из будущих видео объяснить виртуальное окружение и тонкости работы с ним

  • @антонантон-д2я
    @антонантон-д2я 3 роки тому

    вопрос - можно написать бота на питоне vsa чтобы мог сравнивать спред обьем прогрес результат --подобие искуственного интелекта ?????????????

  • @crowcround
    @crowcround 5 років тому +8

    Хауди. Когда твой Wallpaper выйдет?

    • @sasichkamega
      @sasichkamega 5 років тому +1

      Когда рекламу купят на эту тематику.