Я реально стала лучше понимать нейросети после твоих выпусков, ты хорошо объясняешь, спасибо тебе Сережа, главное не останавливайся. Контент супер !!!!!!!!!!!
Сережа, я взглянул другие твои видео.. остался всего один вопрос: ты точно не компьютер с нейросетевым интерфейсом, который управляет каким то парнем дошкольного возраста?
Друзья, если этот мальчуган продолжит в том же духе, то к следующему году мы увидим нейросеть, которая скажет вам .... стоит ли верить утреннему прогнозу погоды!
кружки такому не научат, я незнаю как он за года успел выучить питон полностью и работу с нейронками, наработать моторику печатания текста, математику и английский
следующая новость: всей командой уехали развивать информационные технологии в Магадане А если серьёзно, то, во-первых, какой собственно механизм отличения "правды" от "неправды" в новостном тексте? Указание сверху? Заключение специально обученного эксперта? Так эта методика мгновенно обернётся прямой противоположностью, особенно когда эти указания будут сами себе противоречить каждые несколько дней. А что делать с законами, которые прямо запрещают публично считать правдивыми мнения определённого сорта? Так ведь можно и разработчиков под статью подвести. Я уже не напоминаю о том, что действительное установление истины, как показывают например громкие судебные процессы, требуют не анализа текста скриптом, а трудоёмких, длительных и дорогостоящих поисков вещественных доказательств, которые могут занять десятилетия, и всё равно оказаться неверными, как выяснится ещё спустя десятилетия. И, во-вторых, вы там в своём уме заставлять семилетнего начитывать текст сексуальной тематики?
Зачем вы это пишите в техническом видеоблоге? Выключите VPN, через который вы смотрите ютуб и срочно включайте РенТВ и Russia Today, вас там ждут увлекательные конспирологические теории от бывших КГБшников и Марго Симоньян
8:45 какой смысл в выделении этих "stopwords",как это способствует в отличении "правды" от "неправды"? Например, в выпавшем списке stopwords одновременно наличествуют "will" и "won't" - если их исключить, то между новостями вида "tomorrow the sun will shine" и "tomorrow the sun won't shine" потеряется различие. Или в контексте данной задачи оно почему-то вообще не важно?
Чтобы обучить такую слабую модель с высоким accuracy датасет нужно сильно стерилизовать: части речи, имеющие очень высокую частоту повторения в датасете ведут к непропорциональной перекрестной энтропии. Насколько я понял, модель из примера - не на основе трансформера, у нее нет механизма внимания, строки с такими выбросами частоты повторения одних и тех же токенов лучше исключить совсем
@@Iteratorus Эмм, что эта модель тогда вообще оценивает, если не справедливость категоричных утверждений, которые вообще сложно сформулировать без модального глагола. На что она смотрит тогда, на используемый речекряк? Тогда это никакой не определитель правдивых новостей, а просто детектор соответствия темникам будет.
Просто выдает вероятность для данного класса (в данном примере бинарного) насколько подаваемая на входной слой строка из токенов статистически приближена к истинному значению (обученному). Если хотите что то посерьезней и понадежней - обучите LORA адаптер для большой языковой модели типа OpenChat, Llama и пр. на таком же датасете
Ты большой молодец, Brexit, мой дорогой, это выход Великобритании из Евросоюза, может быть ты знаешь, но Великобритания граничит с Ирландией на острове Ирландия и у них был конфликт, точнее он усилился, потому что Ирландия осталась в Евросоюзе (ЕС), это к этому относится, продолжай в том же духе, рад был помочь тебе ❤
Я реально стала лучше понимать нейросети после твоих выпусков, ты хорошо объясняешь, спасибо тебе Сережа, главное не останавливайся. Контент супер !!!!!!!!!!!
Ваша работа легендарна, поздравления из Перу
Сережа, я взглянул другие твои видео.. остался всего один вопрос: ты точно не компьютер с нейросетевым интерфейсом, который управляет каким то парнем дошкольного возраста?
You're incredible, please make more videos in English!
Друзья, если этот мальчуган продолжит в том же духе, то к следующему году мы увидим нейросеть, которая скажет вам ....
стоит ли верить утреннему прогнозу погоды!
Про Brexit Сережа не знает, а «сексуальные домогательства» его не смутили. 😂
Спасибо,можешь сделать нейросеть на обратной ошибке без библиотек?
Как же ты крут, я обязательно тебя догоню. Думаю к 14-16 ты уже будешь сеньором. Как ты пришёл к программированию вообще? В кружок какой-то ходишь?
кружки такому не научат, я незнаю как он за года успел выучить питон полностью и работу с нейронками, наработать моторику печатания текста, математику и английский
@@ProgVipeеще движок юнити и основы с#, xD
следующая новость: всей командой уехали развивать информационные технологии в Магадане
А если серьёзно, то, во-первых, какой собственно механизм отличения "правды" от "неправды" в новостном тексте? Указание сверху? Заключение специально обученного эксперта? Так эта методика мгновенно обернётся прямой противоположностью, особенно когда эти указания будут сами себе противоречить каждые несколько дней. А что делать с законами, которые прямо запрещают публично считать правдивыми мнения определённого сорта? Так ведь можно и разработчиков под статью подвести.
Я уже не напоминаю о том, что действительное установление истины, как показывают например громкие судебные процессы, требуют не анализа текста скриптом, а трудоёмких, длительных и дорогостоящих поисков вещественных доказательств, которые могут занять десятилетия, и всё равно оказаться неверными, как выяснится ещё спустя десятилетия.
И, во-вторых, вы там в своём уме заставлять семилетнего начитывать текст сексуальной тематики?
Зачем вы это пишите в техническом видеоблоге? Выключите VPN, через который вы смотрите ютуб и срочно включайте РенТВ и Russia Today, вас там ждут увлекательные конспирологические теории от бывших КГБшников и Марго Симоньян
8:45 какой смысл в выделении этих "stopwords",как это способствует в отличении "правды" от "неправды"? Например, в выпавшем списке stopwords одновременно наличествуют "will" и "won't" - если их исключить, то между новостями вида "tomorrow the sun will shine" и "tomorrow the sun won't shine" потеряется различие. Или в контексте данной задачи оно почему-то вообще не важно?
Строки в датафрейме, содержащие stopwords не используются для обучения, представленная модель слишком мала для "понимания смысла речевого оборота"
@Iteratorus здрасьте, а что ещё определяет смысл речевого оборота, если не модальный глагол
Чтобы обучить такую слабую модель с высоким accuracy датасет нужно сильно стерилизовать: части речи, имеющие очень высокую частоту повторения в датасете ведут к непропорциональной перекрестной энтропии. Насколько я понял, модель из примера - не на основе трансформера, у нее нет механизма внимания, строки с такими выбросами частоты повторения одних и тех же токенов лучше исключить совсем
@@Iteratorus Эмм, что эта модель тогда вообще оценивает, если не справедливость категоричных утверждений, которые вообще сложно сформулировать без модального глагола. На что она смотрит тогда, на используемый речекряк? Тогда это никакой не определитель правдивых новостей, а просто детектор соответствия темникам будет.
Просто выдает вероятность для данного класса (в данном примере бинарного) насколько подаваемая на входной слой строка из токенов статистически приближена к истинному значению (обученному). Если хотите что то посерьезней и понадежней - обучите LORA адаптер для большой языковой модели типа OpenChat, Llama и пр. на таком же датасете
Ты большой молодец, Brexit, мой дорогой, это выход Великобритании из Евросоюза, может быть ты знаешь, но Великобритания граничит с Ирландией на острове Ирландия и у них был конфликт, точнее он усилился, потому что Ирландия осталась в Евросоюзе (ЕС), это к этому относится, продолжай в том же духе, рад был помочь тебе ❤
Вот это прикольно
ого! теперь тебя могут взять работать в любое западное издание хДД