Я установил DeepSeek ЛОКАЛЬНО! Вот что из этого вышло...

Поділитися
Вставка
  • Опубліковано 29 січ 2025

КОМЕНТАРІ • 113

  • @neuralandprompts
    @neuralandprompts  День тому +2

    Скачать файл с ссылками на сервисы можно по ссылке: t.me/gptnavigator/134

  • @mosolovi
    @mosolovi День тому +38

    Это же дистиллированные модели да и еще и другие, да и еще и самые фиговые установил, заголовок громкий а внутри как бы не то ((

    • @romanmed9035
      @romanmed9035 22 години тому +1

      вот хотел написать - опередили

    • @Antonius77
      @Antonius77 14 годин тому

      Ну мы же наверное не ожидали, что у автора есть 16 штук NVIDIA A100 80GB или типа того...
      Увы, в домашних условиях неурезанный r1 запустить не выйдет :(

    • @vladmir8115
      @vladmir8115 13 годин тому +1

      ​@@Antonius77запускали на 64 ядерном эпике, 512 гб ддр4 и четырёх 3090... Считай домашний комп 😊

    • @wzorplatonov977
      @wzorplatonov977 13 годин тому

      ​@@vladmir8115какую модель? 761b?

  • @_Evgenyi_
    @_Evgenyi_ 21 годину тому +16

    люди, чудес не бывает, никакая маленькая локальная модель работающая на домашнем компьютере не сравнится с моделью работающей на суперкомпьютере!

    • @tapikoBlends
      @tapikoBlends 20 годин тому +1

      Эти маленькие модели " тоже могут"

    • @IGRIGVdo
      @IGRIGVdo 13 годин тому

      Смотря для чего.
      Для 90% что есть у нас в головах - хватит почти любой модели средней упакованности (разница минимальна или отсутствует).
      Чтобы поставить модель в тупик или отправить в галлюцинации - нужно отдельно думать

  • @AlekseiA
    @AlekseiA 21 годину тому +8

    а теперь срочно видео, как удалял ИИ!!!

    • @TalissMan
      @TalissMan 6 годин тому

      Не как , разгрузка в биос прописываеться ,только вариант, сносить))все

  • @azur-tv
    @azur-tv 9 годин тому +2

    Я ставил ollama и deepseek r1 8b на RTX3070ti 8gb - отвечает сразу и очень быстро, в целом общается норм, но веб версия на 700b конечно лучше. Ну и очевидно, что все модели ниже 700b будут сильно слабее, никакие локальные 32b и даже 70b не сравнятся с официальной веб версией.

  • @dedmoroz1074
    @dedmoroz1074 22 години тому +3

    Просто "супер умная" модель 32b простой вопрос как приготовить плов, понесла такую околёсицу мама не горюй. В общем до онлайн сервиса ей как до луны пешком.

  • @Коля-ъ6я
    @Коля-ъ6я 20 годин тому +5

    установил локально версию на 14b,все примерно тоже самое,пишет то на русском,то на английском.На вопрос какая у него версия ответил что он создан в компании яндекс и все вопросы туда).Установил,попробовал,удалил.Что в моб.,что в веб версии дипсик говорит что его данные актуальны на октябрь 2023 года

    • @matryx239
      @matryx239 18 годин тому +1

      Такую же хрень про актуал мне написал

    • @igroykt
      @igroykt 18 годин тому

      это потому что оригинальная модель закрытая и ее нельзя скачать. 32b тоже иногда на англи пишет и матерится на китайском.

    • @wzorplatonov977
      @wzorplatonov977 13 годин тому

      70b тоже пишет в том числе на английском и иероглифами

  • @tapikoBlends
    @tapikoBlends 20 годин тому +2

    Как я понял дистиляция моделей это обучение маленьких моделй на ответах что выдовал самая большая модель

  • @Комментариинатему

    Перематываю сразу 2-3 минуты любого видоса, потому что там просто тратят моё время рассказывая о том , о чем расскажут...

    • @Коля-ъ6я
      @Коля-ъ6я 20 годин тому +2

      держи в курсе

    • @iq240-1
      @iq240-1 17 годин тому

      Ты нейросеть чтоле?)

  • @Папа-ас
    @Папа-ас 10 годин тому

    Настала пора апгрейдить буку.
    Спасибо!

  • @bazabon
    @bazabon День тому +3

    Не знал что это режим расширенного мышления.
    Так текст круто обработал, дополнил словами, изменил структуру, добавил всяких триггеров, вообще не узнать, зачитаешься. Ещё и целую портянку с объяснениями выкатил, что, как и зачем он делал))
    А в обычном режиме уступает чату гпт.

    • @dmitriyv5740
      @dmitriyv5740 День тому

      Я тоже текст добавлял, он его улучшает, но текст становится очень маленьким по сравнению с исходником.

    • @bazabon
      @bazabon День тому

      @@dmitriyv5740 не заметил, специально сравнил, кол-во 1 в 1. Если нужен больше, попроси его увеличить текст но без воды, вообще без проблем.

  • @ManversionRu
    @ManversionRu День тому +6

    Спасибо за вашу работу, но нельзя ли прогнать звук через нейронку, чтобы его можно было слушать?

    • @АртурКотяткин
      @АртурКотяткин День тому

      врятле так как она даже изображение не считывает еще

  • @Kolya_Neyronov
    @Kolya_Neyronov 8 годин тому

    Я думаю «расширенное мышление» это подразумевается, то объяснение которое он дает в процессе формирования ответа на ваш запрос.
    А если выключить этот режим, нейронка не будет описывать сам процесс своих размышлений. На самом деле это очень круто. Нам наглядно показали, что она мыслит как мы. Её сделали как человека мыслящего.
    Понимаете о чем я ?

  • @aleksefim-x9i
    @aleksefim-x9i День тому

    отлично. четко понятно по делу. хотелось бы еще видео вашего опыта использования. Лайки и подписка - все сделеал

  • @ВАСИЛИЙАЛБАЕВ
    @ВАСИЛИЙАЛБАЕВ День тому

    Спасибо! Лайк , подписка , хорошо бы запилить видео про локальные версии без цензуры .

    • @neuralandprompts
      @neuralandprompts  День тому

      Спасибо за добрые слова! Я последнее время прям часто слышу про цензуру. Изучу вопрос, спасибо за наводку!

  • @ФедорКравец-ю1е
    @ФедорКравец-ю1е 22 години тому

    Для работы с ollama можно еще использовать OpenWebUI - тогда будет доступ к ИИ с других компьютеров через веб интерфейс

  • @viacheslav6388
    @viacheslav6388 10 годин тому

    спасибо за работу

  • @AV0571
    @AV0571 9 годин тому +1

    Чем же он отличается от обычных поисковиков?

  • @MsSerJey
    @MsSerJey День тому

    На сайте DeepSeek обычный режим - это модель DeepSeek-v3, а режим расширенного мышления - это самая последняя и продвинутая модель DeepSeek-R1. Так что в обычном режиме вы будете общаться с более ранней и слабой DeepSeek версии 3.

    • @Valera5159
      @Valera5159 21 годину тому +1

      На сайте есть режим R1, отлично работает

    • @МаксимМаксимыч-я9н
      @МаксимМаксимыч-я9н 5 годин тому

      ​@@Valera5159 в приложении на андроид этот режим тоже работает.

  • @barashtravel3832
    @barashtravel3832 18 годин тому +2

    блин ты работаешь с нейросетями. почему у тебя такой плохой звук с шумами нельзя разве нейронкой выправить звук чтобы небыло фонового шума.

    • @neuralandprompts
      @neuralandprompts  17 годин тому +1

      Жду микрофон. В нем проблема. Если улучшать нейросетью, получается еще хуже, голос вообще не естественный. Скоро будет звук заебись!

  • @АндрейКантор-е9ь
    @АндрейКантор-е9ь 21 годину тому +2

    API ключ где взять?

    • @igroykt
      @igroykt 18 годин тому

      самому надо создать и прикрутить

    • @wzorplatonov977
      @wzorplatonov977 13 годин тому

      ​@@igroyktне надо там никаких api прикручивать

  • @Anshegar
    @Anshegar 19 годин тому

    Так это просто лучшая версия ЛАМЫ но без доступа к интеренту вроде он не имеет 90% своих БД обученых. Их вроде для скачки не давали. Там несколько десятков террабайт а то и больше.

  • @romanmed9035
    @romanmed9035 22 години тому +2

    не вводите людей в заюлуждение. те маленькие модели совсем не то и результат далек от оригинала.

    • @iq240-1
      @iq240-1 17 годин тому

      Ничего не понял. Можно по-русски?

    • @hondas_insights
      @hondas_insights 14 годин тому

      @@iq240-1 модели, доступные для локального запуска намного слабже той, что на серверах в Китае и отвечает в браузере

  • @P_T_1
    @P_T_1 День тому +1

    Спасибо!

  • @MrEzoterik
    @MrEzoterik День тому

    А какие нужны минимальные характеристики?

  • @AlexanderKorotkevich
    @AlexanderKorotkevich 18 годин тому +1

    Мне не понравилось ввод с голоса нет, ввод фото нет, создать картинку нет. Не убедил

  • @victorkolot
    @victorkolot 9 годин тому +1

    А. А. Ааааа... ДОСТАЛ!

  • @alexeiweb6971
    @alexeiweb6971 21 годину тому +1

    Установили. Правда, работает хреново, но не беда. Главное файлы скачались на диск. Примерно таков результат😀

    • @xopoc79
      @xopoc79 14 годин тому

      Да смысл это делать? Локальная модель еще свежей нейросети - это не показатель от слова "совсем".

  • @ytghgb
    @ytghgb День тому +2

    Deepseek за дудосили уже изза таких крутых моделей переходим медленно на локал правда топовую не получиться запустить не как нужно быть миллионером так как для запуска топовой модели нужна видюха h100 как минимум а лучше пару чтобы не было лагов минимальные требования 80гб видеопамяти

    • @scrudjmcdog989
      @scrudjmcdog989 День тому

      Минимальные требования 16 шт а100

  • @arstemari
    @arstemari 21 годину тому

    Она же работает через раз, а для простого человека такая же как GPT только бесплатная

  • @webimperia5543
    @webimperia5543 День тому

    а если поставить на сервер, какой должен быть для максимальной модели параметры сервака? а главное, есть ли api, для подключения с уже нашего сервера? очень уж хочется делать массовые операции на сайте (товары пилить, поиск и пр.) и не зависеть от токенов и милости к нашему ip.

    • @igroykt
      @igroykt 18 годин тому

      тут надо выбирать между cpu+ram или gpu+vram. второй конечно намного быстрее будет. заструдняюсь ответить поскольку я запуска 32b на конфигурации 64gb ram и 12gb vram geforce 1080 ti и не вижу чтобы ram полностью был нагружен (1.5гига где-то, но кэш на все 32) и vram тоже (примерно на 9 гигабайт знаят). но учитывая размер модеи думаю 2 штуки rtx 4080ti вполне потянут с оперативой в 128гб. протестируй и дай знать)

    • @wzorplatonov977
      @wzorplatonov977 13 годин тому

      ​@@igroyktне вытянут, 128гб оперативки + 16гб vram не дают запустить 671b

  • @MusNurseryStory
    @MusNurseryStory 12 годин тому

    Ну так создай обучить и пользуйся, или вы хотите все готовое.....

  • @nicoloskaslei1395
    @nicoloskaslei1395 21 годину тому +4

    На компьютер локально нет смысла,так как нужен доступ с выходом интернет для поиска новых новостей с науки например.

  • @user-fv2zv8cy2w
    @user-fv2zv8cy2w 16 годин тому

    С картинками он работает?

    • @Alex-lw9dp
      @Alex-lw9dp 13 годин тому

      Нет, данная модель не работает.

  • @nadyamoscow2461
    @nadyamoscow2461 День тому

    А карта у вас Nvidia? Или через Оламу будет и на AMD работать? В смысле, на недорогом AMD. Для последних дорогих моделей, вроде, какой-то костыль придумали для нейронок.

    • @user_a1819
      @user_a1819 57 хвилин тому

      Ollama не работает со старыми AMD, а Koboldcpp работает - через технологию Vulkan

  • @igroykt
    @igroykt 18 годин тому

    неверно. 14b значит 14 миллиардов токенов. значит оперативы надо в 2 раза больше, чтобы и нейросеть работала и ос не тормоzilla. в реале можно видеть что нейросеть не кушает столько оперативы, но можно видеть сколько кэша скапливается в оперативе.

    • @darthchibo6018
      @darthchibo6018 12 годин тому

      неверно. это не токены а параметры. это разные понятия.

  • @valeryrubantsev7837
    @valeryrubantsev7837 13 годин тому

    Без ИИ не установишь ИИ!

  • @drax5965
    @drax5965 4 години тому

    Вроде канал по AI, но почему то автор запускает самый ущербный вес на 1.5B. Хотя бы версию DeepSeek-R1-Distill-Qwen-32B-GGUF-IQ3-M запустил бы, который требует только 24GB VRAM (2 штуки RTX 3060, либо один RTX 3090). На 70B требует со средним квантованием требует ~48GB VRAM.

  • @alexsar2010
    @alexsar2010 День тому +1

    Спасибо за ChatBox. Но смысл вообще устанавливать deepSeek локально на комп? Он и на сайте отлично работает без всяких костылей. Если уж тестировать, то на сайте.

    • @neuralandprompts
      @neuralandprompts  День тому

      Согласен с тобой! Но ради спортивного интереса решил попробовать

    • @user-xyjvochko228
      @user-xyjvochko228 День тому +1

      Насколько я знаю, deepseek на сайте не знает, что произошло на площади Тяньаньмэнь, и не про какой Тайвань тоже не знает.
      А на компе это же будет открытая версия.
      Я не разбираюсь, и даже если локальная версия тоже зацензурена, то как минимум это пример того, как хорошо может работать что-то на персональном компе, а значит гипотетически без цензуры от корпораций или государств.

    • @icedfrozenstory
      @icedfrozenstory День тому

      ​@@user-xyjvochko228 не лезьте в китайскую политику и будет вам счастье😊

    • @hostra_sokira
      @hostra_sokira День тому

      ​@@user-xyjvochko228модели тренируются один раз и китайская цензура будет одна и та же. Модель это слои параметров, значения которых натренированы заранее.

    • @immortal3667
      @immortal3667 17 годин тому

      Людям страшно они бояться а вдруг на сутки интернета не будет и они не узнают например первый закон ньютона от нейронки, и их жизнь в этот момент может очень сильно испортиться 😂😂😂

  • @AlexMeLGames
    @AlexMeLGames День тому +2

    Поставил 32b q5 на пк с rtx 3090 и ryzen 3900xt, 17 токенов в сек, полёт нормальный. Если есть видюха на 24г, это самый лучший вариант домашнего ллм.

    • @ЮрийФилатов-о4б
      @ЮрийФилатов-о4б 19 годин тому

      Без квантования взлетела?у менч на rtx 3060 12gb 7b chat без квантования заработала, но жрет все 12 нб видеопамяти

    • @SeregaZinin
      @SeregaZinin 10 годин тому +1

      @ЮрийФилатов-о4б , 32b - это и есть квантованная от Оргиниальной.

  • @dedmoroz1074
    @dedmoroz1074 22 години тому

    На что влияет ТЕМПЕРАТУРА Chatbox?

    • @shmonov
      @shmonov 10 годин тому

      В большинстве ИИ-моделей температура отвечает за то, насколько к ответу примешивается случайная информация. Эта ерунда часто называется "креативностью" модели. Лучше ставить равной нулю )))

  • @Maglomi
    @Maglomi 14 годин тому

    Дядя... сижу пол года на ней с версии 2.0 -и кипятком ссусь. мне твой чэдтгэпэтэ вообще не упал.

  • @ГеннадийСармалаев-л6и

    Минус нет работы с картинками.

  • @yuriynaukovedov711
    @yuriynaukovedov711 18 годин тому

    дипсик в контексте очень путается, лично проверял, херня кароче полная, темболие голосового режима нету. с чат жпт я включаю голосовой режим кидаю в карман мобилу и часами могу с ним общаться

  • @Snazamanaz
    @Snazamanaz 20 годин тому +1

    Всё как в китайском автопроме! ))

  • @Felicee-n6n
    @Felicee-n6n 23 години тому

    У кого нибудь он работает? Виснет на загрузке ответов.

  • @slavaprotv
    @slavaprotv 18 годин тому

    Помоги установить Devika ai

  • @magomedrasulov316
    @magomedrasulov316 21 годину тому

    Очень конкретный урок. Всё понятно и анализ полезный!

  • @Хорон-е4д
    @Хорон-е4д 14 годин тому

    нахрена мне этот бредогениратор?)

  • @BeneDETHyou
    @BeneDETHyou День тому +2

    СПАСИБО!!! Подробнейше и без воды !!!👍👍👍

    • @neuralandprompts
      @neuralandprompts  День тому +1

      Спасибо за добрые слова, друг!

    • @BeneDETHyou
      @BeneDETHyou День тому

      @neuralandprompts почему-то стал писать ответы на английском ( в чём причина?

    • @neuralandprompts
      @neuralandprompts  День тому +1

      @@BeneDETHyou Вообще он сырой еще. Да и GPT и Claude таким грешат, я их вежливо прошу перейти на нужный язык

    • @alexsar2010
      @alexsar2010 День тому

      @@BeneDETHyou Потому что была установлена самая тупая модель.

    • @BeneDETHyou
      @BeneDETHyou День тому

      @на 32 ставил ..проц i9 оперативы 32 ..карта 3070

  • @corpsebreath1029
    @corpsebreath1029 День тому

    Что по цензуре?

    • @ytghgb
      @ytghgb День тому

      Китайская цензура можно отключить но цензура в основном китайская но не получиться у себя дома поставить самую мощную модель нужно 80гб видеопамяти максимум что могут позволить себе даже с 4090 это маленькая модель вот так вот а цензура да она есть в основном про Китай если что-то спрашивать то блочит и отказывается говорить о таком хотя цензура скорее всего на сервисе.

    • @mihailmolotov1967
      @mihailmolotov1967 22 години тому

      И кого ж нах ты там будешь посылать ?

    • @dedmoroz1074
      @dedmoroz1074 22 години тому

      @@ytghgb ключики решил сгенерировать хе-хе

    • @wzorplatonov977
      @wzorplatonov977 13 годин тому

      Она в наличии

  • @UCrEdstktTsLwcJR6dk6sMXw2
    @UCrEdstktTsLwcJR6dk6sMXw2 16 годин тому

    1.5b такую чушь несёт, tinyllama на голову адекватнее

  • @RufAzad
    @RufAzad День тому +1

    ua-cam.com/users/shortsHa7L1wwZcwg?si=L1sIcsFi_nbuYeb1

  • @TRX_144
    @TRX_144 День тому

    Я тоже установил локально DeepSeek 8b b и как по мне она сильно проигрывает относительно тойже llama3.1 относительно моих целей а именно для ролеплея - она находясь в роли начинает мне описывать что и как она думает и что ей отвечать в общем такое себе - возможно для других целей и будет ок

    • @mihailmolotov1967
      @mihailmolotov1967 22 години тому

      Пиши мне, я тебе чего хочешь отвечу 😝😝

  • @sigours
    @sigours День тому

    лайк тебе мужик👍