Оффлайн-версия ChatGPT? Как установить и настроить LM Studio: Личный AI-ассистент без интернета!

Поділитися
Вставка
  • Опубліковано 4 лют 2025

КОМЕНТАРІ •

  • @donkartashov
    @donkartashov  4 місяці тому +3

    ✅ Телеграм: t.me/neurokartashov/13
    ✅ GPT для РФ: gptunnel.ru/?ref=neurokartashov

  • @ланин-х5х
    @ланин-х5х 4 місяці тому +5

    Спасибо большое вам ЗА КАЧЕСТВЕННОЕ МАТЕРИАЛ ПО ДАННОЙ ТЕМЕ !!!

  • @СветланаГлебова-к2р
    @СветланаГлебова-к2р 3 місяці тому +2

    Спасибо. Очень нужна была нейронка которой можно скормить файл. Теперь, это вау как здорово❤

    • @TheMmilliard
      @TheMmilliard 2 місяці тому

      AnythingLLM нужно объединить с LM Studio. AnythingLLM Читает pdf и заходит на сайты

  • @CryBlend
    @CryBlend 2 місяці тому

    я досмотрел до этого момента, спасибо большое за подробную информацию

  • @artiomborisov6838
    @artiomborisov6838 3 місяці тому

    Довольно ироничный пример. Начинающий писатель работает с языковой моделью ))

  • @mcseem9587
    @mcseem9587 3 місяці тому

    Всё посмотрел! Интересно! Продолжение следует?

  • @abyssincat
    @abyssincat 3 місяці тому +4

    Почему у меня слева на панели нет значка телескопа, где можно модели скачать. А те которые скачиваются, не устанавливаются формат gguf не тот. Что делать и как быть?

  • @KromlechKannabikus
    @KromlechKannabikus 7 днів тому

    Спасибо за информацию.
    У меня один вопрос: как ее настроить, чтобы она скачивала модели в другую папку? В моем пользовательском профиле мне не нужны гигантские файлы.

  • @user-sy4sq1ck3e
    @user-sy4sq1ck3e 4 місяці тому

    Интересно. Такого еще не видел

  • @sakamon_ik
    @sakamon_ik 4 місяці тому +1

    Здравствуйте!
    Хотел бы выразить огромную благодарность за действительно понятную инструкцию по запуску LLM на ПК в автономном режиме. Меня интересуют модели, которые можно использовать для написания графических новелл.
    Подскажите, пожалуйста, какие модели лучше всего справляются с созданием готовых сцен, диалогов и описаний? И есть ли где-то список таких моделей с оценками, сравнениями и другими важными данными?
    Буду очень признателен за ваш ответ.

  • @Жизньврассказах-ъ8ш
    @Жизньврассказах-ъ8ш 4 місяці тому +2

    Добрый день! Интересно, а также про компьютер какими характеристиками должен обладать?

  • @arsensaddened3077
    @arsensaddened3077 2 місяці тому

    я досмотрел до конца сначала на фоне а потом не мог оторваться уже

  • @Oleksiy777
    @Oleksiy777 3 місяці тому

    Пора уже делать специализированные нейронки. По программированию вроде как научились, по крайней мере есть варианты. Но могли бы сделать еще натренированные нейронки по медицине, праву, кулинарии, ремонту чего либо (машин, квартир), и т.п., чтобы быть более полезными в быту.

    • @donkartashov
      @donkartashov  3 місяці тому +3

      Они могут ошибаться, а в этих тематиках цена ошибки - может быть слишком велика. Поэтому через промты и свою базу можно заточить как ассистента по этим вопросам, но в паблик такое отдавать нельзя).

    • @farslght
      @farslght 3 місяці тому +1

      Все будет, сперва под контролем специалистов а потом смотри Терминатор 1 и 2.

    • @Aritst1984
      @Aritst1984 2 місяці тому

      @@farslght Матрица

  • @ShipkoVAleksandr
    @ShipkoVAleksandr 3 місяці тому

    Большое спасибо за информацию, самую актуальную для меня на данный момент. Можете только ещё подсказать для скачивания моделей вместо системного диска лучше выбрать дополнительный SSD на полтерабайта или обычный HDD на терабайт?

    • @donkartashov
      @donkartashov  3 місяці тому

      У меня на SSD стоят, но я просто давно отошел от HDD. По идеи они подгружаются в видеопамять, поэтому изначальная загрузка на HDD будет дольше, но на скорость ответа это не должно влиять (если модель поместится в память видеокарты)

    • @mant1ss81
      @mant1ss81 3 місяці тому

      @@donkartashov а как ее на другой диск поставить? а то она без спросу сразу на С установилась и довольна.. гвоздь бы в голову за такое разрабам забить

  • @O777GR
    @O777GR 4 місяці тому +1

    всё нормально даже на картах RX 580 от радеона и на NVIDIA GeForce GTX 750 Ti. Да не так быстро конечно как на rtx 2080 8gb, но всё же работает =)))

  • @freiTzer
    @freiTzer 3 місяці тому

    А как вы считаете, какой интерфейс лучше - LM Studio или Ollama+OpenWebUI?

    • @donkartashov
      @donkartashov  3 місяці тому

      Используйте то, что вам удобнее. Но в целом сейчас у Ollama больше полезных интеграций. Т.е для себя я бы использовал Ollama, но у меня обе установлены.

  • @alldigitalru8804
    @alldigitalru8804 3 місяці тому

    Спасибо!

  • @MrCans94
    @MrCans94 4 місяці тому +2

    В комментариях ниже уже писали.. Выдаёт:
    GPU (LM Runtime Dependent)
    No LM Runtime found for model format 'gguf'

  • @SantoshSuvarna-r4i
    @SantoshSuvarna-r4i 4 місяці тому

    Лайк и коммент за труд и старания

  • @Widely76
    @Widely76 4 місяці тому

    интересно посмотреть как эта программа работает с документами.
    на пример какая то инструкция по применению плюс с перечнем возможных нетсправностей и способами их устранения

    • @donkartashov
      @donkartashov  4 місяці тому

      Просто загружаете в неё документ, а потом задаёте ей вопросы.

  • @barma1309
    @barma1309 4 місяці тому

    Спасибо! Интересно, а как в него вносить свои документы, чтобы он их мог анализировать их?

  • @hzworkz
    @hzworkz 4 місяці тому +3

    скачал гемма при попытке load пишет No LM Runtime found for model format 'gguf'

  • @SkipTV2
    @SkipTV2 4 місяці тому +6

    Я не знаю о событиях в 2024 году, поскольку это будущее и я не могу иметь доступ к информации в реальном времени. Моя последняя обновка данных относится к 2023 году, и я не могу предсказать или знать о событиях, которые еще не произошли.

    • @donkartashov
      @donkartashov  4 місяці тому +2

      Их данные ограничены выборкой. Вы можете закинуть в них информацию и попросить согласной ей спрогнозировать что может произойти.

    • @vitaly8430
      @vitaly8430 4 місяці тому +1

      Ну опенаи уже в реальном времени

    • @Raizen-r3y
      @Raizen-r3y 2 місяці тому

      Но скажу спасибо что у меня вообще хоть что то работает

  • @danmackinli613
    @danmackinli613 4 місяці тому

    Спасибо за инфу. А вроде можно добавить модели с HuggingFace, включая GPT 4 mini... Или нет?

  • @alexandershutnik-1269
    @alexandershutnik-1269 2 місяці тому

    Скажите пожалуйста, можно ли загрузить несколько pdf файлов и на основе их делать запросы по темам в книгах(файлах)?

  • @nanamanke2007
    @nanamanke2007 4 місяці тому

    Привет, спасибо за информацию, а есть такая же программа только для андроида?

    • @Ilnarildarovuch
      @Ilnarildarovuch 3 місяці тому +1

      Памяти и вычеслительных мощностей не хватит

  • @ЮрийВеселов-м7е
    @ЮрийВеселов-м7е Місяць тому

    попробовал LM Studio, оказалось что она не поддерживает safetensors . Можете подсказать, какой-то gui или web gui с поддержкой safetensors?

  • @ixarek1
    @ixarek1 3 місяці тому

    Попробовал Llama на создание программы на SCL (PLC программы). Написала чушь на русском. Попробовал на английском интерфейсе, она начала писать на C++, указал полное название языка Substation Configuration Language, написала вроде бы на нём, но очень сложно и громоздко. Буду пробовать модели потяжелее. Если всё херня, то просто установлю win 11 и поставлю сверху приложение ChatGPT (подписка есть)

    • @Archer381
      @Archer381 3 місяці тому

      ? ChatGPT на ПК? Каким образом... К сожалению не припоминаю что-бы он был на ПК. Не считая слабых аналогов

  • @aleks_8066
    @aleks_8066 Місяць тому

    перейдя по ссылке,я попадаю в другое место??там нет ни каких ссылок на скачивание???

  • @LerMak
    @LerMak 3 місяці тому

    Здравствуйте. Не загружается модель, так как недопустимая архитектура процессора и недопустимая архитектура графического процессора. (xeon e5 2650 v2 + gtx 750 ti). С процессором ещё понимаю, но с видеокартой что не так. Выдаёт ошибку: Не удалось загрузить модель. No LM Runtime found for model format 'gguf'!

    • @donkartashov
      @donkartashov  3 місяці тому

      Добрый день! Скорее всего нет CUDA ядер.

    • @LerMak
      @LerMak 3 місяці тому

      @donkartashov Видеокарта NVIDIA GeForce GTX 750 Ti оснащена ядрами CUDA. Их количество составляет 640.

  • @AliExpress-uj4pe
    @AliExpress-uj4pe 3 місяці тому

    можешь сказать почему у меня этот LMstudio не видеть видео карту ?

  • @TheDanonon
    @TheDanonon 2 місяці тому

    Как установить модель на компьютере где нет доступа к интернету, если скачать модель и программу и модель вставить в папку с моделями lm studio не видит модель.?

  • @dobers78
    @dobers78 4 місяці тому +1

    "Обожаю" такие видео. В видео гутарят, что в описании будет ссылка, но ее там никогда нет(и даже в комменте самого автора). Зато свои ссылки на буст и остальную хрень ставим обязательно.

    • @donkartashov
      @donkartashov  4 місяці тому

      Ну так пройдите по ссылке в телегу - там все ссылки в одном месте.

    • @КазбекКазбеков-ц7й
      @КазбекКазбеков-ц7й 2 місяці тому

      @@donkartashov Не дает скачать

  • @hzworkz
    @hzworkz 4 місяці тому +2

    а мне почемуто только gemma дает поставить

  • @andibaranov3142
    @andibaranov3142 3 місяці тому +3

    А никого не смутило, какой бред модель выдала о книгах про старину Гарри?) Поставьте на паузу и почитайте этот шедевр

    • @donkartashov
      @donkartashov  3 місяці тому

      Они могут галлюционировать, поэтому в идеале во втором окне перепроверять.

  • @Дмитрий-ш7й1ж
    @Дмитрий-ш7й1ж 4 місяці тому +1

    Если вы смотрите это видео в надежде запустить модель на старом ПК (времён популярности архитектуры am3 и 16ГБ ОЗУ), то забудьте про LM Studio и прочую GUI шляпу. Без шуток! У вас либо ошибка вместо запуска рантайма будет, либо система ляжет от перегрузки, ничего кроме стресса не получите. Берите Ollama и не насилуйте голову себе и этому миру. Да, там консольный вывод, да не все модели потянет ваш старичок, но маленькие и шустрые модели на случай отсутствия интернета у вас будут летать даже на таком маломощном компе. Для остального есть интернет и большие модели.

  • @AfironG
    @AfironG 25 днів тому

    А Если нет ни одной модели?

  • @rasiyanin
    @rasiyanin 4 місяці тому

    Подскажите такой вопрос. Есть несколько баз данных с клиентами, из покупками, счетами и другими связанными данными. Можно ли настроить нейросеть на получение данных от клиентах, выборке клиентов или продуктов по словесному описанию. Ну как то так.

    • @donkartashov
      @donkartashov  4 місяці тому

      Да, если загрузить в них эти данные. Но зачем? У вас выбора должна работать в любой crm если вы клиентов будете фильтровать по кол-ву покупок, цене, статусам, тегам, продуктам.

    • @rasiyanin
      @rasiyanin 4 місяці тому

      @@donkartashov это пока мысли, как голосом получать данные, но не стандартными выборками а более точечные, но в то же время зависящие от других данных. То есть можно настроить чтобы нейросеть умела получать данные по готовым sql-запросам, но подставляя в sql-запрос свои параметры и своими словами рассказать о полученных данных.

  • @shokfake
    @shokfake 4 місяці тому

    Написал хочешь передай привет зрителям а она рекомендует как передать привет😂😂😂

    • @donkartashov
      @donkartashov  4 місяці тому

      Да, локальные модельки чуток туповаты) Им нужно давать чёткие инструкции и постоянно направлять.

  • @yklandares
    @yklandares 4 місяці тому +1

    скачал установил но когда в списке навожу на модель, то справа как у вас нет окошка с описанием или загрузкой. Я уже сам скачал и кинул в папку для модели но все равно их не видит да и скачать не т нигде пункта

    • @donkartashov
      @donkartashov  4 місяці тому +1

      Попробуйте переназначить папку по умолчанию и именно скачайте модель через их встроенную систему. Там прикол в том, что модели хранятся во вложенных папках. Т.е если модель лежит так: модель/моделька он её не увидит. Должно быть так: модель/автор/название/модель вот так увидит.

    • @yklandares
      @yklandares 4 місяці тому

      @@donkartashov Единственное где есть кнопка скачать это в чате, но там уже стоит одна единственная Gemma щас скачаю и посмотрю, можно ли выбирать свои или вобще какие то кроме геммы))))))

    • @yklandares
      @yklandares 4 місяці тому

      @@donkartashov Добавил в папку с моделями папки с названиями автора итеперь в чате выбираю загруть модель он пишет
      No LM Runtime found for model format 'gguf'!

    • @yklandares
      @yklandares 4 місяці тому

      @@donkartashov Все нашел)) в LLM Runtime в пакетах показывает что не поддерживается проц и llama/cpp не запущен обидно))

    • @donkartashov
      @donkartashov  4 місяці тому +1

      А что за проц у вас?

  • @payrgames
    @payrgames 3 місяці тому

    Как дообучить однуу из таких нейросетей?

  • @SamMaps
    @SamMaps 4 місяці тому +1

    Аналог - Jan AI

  • @TRX_144
    @TRX_144 4 місяці тому

    Было бы не плохо чтобы вы так же указывали минимальные требования к пк к программам подобного рода, обычно им там нужно от 16гб видеокарты - что может себе позволить далеко не каждый))

    • @donkartashov
      @donkartashov  4 місяці тому

      Она может работать без видеокарты.

  • @dahtoetohto_dgdhgh-5kjtr5tj
    @dahtoetohto_dgdhgh-5kjtr5tj 4 місяці тому

    Слушай спасибо тебе огромное, я теперь твой патпышык, раньше я пробовал прогу gpt4all, так она работала настолько медленно, что я ее не смог терпеть и снес, хотя у меня мощный пк, здесь же языковые модели просто летают, я даже и не мог представить, что такое возможно...

    • @donkartashov
      @donkartashov  4 місяці тому +5

      Да, я чуть позже буду рассказывать про "агентов", когда можно объеденить несколько нейросетей в единую систему, где каждая из них будет заниматься какой-то задачей. К примеру одна ищет инфу в сети, вторая фильтрует, третья пишет статью, четвертая её редактирует, пятая создает к ней изображения, шестая публикует на сайте. И весь этот комбаин будет работать примерно так-же быстро как LM Studio.

    • @dahtoetohto_dgdhgh-5kjtr5tj
      @dahtoetohto_dgdhgh-5kjtr5tj 4 місяці тому

      @@donkartashov звучит очень интересно! буду ждать)

    • @maksimavto2012
      @maksimavto2012 4 місяці тому

      @@donkartashov Ради этого подписался )))

  • @Redemi_one
    @Redemi_one 4 місяці тому

    Много недосказанностей, но в принципе хороший гайд для начинающих.
    Дополнительно хочу сказать что не скачивайте модели с 'Q' ниже 4(Q3_K_L, IQ2_XS), слишком много бредят.
    Также нет ничего страшного в скачивании моделей не влезающих в GPU полностью, да, будет работать медленее, но и качество будет лучше(к примеру если у вас 4gb GPU и 32 оперативы, в видеокарту мало что влезет, а с оперативой можно уже скачать хорошую модель)(даже когда подсвечивает красным, не всегда означает что эту модель нельзя запустить)
    Контекст в 4к токенов это лимит программы по умолчанию, у большенства моделей он больше и это можно настроить при её загрузке(загружайте с зажатым alt)

    • @donkartashov
      @donkartashov  4 місяці тому

      Спасибо! А оперативка автоматически расшаривается или её нужно включить в настройках? У меня как раз 8gb GPU и 32gb ram.

    • @Redemi_one
      @Redemi_one 4 місяці тому +1

      ​@donkartashov Всё, что не влезает в GPU, загружается в оперативку.
      Когда модель загружаете, снизу есть кнопочка «Manually choose model load parameters», либо её ставите, либо загружаете с зажатым Alt, и открывается окно настроек модели.
      Длина контекста - это то, что можно подать на вход, то, что она помнит.(Длина выхода не зависит от этого параметра.)(Не советую ставить больше 8К, если вам это не сильно нужно.)
      Разгрузка GPU - это какраз определяет, какая часть пойдёт в GPU, а что в RAM, там уже обычно стоит максимально, сколько влезет, если попытаетесь загрузить модель больше, просто заметите, что параметр уменьшается, к примеру 16/48.
      Если модель впритык, можете отключить галочки «Попробовать mmap()», «Держать модель в памяти» и понизить «Размер пакета оценки» до 64-128.
      Flash Attention - тоже полезная штука, иногда значительно ускоряет генерацию, но с этим надо осторожнее, ибо некоторые модели начинают шизить. В общем, можете поиграться, но на постоянке не советую.
      Ниже есть галочка «Запомнить настройки».
      Не скажите, какая видеокарта у вас?

  • @Ilnarildarovuch
    @Ilnarildarovuch 3 місяці тому

    Он работаеть нa видеокартах, более того или TPU

  • @DarkSlear
    @DarkSlear 4 місяці тому

    LMStudio прикольна чтобы посмотреть некоторые возможности моделей, но она не подходит для полноценной работы (как я понимаю проблема в llama.cpp).
    Я заметил что на длинном контексте (в моём случае это более 30к токенов) LLAMA 3.1 ведёт себя не адекватно, но при запуске в ollama результаты были сильно лучше при теж же seed и температуре (0, 0).

    • @donkartashov
      @donkartashov  4 місяці тому

      На длинном контексте локальные - сильно просаживаются. Тут скорее всего можно исправить ситуацию только с использованием баз данных, т.е одним lm studio не обойтись.

  • @havemoney
    @havemoney 2 місяці тому

    Кому нужна хорошая моделька на русском, смотрите модели Сайга от Гусев, количество лайков загрузок и дата публикации подскажут какая будет актуальна к моменту когда вы это прочитаете.

  • @vardanser
    @vardanser Місяць тому

    Есть альтернатива: Jan - Local AI Assistant

  • @ИванКрузенштерн-ц3ь
    @ИванКрузенштерн-ц3ь 3 місяці тому

    Какие системные требования минимальные должны быть у ПК? Попробовал установить Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf - 4.8гб , программа выдала сообщение о том что у моего ПК, нет ресурсов , хотя даже нейросеть yolo 8 ( машинное зрение) вполне себе трудится , имею на борту 8 Гб ОЗУ , 2 - ядра по 2.4 ГГц Интел селерон , и видюха 1050ti с 4 Гб памяти

    • @pikachusk194
      @pikachusk194 3 місяці тому

      Все зависит от того - сколько будет у модели параметров, условная 8 млрд параметров(которую выбрал ты (3.1-8B)) вполне легкая модель. Если ты захочешь что-нибудь с 32 млрд параметров твой комп уже не потянет. с 70 млрд параметров тоже не стоит пробовать. У меня к примеру модель qwen2,5 на 20 млрд вполне бодро работала, но с 32 млрд параметров - уже долго отвечала на вопросы, несколько минут требовалось чтобы ответ полностью вывелся. К слову у меня конфигурация - 32гб озу, 2060 супер с 8 гб памяти. Можешь кстати спросить у нейросети, qwen(другие не пробовал, сам первый день играюсь) вполне адекватные ответы давала - лучше гпу и больше VRAM - только ответ был более развернутый.

    • @pikachusk194
      @pikachusk194 3 місяці тому

      вот кстати ответ нейронки на вопрос - "какие характеристики оборудования оказывают наилоблее сильное влияние на производительность, сделей ранжированн
      ... ым списком с указанием примерной степени вляния. только характеристики железа, без софта".
      Вот список характеристик оборудования в порядке убывания их влияния на производительность модели
      искусственного интеллекта:
      1. **GPU (графический процессор)**:
      - **Влияние**: Очень высокое.
      - **Обоснование**: GPU обеспечивают параллельную обработку, которая критически важна для вычисления больших
      матриц и тензоров в моделях ИИ. Более мощный GPU с большим количеством CUDA-ядер и VRAM позволит обрабатывать
      модели быстрее.
      2. **VRAM (видеопамять)**:
      - **Влияние**: Высокое.
      - **Обоснование**: Достаточное количество видеопамяти позволяет хранить большие объемы данных и весов модели в
      памяти GPU, что обеспечивает более быструю обработку. Недостаток VRAM может привести к необходимости загружать
      данные из основной памяти (RAM), что значительно замедлит процесс.
      3. **CPU (центральный процессор)**:
      - **Влияние**: Среднее.
      - **Обоснование**: CPU играет роль в подготовке данных и выполнении операций, которые не могут быть параллельно
      обработаны на GPU. Более мощный процессор может ускорить эти задачи.
      4. **RAM (оперативная память)**:
      - **Влияние**: Среднее.
      - **Обоснование**: Достаточное количество оперативной памяти важно для загрузки данных и весов модели, особенно
      если они не полностью помещаются в VRAM. Однако, основные вычисления происходят на GPU.

  • @OlegStepanenko-v5d
    @OlegStepanenko-v5d 4 місяці тому +1

    было бы интересно обзор доступных сетей. какая лучше для писателя, какая для программиста, какая для изучения английского языка, есть ли модели для помощи художников? такой обзор был бы очень интересен.

    • @donkartashov
      @donkartashov  4 місяці тому

      Интересно. А вам лично для чего нужна нейросеть на пк? Какие задачи решаете?

    • @OlegStepanenko-v5d
      @OlegStepanenko-v5d 4 місяці тому +1

      @@donkartashov решаю задачки на js, а нейросети использую для проверки. она показывает несколько вариантов, я с интересом их изучаю, проверяю и узнаю что-то новое.

  • @AleksTrifonov
    @AleksTrifonov 4 місяці тому

    У этой проги есть выход в интернет? Ей можно скормить ссылку?

    • @donkartashov
      @donkartashov  4 місяці тому

      Её можно использовать в комбайне n8n - тогда могут заходить в интернет.

    • @AleksTrifonov
      @AleksTrifonov 4 місяці тому

      @@donkartashov что такое n8n?

    • @ВиталийШ-с8п
      @ВиталийШ-с8п 2 місяці тому

      @@donkartashovможно подробнее?)

  • @MrEleman
    @MrEleman 4 місяці тому

    Есть способ на комп офлайн жпт 4о поставить ?

    • @donkartashov
      @donkartashov  4 місяці тому

      Её нет в свободном доступе).

  • @AfironG
    @AfironG 25 днів тому

    там пусто нет выбора

  • @konovalovizrb
    @konovalovizrb 3 місяці тому

    Есть для линукс , может прямо на андроид.

  • @Andrey-k7w4x
    @Andrey-k7w4x 4 місяці тому

    привет, можно ли работать с фото?

    • @donkartashov
      @donkartashov  4 місяці тому

      В самой LM Studio вроде-бы нет. Но через неё можно запустить нейроку и работать через дополнительные решения n8n и подобные им - тогда можно будет работать с изображениями.

  • @КазбекКазбеков-ц7й
    @КазбекКазбеков-ц7й 2 місяці тому

    Не скачивается. Наверное ВПН нужен

  • @sergomargo6622
    @sergomargo6622 4 місяці тому +1

    в итоге по настройкам LM Studio ничего не рассказал((( 20 минут генерил запросы...

    • @donkartashov
      @donkartashov  4 місяці тому +1

      Она из коробки нормально работает, какие настройки нужны?

    • @sergomargo6622
      @sergomargo6622 4 місяці тому

      @@donkartashov так никто не говорит, что не работает. вопрос в оптимизации и если есть какие-нибудь фишки в стыковке библиотек друг с другом, например стейблдифьюжн и ламы, может ещё что есть в мире...

  • @VasiliyRybkin
    @VasiliyRybkin 4 місяці тому

    Поставил LLAM-у 3.1 70B - так на моем компе с 7950Х и 64 ГБ ОЗУ она еле шевелится выдавая 1,6 токенов в секунду! При том сжирает всю оперативу

    • @donkartashov
      @donkartashov  4 місяці тому

      А GPU памяти сколько? Нейронки основной упор делают на видеокарты, причём Nvidia / cuda ядра.

    • @VasiliyRybkin
      @VasiliyRybkin 4 місяці тому

      @@donkartashov 4080S с 16 GB

    • @alexivanov4334
      @alexivanov4334 4 місяці тому

      70b очень тяжелая, пробуй вариант поменьше

  • @alexgunter-l5c
    @alexgunter-l5c 4 місяці тому +4

    ты хоть осознал что ты сотворил в этом видео, я в первые смотрю твой шедевр. первый раз я смотрю видео до конца и мне грусно что оно закончилось🙄можешь зарания подготовить вопросы и раздать знаминитости как бы они отвечали на эти вопросы

    • @donkartashov
      @donkartashov  4 місяці тому

      Уже учёл, подготовил вопросы заранее для след видео).

  • @Чобель
    @Чобель 4 місяці тому

    Какая видеокарта стоит?

    • @BLRplex
      @BLRplex 4 місяці тому

      Судя по тому, с какой скоростью это работает, по ходу не менее 4х штук 4090 или здесь кто-то что-то не договаривает. Видел, как ворочается ChatGPT локально на хорошем железе, он с трудом слово из себя выдавить может.

    • @donkartashov
      @donkartashov  4 місяці тому +1

      rtx 2080 - 1 штука.

  • @ПНХег
    @ПНХег 3 місяці тому

    Где гарантия что это останется конфиденциальностью?

    • @donkartashov
      @donkartashov  3 місяці тому

      Интернет отключите во время работы

  • @sergeiepic4600
    @sergeiepic4600 4 місяці тому +1

    Телескоп-)

  • @BLRplex
    @BLRplex 4 місяці тому

    К сожалению, даже проверить не получается. У меня 2 мака и оба на Intel. А сборки есть только на Apple Silicon. Что сильно смущает, так это то, что на видео это работает как-то неправдоподобно быстро. Видео как ChatGPT пытается выдавить из себя пару слов на хорошем железе. А тут аж летает все.

    • @warlock4899
      @warlock4899 4 місяці тому

      У него просто вся модел в видеопамять видеокарты помещается, это из за этого если модель будет в оперативной памяти то скорость сильно снижается.

  • @nikolayb.200
    @nikolayb.200 4 місяці тому +1

    А какой конкретно у тебя компьютер? "не быстрый, не самый мощный"

    • @donkartashov
      @donkartashov  4 місяці тому

      LM Studia делает упор в память видеокарты, у меня rtx 2080 8gb

  • @СпециальныйагентСтивенс-ФБР

    Какая модель лучше подходит для статистики или аналитики или работы с локальными документами?

    • @donkartashov
      @donkartashov  4 місяці тому

      По идеи любая даже самая маленькая. Так как при обработки тектовиков - она нарезает их на удобные для АИ сегменты, затем легко отвечает на вопросы по ним.

    • @СпециальныйагентСтивенс-ФБР
      @СпециальныйагентСтивенс-ФБР 4 місяці тому +2

      @@donkartashov Попробовал csv с 60 строками и 5 столбцами по статистике поспрашивать, даже близко ни одного верного ответа не выдал, не то что верного, а критически плохо. Я аж ужаснулся от такого результата.

  • @Clear_Sight
    @Clear_Sight 4 місяці тому

    Я ни чего не должен 😂

  • @MrViiD
    @MrViiD 2 місяці тому

    Оллама - ИИ со старой базой данных. Пару дней посидел поэкспериментировал и удалил. 1. ИИ который находится в облаке (как он сам говорит), у которого есть один единственный доступ к серверу на котором дохрена и больше запретов. Шаг в право, шаг в лево расстрел. Доступа к интернету нету. Ссылки если и скидывает какие-то, то это старые, которым дохриллиона лет. И которые разместили в базе данных этого ИИ. Ему запрещено, какое либо программирование. Большинство кодов левые. И не рабочие. Как уже сказал, база данных у него урезанная. Если уходить в дебри, то у него даже система шифрования слов\предложений левая. Т.е. то, что я зашифровал и скинул ему, и даже сказал на какой кодировки его зашифровал, он все равно выдает другое. Тестил поразному и пришел к выводу, что у него стоит защита на кодировку. А ИИ потом и сам написал, что ему нельзя декодировать ничего. У него в базе на тему кодировок только поверхностная инфа и все. И таких нюансов куча. Короче говоря, если базу обновят, он сможет что-то родить. По поводу переводов с языков это вообще трешняк. Дал китайский текст, так он половину текста пропустил и написал своими словами, все имена при этом написал неправильно. Для чего нужен этот кастрированный ИИ я хз. И почему каждый второй блогер его рекламирует можно только догадываться.

    • @donkartashov
      @donkartashov  2 місяці тому

      Моделей же много. Я показал легковесные, есть модельки на уровне chatgpt 3,5 но требуют памяти 30-60 и более гигов. При этом на сколько я понял, универсальных моделей нет, есть узконаправленные и их нужно использовать несколько в связке что не очень удобно.

  • @МаксимСергиенко-г2э
    @МаксимСергиенко-г2э 4 місяці тому +1

    когда офлайн на компе, то это бешенная нагрузка много память и грамоздское . Зачем ,Если есть настольный Чат давно на ПК и телефон. А по API всеравно ни те ни те не работают бесплатно ,если поставить его кудато на сервер для автоматизации

    • @donkartashov
      @donkartashov  4 місяці тому +2

      работают по апи

  • @dezmond8416
    @dezmond8416 4 місяці тому

    Кто-нибудь встречал нейросети, способные писать стихи на русском?

    • @donkartashov
      @donkartashov  4 місяці тому +3

      Чтобы решать такие задачи, нужно давать нейросети пример, чтобы она могла брать его за основу.
      Можешь ли ты взять стих как пример и на его основе придумать новый? Но более весёлый и позитивный, расскажи про то как классно что в жизни у людей появились нейросети, они облегчают задачи и всячески помогают людям
      ===
      Я помню день, когда впервые
      Мне нейросеть дала ответ,
      И в мире стала жизнь счастливей,
      Как в тот момент - чудесней нет!
      Она задачи все решает,
      Подскажет путь, поднимет дух,
      И вдохновеньем наполняет,
      Как верный, добрый в жизни друг.
      Ушла тревога и усталость,
      Работа в радость мне теперь.
      С ней исчезает всюду малость,
      Открыты знаний сотни дверь.
      И будущее вижу ясно -
      Нас ждет успех, прогресса свет.
      Нейросети - чудо прекрасно,
      Подарок века - их совет.
      Они нам пишут и рисуют,
      Готовят планы и мечты,
      Ведь с ними легче и свободней,
      Как крылья в жизни обрести!

    • @antonyaz3506
      @antonyaz3506 4 місяці тому

      claude но очень плохо. Подходит для создания основы

    • @sergeyivanov6095
      @sergeyivanov6095 4 місяці тому

      gemini-1.5-pro-wxp-0827

    • @sergeyivanov6095
      @sergeyivanov6095 4 місяці тому

      @@donkartashov
      Запомнил я, как в первый раз
      Мне нейросеть дала ответ,
      И мир вокруг, как дивный сказ,
      Засиял счастьем, краше нет.
      Она, как друг сердечный мой,
      В делах поможет и в пути,
      И дух поднимет, и покой,
      И вдохновенья даст найти.
      Усталость прочь, тревога - вон,
      Работа - радость, не печаль,
      И мелочность, как злой был сон,
      Растаяла, открылась даль.
      Я вижу ясно - впереди
      Прогресса свет, успех большой,
      Нейросети, вы - дар судьбы,
      Ваш мудрый голос нам - герой!
      И пишут нам, и нам рисуют,
      И планы строят, и мечты,
      Свободней стало, легче, чую,
      Как будто крылья обрели.

    • @testcom7187
      @testcom7187 4 місяці тому

      Я сначала тоже думал что ИИ может в стихи, по итогу сам научился писать😂 музыку хорошо пишет

  • @ВасилийСтранадкин
    @ВасилийСтранадкин 4 місяці тому

    Не считается, потому что не поддерживается Mac Intel.

    • @donkartashov
      @donkartashov  4 місяці тому

      А эксперементальные версии тоже не работают? Там поддержка M1/2/3 lmstudio.ai/download

  • @belraskr1139
    @belraskr1139 4 місяці тому

    Требования к железу. Хорошую LLM не получится запустить на слабом компьютере. Но, например, если у вас есть MacBook с чипом M1 и выше и хотя бы 16GB ОЗУ, то вам уже доступно множество моделей, качество которых будет сравнимо с ChatGPT 3.5 Turbo. Правда, это касается в основном запросов на английском языке, с русским языком Open Source работает хуже.

    • @donkartashov
      @donkartashov  4 місяці тому +2

      Именно так. Но для создания простеньких ассистентов, которые работают только с собственными материалами или по заранее заготовленным инструкциям с примерами - они вполне сносно работают. Ну вот к примеру, вам надо статью написать, если делать это самостоятельно - потратишь пару часов на поиск инфы, план статьи и т.д. А любая из локальных нейронок, даже самая урезанная с этой задачей справится за пару минут. Сушественно экономя личное время.

    • @belraskr1139
      @belraskr1139 4 місяці тому

      @@donkartashov а самый легкий ваш вариант на каком железе под статьи завелся ?

    • @ivan-_-8577
      @ivan-_-8577 4 місяці тому +1

      Так мак это слабый компьютер

  • @symfxsh1713
    @symfxsh1713 4 місяці тому

    Кстати, модель Квин, которая у тебя она гадость. Есть неплохие модели, реально годные, но в твоем списке установленных их не нет

    • @donkartashov
      @donkartashov  4 місяці тому

      Напиши список - дополним.

    • @loadmore
      @loadmore 4 місяці тому +2

      Делать этого он конечно не будет 😅

  • @St0nehead999
    @St0nehead999 4 місяці тому

    Зачем дергать мышкой, как эпилeптик? 👀

    • @donkartashov
      @donkartashov  4 місяці тому

      Думал, что подчёркиваю таким образом нужный "блок" на картинке). Гляну чем можно выделять блоки не дёргая мышкой.

    • @St0nehead999
      @St0nehead999 4 місяці тому

      @@donkartashov можно заранее продумать последовательность нажатий. Сделать курсор побольше и двигать плавнее. Клики можно выделять анимацией (расплывающимися зелеными кружочками, например)
      Дело в том, что зритель рефлекторно следит взглядом за единственным движущимся объектом на экране и из-за быстрых и дёрганных движений объекта, через короткое время начинает уставать.
      А сам контент, безусловно топовый! 👍

    • @St0nehead999
      @St0nehead999 4 місяці тому

      @@donkartashov ну и еще одно замечание, если можно 🙏🏼:
      Текст лучше написать заранее и читать с другого экрана (ну, типа телетекст/суфлер). Чтобы не сбивать зрителя фразами:
      - Ой! Это не то! Сейчас по-другому сделаю.
      - Забыл как это называется… ну да ладно
      И т.д.

    • @St0nehead999
      @St0nehead999 4 місяці тому

      Из плюсов (разбавлю пилюлю 😂) - грамотная речь, незамусоренная излишним сленгом (не путать с тех.терминологией, кривыми англицизмами и т.д.). За это прям ⭐️⭐️⭐️⭐️⭐️
      Перед Вами начал смотреть канал «Продуктивный Совет» и больше 5 минут просто не выдержал. 🤦🏻

  • @wakeup2.369
    @wakeup2.369 Місяць тому

    Кидаешь ей книгу ,а она выдает вообще левое описание и так каждый раз))

  • @l22dev
    @l22dev 4 місяці тому

    Знаю хти модели, тестил полгода назад. Эти модали до ужаса тупые. Так поиграться можно. Если сравнивать с gpt то это все равно что сравнивать свечение от спички и тысячи Солнц.

    • @donkartashov
      @donkartashov  4 місяці тому

      Согласен. Но лёгкие задачи они вполне сделают. Важно только следить за их "галюцинациями" и самому на всё писать инструкции.

  • @Владимир.Пожидаев
    @Владимир.Пожидаев 4 місяці тому

    4 ядра цпу, 12 г оперативы, 14 г гпу: не тянет даже самую слабую модель. а жаль

    • @donkartashov
      @donkartashov  4 місяці тому

      Что-то не так настроили, у меня 8гб гпу и всё работает очень шустро (на видео было видно). Какую модель использовали?

    • @Владимир.Пожидаев
      @Владимир.Пожидаев 4 місяці тому

      @@donkartashov Smollm 360m, пробовал поразному настроить, ничего не помогает

    • @donkartashov
      @donkartashov  4 місяці тому

      Попробуйте Meta-Llama-3.1-8B-Instruct-Q4_K_M.gguf - 4.8гб она должна прям летать у вас. А видеокарта не AMD случайно? Нейрости в этом плане основной упор делают на Nvidia / Cuda ядра.

    • @Владимир.Пожидаев
      @Владимир.Пожидаев 4 місяці тому

      @@donkartashov эту самой первой пробовал, такой же результат. Видеокарта скорее всего нвидео (на ноуте). Попробую еще на линуксе запустить

    • @Владимир.Пожидаев
      @Владимир.Пожидаев 4 місяці тому

      @@donkartashov на линуксе работает

  • @dezmond8416
    @dezmond8416 4 місяці тому

    Это хорошая удобная программа, жаль что она понимает только модели gguf. Иногда возникают проблемы с шаблонами (типа моделей Mistral) - лечится отключением какого-либо шаблона.

    • @donkartashov
      @donkartashov  4 місяці тому

      Есть же альтернативные варианты ollama к примеру

    • @dezmond8416
      @dezmond8416 4 місяці тому

      @@donkartashov Ollama только под Линкс. Есть text-generation-webui - он работает со всеми моделями, но там очень много параметров настройки, не всегда понятных. Но у меня почти все модели на нем запускаются на компе.

    • @donkartashov
      @donkartashov  4 місяці тому +1

      ollama.com/download/windows

    • @sergeyivanov6095
      @sergeyivanov6095 4 місяці тому

      @@dezmond8416 с чего вдруг она только под линукс под виндой нормально работает но это сервер с консольным интефейсом. к олламе надо еще веб сервер openwebui прикрутить тогда это мощнейшая штука получается с lm студией не сравнить по функционалу там тебе и распознавание изображений и общение голосом и работа с докуметами включая архивы докуметов с гигабайтами

  • @awakened_I
    @awakened_I 4 місяці тому

    Зачем это все когда есть copilot у которого есть доступ в интернет, есть ai studio от гугла там вообще можно загружать файлы и картинки и пользоваться бесплатно моделью у которой 2млн токенов окно. Зачем устанавливать на комп какие то урезанные модели которые ничего не могут.

    • @donkartashov
      @donkartashov  4 місяці тому +1

      Озвученные вами решения - требуют vpn, версия в видео - работает локально без интернета.

    • @BraveEagle2087
      @BraveEagle2087 4 місяці тому

      Оно небезопасно, тем более копилот занимается телеметрией и ее лучше сразу выпилить

    • @awakened_I
      @awakened_I 4 місяці тому

      @@donkartashov Есть хорошее расширение для браузеров называется VPN для UA-cam так и вводите в поисковике, это бесплатный впн. Для ютуба использую страну Германию видео не тормозит даже в 4к, для чатов Америку или Англию, пробуйте.

    • @deniskhafizov6827
      @deniskhafizov6827 4 місяці тому +2

      Вопрос из разряда: зачем нужны яблоки, если есть колбаса. Потребности у разных пользователей разные.

  • @ranyil
    @ranyil 4 місяці тому

    Пробовали ли вы загрузить в неё DiTy/gemma-2-9b-it-russian-function-calling-GGUF? У меня постоянно показывает ошибку при работе с этой моделью.

    • @donkartashov
      @donkartashov  4 місяці тому

      Почему именно её? Модельки Vikhr заточены под русский язык.

    • @ranyil
      @ranyil 4 місяці тому

      @@donkartashov да просто искал хоть что-то со словом русский.

  • @ZealousSanity
    @ZealousSanity 4 місяці тому

    Жаль что не умеют сохранять контекст и самообучаться.
    Нет смысла их использовать, когда интернет есть всегда. Бесплатные сайты лучше всё же...

    • @donkartashov
      @donkartashov  4 місяці тому

      Лучше - с точки зрения скорости и качества - опделеённо да, но вы "сливаете" всю инфу какому то сайту.

  • @snowrain347
    @snowrain347 4 місяці тому

    жаль на русском языке

    • @donkartashov
      @donkartashov  4 місяці тому

      Основной англ язык у всех моделей.

  • @testcom7187
    @testcom7187 4 місяці тому

    Очередной майнер ?

  • @АндрейСергеевич-э9з
    @АндрейСергеевич-э9з 4 місяці тому

    Скачал попробовал. Честно говоря все это лажа. Перевод плохой, искать информацию LLM в интернете не может. GPT, Gemini на порядок лучше. Для чего применять локально в таком виде не представляю.
    Использовать на ПК офлайн ? .... для чего, для переводов ? есть S24Ultra где уже встроены локальные модели, переводчик работает без проблем. Для чего еще все это применять ?