🔥 Бесплатная Нейросеть на твоем ПК (Работает в РФ без VPN) | Установка LLama 3.1 локально

Поділитися
Вставка
  • Опубліковано 23 січ 2025

КОМЕНТАРІ • 168

  • @Direcode
    @Direcode  17 днів тому +7

    🔗 Ссылки из видео:
    1. Платформа Ollama:
    ollama.com/
    2. Docker:
    www.docker.com/
    3. Openwebui:
    docs.openwebui.com/
    🗑 Чтобы удалить LLama:
    1. Завершаем диалог, через команду /bye
    2. Пишем ollama rm llama3.1:8b - и жмем enter
    3. Если у вас модель 70b, то пишем ollama rm llama3.1:70b

    • @dolotube
      @dolotube 9 днів тому

      Рекомендую отказаться от старой llama 3.1, ведь на том же сайте ollama доступны более новые, быстрые и корректные с русским языком модели: aya, qwen и множество других. А если комп тянет большие модели, то уже есть llama 3.3 на те же 70b.

    • @Снайпер-т9ж
      @Снайпер-т9ж 4 дні тому

      как удалить? /bye и ollama rm llama3.1:8b не работает

    • @dolotube
      @dolotube 4 дні тому

      ollama ls - для просмотра установленных моделей с их правильными именами
      ollama rm modelname - удалить после уточнения имени
      Выполняется из командной строки без захода в другие программы.
      А вот что такое /buy - что покупать собираетесь? ;)
      Команда выхода пишется иначе. И можно просто нажать ctrl+d.

    • @Снайпер-т9ж
      @Снайпер-т9ж 4 дні тому

      спасибо

  • @ВалентинНестеренко-к8х

    Крутой контент, спасибо тебе, все видео кайфовые👍продолжай в том же духе и канал вырастит в космическом эквиваленте💪

  • @olegbortnik6569
    @olegbortnik6569 7 днів тому

    Благодарю Вас за интересный, ценный и полезный подкаст!!!🙏🙏🙏

  • @1984tourist
    @1984tourist 16 днів тому +17

    Приветствую брата Колю! )))
    Уже вышла llama 3.3, которая заметно умнее. Правда есть только в версии 70B, так что требует 64Гб памяти.
    И да. Оболочка LM Studio удобнее, чем Ollama. Банально проще ставить.

    • @qlxxxx
      @qlxxxx 14 днів тому

      так она и в видео есть) просто она требует больше

    • @neromaks6064
      @neromaks6064 7 днів тому

      а чем умнее ? и сильно ли лама .3.3 отстает от гтп 4о?

    • @1984tourist
      @1984tourist 6 днів тому

      @@neromaks6064
      Из того, чем пользуюсь я, могу сказать, что 3.3 более толково код пишет, чем 3.1.
      А 4о вы не сможете запустить локально. Так что это просто другая категория. Ну и там наверно не с 70B сравнивать надо, а с 400.

    • @neromaks6064
      @neromaks6064 6 днів тому

      @ это больше под код подходит ? я просто хотел бы текстовую модель для обработки текста ,быстрых ответов на что то банальное . она вообще подойдет ? и если есть где то прям сравнения (не нашел их ) то глянул бы(. и если есть какая то модель подходящая для моих запросов ? заранее спасибо )

    • @1984tourist
      @1984tourist 6 днів тому

      @
      Любая подойдет. Если вопросы небольшие и их не очень много (у тебя нет базы на 100500 строк с этими вопросами) - то банально в телеге вон есть куча каналов с ботами.
      По качеству - чем новее и больше модель, тем она умнее. Конкуренты плюс-минус похожи в своих категориях.

  • @c1vvic
    @c1vvic 15 днів тому +3

    ребята так же можно выбрать на какой диск можно поставить нейросеть: пишите cd D:\ и все пишите команду установки, по-сути это тот же самый линукс

  • @SashaKuzikov
    @SashaKuzikov 12 днів тому +12

    А чем LM Studio не нравится? Без всяких докеров, регистраций и СМС. Куча всяких моделей на разные мощности и задачи.

    • @Direcode
      @Direcode  12 днів тому +7

      сделаю и про нее видео)

    • @Lucio11a
      @Lucio11a 12 днів тому

      ага, докеры - лишняя трата ресурсов железа на ровном месте.
      Есть AnythingLLM, gpt4all, oobabooga, janai, kobold, а если еще и хочется выпендриться и дать ии тело, голос и "характер", чтоб закуячить из него полноценного помощника, с возможностью агента на своем компе, дык можно взять тот же SillyTavern...
      Почти каждая из перечисленных прог имеет возможность закачивать ллм модели по одному клику, либо вставляя ссылку на нужную конкретную модель на ХаггингФейс, если вдруг искомой нету в списке.
      JanAi еще и подсказывает, какая модель будет работать быстро на конкретно твоем железе. Какая будет подлагивать, а какая выжмет из твоего компа все соки и все равно работать с ней адекватно будет нельзя.

    • @Pavel_Groznii
      @Pavel_Groznii 4 дні тому

      ​@@DirecodeЖдём

    • @dolotube
      @dolotube 4 дні тому

      Этак можно спрашивать про разное - а чем Open WebUI не нравится? А чем Forge не нравится? А чем... Вот только это не имеет отношения к теме данного ролика.
      К слову, LM Studio не на всех компах работает. Например, на Маках с интелом возникают проблемы с библиотеками пайтона.

    • @SashaKuzikov
      @SashaKuzikov 3 дні тому +1

      @dolotube к слову, *LM Studio,* на сегодняшний день, - самое удобное и оптимальное решение по указанным выше причинам. С него лучше и начинать. А если возникли странные проблемы или стоят другие задачи - рассматривать *Ollama* и всякое другое.

  • @aleksej862
    @aleksej862 9 днів тому +1

    Спасибо за видео,у вас приятный голос, успехов вам и здоровья

  • @Mikhail_Anato
    @Mikhail_Anato 9 днів тому +3

    Привет 🤝. Благодарю за информацию. Но вопрос 🙋‍♂️.
    Это почти копия будет GPT O? Или что-то другое?
    И можно ли его обучать с помощью книг и видео курсов?)

    • @SashaKuzikov
      @SashaKuzikov 3 дні тому +1

      @@Mikhail_Anato Нет, это будут модели, уступающие O1 по количеству параметров в десятки и сотни раз. Обучить у вас вряд ли получится.

  • @NlklFox
    @NlklFox 8 днів тому +1

    Привет, видео очень познавательное, интересное. Вопрос, я установил не на системный диск, но в уведомлениях не появилось окошко со стартом в cmd, как к нейронке обратиться самому через нее?
    Получилось только подружиться с ней с системного диска.
    Хотя может вопрос и глупый, гляну вечером документацию, если таковая имеется, не чекал😅

  • @ГАВНОДАВЫЧ
    @ГАВНОДАВЫЧ 2 дні тому

    Прикольно, а есть модели без цензуры?

  • @Nik_tvnow
    @Nik_tvnow 16 днів тому +2

    Здравствуйте расскажите про api и методы взаимодействия по api с локально установленой моделью?

    • @dolotube
      @dolotube 4 дні тому

      Это можно спросить у любой из десятка доступных сетевых нейросетей, начиная с ChatGPT. Даже код функции для запроса в локальный API напишут.

  • @rublevlive
    @rublevlive 10 днів тому +3

    Привет! Большое спасибо за видео! Снимите про студию - альтернативный способ запуска этой модели
    А также покажите пожалуйста как ее обучать самостоятельно загружая пдф файлы в нее
    Чтобы она именно УЧИЛАСЬ! и становилась умнее например загрузил пара докторских диссертаций и она прожевав все это смогла бы ссылаться на эти труды или ответы были бы более грамотными
    Спасибо!

    • @rublevlive
      @rublevlive 10 днів тому

      И да, отличное видео!

    • @flower-ezz6849
      @flower-ezz6849 10 днів тому

      норм у тебя аватарка

    • @flower-ezz6849
      @flower-ezz6849 10 днів тому

      норм у тебя аватарка

    • @rublevlive
      @rublevlive 10 днів тому

      @ как же ты чувствуешь) 👍🏻

    • @dolotube
      @dolotube 4 дні тому

      Для обучения нужно или глубоко копать тему, или городит костыли с RAG, или просто подождать, пока архитектуру сменят. Нынешние LLM заточены под выдачу ответа, обучаются они со скрипом.

  • @100tng
    @100tng 9 днів тому

    Как можно его обучить что бы он давал ответы исходя из моих данных?

  • @XelpedTpc
    @XelpedTpc 16 днів тому +1

    Можно скачать не на диск с?
    У меня он и так забит программами, я как могу его чищу, переношу все на диск д, а в инсталляторе все идет на с

    • @Direcode
      @Direcode  16 днів тому +3

      да, установить через Power shell, команда:
      .\ollamasetup.exe /DIR="d:/ollama"

    • @XelpedTpc
      @XelpedTpc 16 днів тому +1

      @@Direcode
      Спасибо большое! ***Обнял:3***
      Кстати спасибо за гайд, давно хотел сделать подобное, но не знал как

    • @hottab.clubber
      @hottab.clubber 12 днів тому +1

      Загугли про символические ссылки и жёсткие ссылки в файловой системе windows.
      Можно всё кроме ядра системы перенести на любой диск, но программы будут думать что они на с: диске.

  • @coresadist
    @coresadist 4 дні тому

    А есть возможность закинуть это на сервер и уже пользоваться со своего пк/телефона?

  • @ky61k95
    @ky61k95 9 днів тому

    Соединение было сброшено. В чем причина ?

  • @samurailucky9257
    @samurailucky9257 8 днів тому

    как открыть файл

  • @avepixima
    @avepixima 9 днів тому

    Интересно, а можно сделать бота на подобии Character AI используя Ollama?

  • @Zakatich_tv
    @Zakatich_tv 12 днів тому

    Привет) Спасибо за такое чудо!) Подскажи пожалуйста, что за анимированный рабочий стол картинка? 🙂

    • @PIVKOooo
      @PIVKOooo 12 днів тому

      Скорее всего Wallpaper Engine

    • @Direcode
      @Direcode  12 днів тому

      Привет! Neon Waterfall - Vaporwave, в Wallpaper Engine

  • @keyskovsky
    @keyskovsky 14 днів тому +1

    По Апи потом его к боту можно подключить? И можно его на сервак установить?

    • @celestinertia
      @celestinertia 14 днів тому

      Тоже интересно

    • @cmaul
      @cmaul 12 днів тому

      можно, надо на github поискать или мб для open web ui плагин есть на тг ботов

    • @SashaKuzikov
      @SashaKuzikov 12 днів тому

      @@keyskovsky Можно. Но зачем? Вроде, если поискать, то можно бесплатно к готовым и более мощным серверам подключиться.

  • @RezchikovOleg
    @RezchikovOleg 16 днів тому +1

    Пишет Сайт localhost не отправил данные. Что делать? куда копать?

    • @v4yve
      @v4yve 16 днів тому +1

      Перезапустить докер

  • @sanbait
    @sanbait 4 дні тому

    И зачем она?

  • @servera-center
    @servera-center 3 дні тому

    на linux можно поставить?

  • @youtubestingg5490
    @youtubestingg5490 10 днів тому

    Ребята, подскажите, как всё удалить? Из-за неё не работают эмуляторы.

    • @Direcode
      @Direcode  10 днів тому

      привет! в закрепленном комментарии команда висит)
      🗑 Чтобы удалить LLama:
      1. Завершаем диалог, через команду /bye
      2. Пишем ollama rm llama3.1:8b - и жмем enter
      3. Если у вас модель 70b, то пишем ollama rm llama3.1:70b

  • @BH_rec
    @BH_rec 9 днів тому

    Друг, терминал не выходит. Переустановил и нет никакого терминала. Где его искать?

    • @Direcode
      @Direcode  9 днів тому

      найди в поиске на пк "Командная строка" или Windows Power Shell

  • @Yallaxman
    @Yallaxman 17 днів тому +2

    А можно так же развернуть claude?

    • @Direcode
      @Direcode  17 днів тому

      гугл говорит что да, сам не пробовал

    • @Yallaxman
      @Yallaxman 17 днів тому

      @ как вариант для следующего видео)

  • @GamePlay_452
    @GamePlay_452 14 днів тому

    Конкретно эта модель на видео по мощности примерно как какая версия чата гпт? И можно ли отправлять в этот чат файлы?

    • @madvlad4568
      @madvlad4568 12 днів тому

      Если верить оф данным, то версии 3.5

    • @SashaKuzikov
      @SashaKuzikov 12 днів тому

      @@GamePlay_452 Если речь идет о 8B, то ChatGPT 3.5 или немного лучше. А разные 16B, 20B или 32B - существенно лучше. Но медленнее.

    • @GamePlay_452
      @GamePlay_452 12 днів тому

      @SashaKuzikov я в курсе

  • @inochi8543
    @inochi8543 8 днів тому

    генерировать изображения здесь получится?

    • @neromaks6064
      @neromaks6064 7 днів тому

      нет , это текстовая модель

  • @Mostodont2009
    @Mostodont2009 16 днів тому

    А нсли есть интернет, то эта лама подключается сама ?

  • @DARQ-x9q
    @DARQ-x9q 9 днів тому

    Здравствуйте! Сделайте пожалуйста видео как сделать программу которая брутит 12 значную сид фразу от кошельков (по типу word word word word word word word word word word word word) и выводит их балансы)

  • @absolutettt
    @absolutettt 16 днів тому +1

    Привет, сними LM Studio если не сложно.

    • @MrDimaaaaa90
      @MrDimaaaaa90 16 днів тому +1

      Он проще настраивается без танцев и бубна😮

  • @maasby
    @maasby 9 днів тому +3

    а есть вообще lm studio - туда можно подгружать любые модели в том числе ламу. и вообще без консоли

  • @user-ix8dv7sj8i
    @user-ix8dv7sj8i 16 днів тому

    она картинки не распознает(

  • @ГеннадийСармалаев-л6и

    Спасибо автору видео! Приму на вооружение

  • @aijedi45
    @aijedi45 16 днів тому +5

    Есть же LM Studio, меньше запариваться и функционал шире

    • @LanyRadar
      @LanyRadar 11 днів тому

      Ну так видео не об этом) Еще есть Gemini- открыл в браузере даже делать ничего не нужно)))
      Только вопрос, что умнее для разработчика?

    • @aijedi45
      @aijedi45 11 днів тому

      @@LanyRadar Ну я сижу с deepseek r1 в браузере)
      Хотя сам в мл уже 8 лет, все эти локалки баловство, если не ставить 8x h100 по 4 ляма каждая

    • @neromaks6064
      @neromaks6064 6 днів тому +2

      @@aijedi45 можешь объяснить почему баловство и вот эту фразу "если не ставить 8x h100 по 4 ляма каждая"

    • @aijedi45
      @aijedi45 6 днів тому

      @@neromaks6064 Дело в количестве параметров: 7B, 14B, 32B. Чем их больше, тем "умнее" модель, без учета процесса обучения и архитектуры.
      Если использовать видеокарту для инференса, что сильно ускоряет ответы llm, то среднестатистическая карта может вместить модели типа LLaMA-7B. Если же есть деньги на обогреватель из шестнадцати видеокарт H100 каждая по 80гб, то можно впихнуть LLaMA-405B или LLaMA-405B(FP8) для этого потребуется 8 видеокарт.
      Для понимания силы моделей можно глянуть на Chatbot Arena:
      ClosedAI ChatGPT будет на первом месте
      LLaMA-405B - 10-15 место
      LLaMA-7B - 50-80 место
      Но мест всего 160 и она обходит лишь половину конкурентов
      Поэтому локалка норм разве что если в самолете летишь без инета, автоматизировать какие то простые рутинные задачи или не знаю исповедоваться искусственном интеллекту и боишься слежки)
      Мой выбор deepseek-v3 в браузере у модели есть доступ в интернет, быстрые ответы, решает сложные задачи порой сам не верю что вывезет ответ, на крайняк можно включить deepthink и модель будет критически размышлять прежде чем дать ответ

    • @aijedi45
      @aijedi45 6 днів тому

      @@neromaks6064 Дело в количестве параметров: 7B, 14B, 32B. Чем их больше, тем "умнее" модель, без учета процесса обучения и архитектуры.
      Если использовать видеокарту для инференса, что сильно ускоряет ответы llm, то среднестатистическая карта может вместить модели типа LLaMA-7B. Если же есть деньги на обогреватель из шестнадцати видеокарт H100 каждая по 80гб, то можно впихнуть LLaMA-405B или LLaMA-405B(FP8) для этого потребуется 8 видеокарт.
      Для понимания силы моделей можно глянуть на Chatbot Arena:
      ClosedAI ChatGPT будет на первом месте
      LLaMA-405B - 10-15 место
      LLaMA-7B - 50-80 место
      Но мест всего 160 и она обходит лишь половину конкурентов
      Вообще такие модели как 7b не обучают. Изначально обучают самую огромную модель из серии а уже из нее с помощи метода дистилляции знаний выводя уменьшенные версии.
      Как итог все что можно запустить на компе это сильно урезанные, и упрощенные версии более мощных решений. А модели state of the art уровня требуют не то что много миллионных сборок железа а gpu кластеры размером с комнату с теми же H100.
      Поэтому локалка норм разве что если в самолете летишь без инета, автоматизировать какие то простые рутинные задачи или не знаю исповедоваться искусственном интеллекту и боишься слежки)

  • @SOleggg
    @SOleggg 16 днів тому

    как открыть окно с терминалом после установки, у меня не получается..((

    • @Direcode
      @Direcode  16 днів тому +1

      открыть пуск и в поиск написать cmd или "Командная строка". Так же можно использовать Windows Power Shell

  • @flzyyyy
    @flzyyyy 16 днів тому

    А можно скачать модель на другой диск каким то образом?

    • @Direcode
      @Direcode  16 днів тому

      да, установить через Power shell, команда:
      .\ollamasetup.exe /DIR="d:/ollama"

    • @flzyyyy
      @flzyyyy 16 днів тому

      @Direcode хорошо, спасибо!

    • @hottab.clubber
      @hottab.clubber 12 днів тому

      Загугли про символические ссылки и жёсткие ссылки в файловой системе windows.
      Можно всё кроме ядра системы перенести на любой диск, но программы будут думать что они на с: диске.

  • @Fuzidol_666
    @Fuzidol_666 13 днів тому

    Можно конкретнее _ какой проц рекомендуется ? Сколько оперативы

    • @Direcode
      @Direcode  13 днів тому +2

      у меня i5 13400f, 4060ti и 32 гб оперативы

  • @c1vvic
    @c1vvic 16 днів тому

    есть ли возможность дома на компьютере развернуть нейросеть и через тг задавать ей вопросы?

    • @SashaKuzikov
      @SashaKuzikov 12 днів тому

      @@c1vvic Можно. Но потребуется ещё Web-сервер.

  • @tosick4
    @tosick4 16 днів тому +3

    Не пойму где происходит связка иламы с web ui?

    • @v4yve
      @v4yve 16 днів тому

      Посредством API ollam-ы. В Docker идёт проброс данных с локального компа, в результате чего оболочка Webui получает доступ к модели ollama

    • @tosick4
      @tosick4 16 днів тому

      @v4yve а где настройка webui на модель ollama?

    • @v4yve
      @v4yve 15 днів тому

      @@tosick4 в панели администратора

  • @zagumenn0v
    @zagumenn0v 10 днів тому

    а откуда он данные берет? в него уже загружены?

  • @Fr1styy-rn8my
    @Fr1styy-rn8my 2 дні тому

    👍

  • @no_name5401
    @no_name5401 15 днів тому

    Заметил что после установки Openwebui внутри оболочки нейросеть работает куда хуже, чем в режиме командной строки

    • @SashaKuzikov
      @SashaKuzikov 12 днів тому

      @@no_name5401 Если комп на Windows, то ничего удивительного. Docker вроде виртуалку запускает.

  • @BozuGames
    @BozuGames 13 днів тому

    запоминает чего сам раньше писал или каждые пару часов все по новой надо ему объяснять?

    • @SashaKuzikov
      @SashaKuzikov 12 днів тому

      @@BozuGames Зависит от модели. Но контекст, как правило, небольшой. Зависит не от времени, а от объема.

  • @RutM78
    @RutM78 13 днів тому

    M1 pro, 16 гб ОЗУ. Через терминал очень быстрый👍

  • @ll2395
    @ll2395 16 днів тому

    Что эта нейросеть умеет и что за базы данных использует? Откуда берет информацию, если не подключена к интернету?

    • @EliyarCuruxa
      @EliyarCuruxa 16 днів тому +3

      Какую модель поставишь, то уметь и будет. Есть модели для программирования, создания историй и миров, помощи в бытовых вопросах, готовке или для всего и сразу.
      Однако всё же модели заточенные под что-то одно, понятное дело лучше. А умения её напрямую зависят от вашего пк.

    • @BozuGames
      @BozuGames 13 днів тому

      @@EliyarCuruxa код пишет нормально? с большим кодом в 1000 строк и больше справляется?

    • @EliyarCuruxa
      @EliyarCuruxa 13 днів тому +1

      @@BozuGames Это буквально зависит от модели, и мощности пк.

  • @irvicon
    @irvicon 15 днів тому +3

    Если нет мощной игровой видеокарты Nvidia с 12-24Gb на борту / даже не пытайтесь повторить эксперимент / будете сильно разочарованы скоростью ответа вашего локального ИИ

    • @Direcode
      @Direcode  14 днів тому +1

      у меня i5 13400f и 4060ti, не сказал бы что мощное железо, скорее среднее уже)

    • @JhonPhatterson
      @JhonPhatterson 14 днів тому

      Это если генеративная ИИ, тогда да.
      А ии чат помощник не жрет так сильно как какой нибудь StableDiffusion или FLUX. Там уже порог входа заявлен RTX4070 да, у Apple сильно ниже требования за счет наличия нейронного движка из коробки, даже М1 запустит все отлично, единственное требование 16гб объединенной памяти.

    • @BozuGames
      @BozuGames 13 днів тому

      @@JhonPhatterson на imac m4 с 16 гб оперативы потянет что нибудь?

    • @JhonPhatterson
      @JhonPhatterson 13 днів тому

      @@BozuGames потянет больше половины библиотеки LM Stiudio и Jan что касается чат-помощников. А еще отлично потянет StableDiffusion и все что доступно в лаунчере генеративных ии DiffusionBee.

    • @JhonPhatterson
      @JhonPhatterson 13 днів тому

      @@BozuGames качай LM studio или Jan, это что касается чат помощников. Там больше половины библиотеки доступно будет точно.
      А что касается генеративных ИИ то специально для маков есть DiffusionBee, в него можно добавлять совместимые языковые модели или обучать самому.
      Из коробки там идет StableDiffusion и FLUX.

  • @axivan
    @axivan 16 днів тому

    Спасибо! Есть ли сборки для macos apple silicon? Слышали что-то?

  • @BozuGames
    @BozuGames 13 днів тому

    мдаа компании производящие процессоры уже гдето в космосе по доходам и менеджеры богаче президентов

  • @WB_OZON_YANDEX_BOX
    @WB_OZON_YANDEX_BOX 17 днів тому

    Что у тебя по характеристикам компа процессор?

  • @Jumper1221
    @Jumper1221 16 днів тому

    Сильно ли отличается качество ответов на 8b и 70b?

    • @rityakhayt
      @rityakhayt 16 днів тому

      Сильно, но модель 70 и выше для серверов, даже 4090 нормально не потянет ее, слишком много видео памяти кушает. Но и они по качестве уже приближаются в gpt 4.

  • @ЮрийПлаксин-з9ш
    @ЮрийПлаксин-з9ш 3 дні тому

    на Copilot похож🤔

  • @sib3546
    @sib3546 12 днів тому

    Было бы неплохо рассказать как менять модели и удалять все это дело.

    • @Direcode
      @Direcode  12 днів тому

      привет! спасибо, учту, про удаление в закрепленном комментарии написал

    • @sib3546
      @sib3546 12 днів тому

      @@Direcode как с командной без докера запустить? Докер кстати WSL просит, хотя давно все на WSL2 перешли

    • @SashaKuzikov
      @SashaKuzikov 12 днів тому

      @@sib3546 странно. Под Windows Docker свою виртуалку вроде делает.

  • @Fuzidol_666
    @Fuzidol_666 13 днів тому

    Сколько она жрет ? Там наверное надо гигов 300 видеопамяти ?

    • @qq-ic1zg
      @qq-ic1zg 13 днів тому

      300 гигов видеопамяти, услышал тебя родной

  • @dr.gadget9474
    @dr.gadget9474 5 днів тому

    Llama на каком уровне интеллекта? Если как чат gpt, то не особо интересно. До Claude дотягивает?)))

  • @TheMmilliard
    @TheMmilliard 17 днів тому

    Я сделал с помощью miniConda и использовал модели из GROQ

  • @alexnuts2820
    @alexnuts2820 9 днів тому

    умеет нейронка клипы создавать? нафиг эти тексты и картинки... если загрузить в неё себя, как я пою и играю на гитаре, она может сделать крутой клип в моём исполнении?))) кавера и писать за меня песни, аранжировку делать и тд..?

  • @UkSarmat
    @UkSarmat 8 днів тому

    ОПЕРАТИВКА😂😂😂

  • @alhimik28
    @alhimik28 9 днів тому

    Так можно голосом говорить с ней???

    • @ticcame
      @ticcame 7 днів тому

      я бы хотел найти нейронку которая, помогает тебе если сказал ей голосом и она сама по компьютеру управляет и делает! как узнаете про эту бесплатную нейронку ответье на этот комментарий!.

  • @ValeGoG
    @ValeGoG 11 днів тому

    10/10

  • @fulgurobscurus15
    @fulgurobscurus15 4 дні тому

    1. Подключения к интернету нет. А в моделях не актуальная информация.
    2. Мощность ПК не вытянет адекватную по полезности модель.
    3. Бесплатные модели как правило не заточены под адекватное написание кода.
    Вывод: Актуальную информацию не найдёт и код не напишет. Бесполезная срань.

  • @fister8797
    @fister8797 15 днів тому

    гпт 4о лучше, не устанавливайте

    • @BozuGames
      @BozuGames 13 днів тому

      за 20 баксов в месяц норм

    • @hottab.clubber
      @hottab.clubber 12 днів тому

      DeepSeek v3 на сайте бесплатно онлайн без впн умнее быстрее и внимательней !

    • @SashaKuzikov
      @SashaKuzikov 12 днів тому

      @@BozuGames Есть достаточно и бесплатного. Mistral, DeepSeek, Merlin...

  • @sergeysamoylenko5110
    @sergeysamoylenko5110 16 днів тому

    Крайнист...

  • @hacksha333
    @hacksha333 15 днів тому

    А можно с Python связать?