Локальное развертывание нейросетевых моделей на своем ноутбуке без видеокарты. Нейросреда 6.11

Поділитися
Вставка
  • Опубліковано 15 лис 2024

КОМЕНТАРІ • 12

  • @technicusacity
    @technicusacity 2 дні тому

    С графикой все давно уже локально работают и свои лорки делают. Технология крайне сложная и мало кто что в ней реально понимает. Но как ни старно массовая, тот же цивит аи забит разными проектами кажный деть сотни новых постят. Про хаггинфэйс и речи нет - там тысячи в день, общее число далеко за миллион перевалило. Локалка ессно куда быстрее работет чем облако если приличный ускорителью и ллм в него помещается. Если конечно не арендовать мощный гпу типа A100 или ч100 за сто тыщ. имперских тугриков в месяц Чт до цпу то легкие текстовые прунед модельки с fp4 квантизацией и даже мультимодальная ламка шустро крутятся, но 14900hx или AI9 на ноуте не помещают, да и стоят они совсем недорого по сравнению с 4090 =)

    • @Neural_Magic
      @Neural_Magic  День тому

      по сравнению с 4090 или н100 все недорого стоит

  • @nichtverstehen2045
    @nichtverstehen2045 2 дні тому

    че там осваивать-то? все разжевано для "мамкинава хакира".
    и на... зачем тебе эти тормоза? ничего полезного на этом не сделать. "тупые" модели были обучены на данных 3-4 летней давности. на своем "планшете" ты ничего, кроме как "мамку удивить", ты не сможешь.

    • @Ex.Continental
      @Ex.Continental 2 дні тому

      РОТ ЗАКРОЙ МАМКИН ЛОХ И СТУКАЧ

    • @technicusacity
      @technicusacity 2 дні тому

      озможность кастомизации модели под специфические задачи путем дообучения на собственных данных.

    • @nichtverstehen2045
      @nichtverstehen2045 День тому

      @@technicusacity тебе жизни не хватит, чтобы дождаться окончания этого процесса на твоем планшете. если только под "своими данными" ты не подразумеваешь "свое резюме". ты правда думаешь, что все модели просто так обучены на древних данных???

    • @technicusacity
      @technicusacity День тому

      @@nichtverstehen2045Не знаю как у вас. А мой меня хуавей с 12700H норм с локальной ламой работает, хоть и не бешенно конечно. В планшетах у эппла проц конечно куда мощнее тот же м4 ан уровне 13900H Это ессно без учета N ядер и ускорителей Вобщем уже amd AI pro вполне может сам с ms копайлот работать Вы из какого века то?

    • @nichtverstehen2045
      @nichtverstehen2045 День тому

      @@technicusacity что вы подразумеваете под "работает"?
      вопросики натренированной модели задавать - еще куда ни шло. да и то бесплатные сервисы куда шустрее, чем то, что на твоем планшете крутиться.
      а вот тренировать на не "игрушечном" обьеме данных, о чем, собственно, и спор, не получится.
      а так, конечно, играйте в своей песочнице. только не надо смешить "нейросредами".