С графикой все давно уже локально работают и свои лорки делают. Технология крайне сложная и мало кто что в ней реально понимает. Но как ни старно массовая, тот же цивит аи забит разными проектами кажный деть сотни новых постят. Про хаггинфэйс и речи нет - там тысячи в день, общее число далеко за миллион перевалило. Локалка ессно куда быстрее работет чем облако если приличный ускорителью и ллм в него помещается. Если конечно не арендовать мощный гпу типа A100 или ч100 за сто тыщ. имперских тугриков в месяц Чт до цпу то легкие текстовые прунед модельки с fp4 квантизацией и даже мультимодальная ламка шустро крутятся, но 14900hx или AI9 на ноуте не помещают, да и стоят они совсем недорого по сравнению с 4090 =)
че там осваивать-то? все разжевано для "мамкинава хакира". и на... зачем тебе эти тормоза? ничего полезного на этом не сделать. "тупые" модели были обучены на данных 3-4 летней давности. на своем "планшете" ты ничего, кроме как "мамку удивить", ты не сможешь.
@@technicusacity тебе жизни не хватит, чтобы дождаться окончания этого процесса на твоем планшете. если только под "своими данными" ты не подразумеваешь "свое резюме". ты правда думаешь, что все модели просто так обучены на древних данных???
@@nichtverstehen2045Не знаю как у вас. А мой меня хуавей с 12700H норм с локальной ламой работает, хоть и не бешенно конечно. В планшетах у эппла проц конечно куда мощнее тот же м4 ан уровне 13900H Это ессно без учета N ядер и ускорителей Вобщем уже amd AI pro вполне может сам с ms копайлот работать Вы из какого века то?
@@technicusacity что вы подразумеваете под "работает"? вопросики натренированной модели задавать - еще куда ни шло. да и то бесплатные сервисы куда шустрее, чем то, что на твоем планшете крутиться. а вот тренировать на не "игрушечном" обьеме данных, о чем, собственно, и спор, не получится. а так, конечно, играйте в своей песочнице. только не надо смешить "нейросредами".
С графикой все давно уже локально работают и свои лорки делают. Технология крайне сложная и мало кто что в ней реально понимает. Но как ни старно массовая, тот же цивит аи забит разными проектами кажный деть сотни новых постят. Про хаггинфэйс и речи нет - там тысячи в день, общее число далеко за миллион перевалило. Локалка ессно куда быстрее работет чем облако если приличный ускорителью и ллм в него помещается. Если конечно не арендовать мощный гпу типа A100 или ч100 за сто тыщ. имперских тугриков в месяц Чт до цпу то легкие текстовые прунед модельки с fp4 квантизацией и даже мультимодальная ламка шустро крутятся, но 14900hx или AI9 на ноуте не помещают, да и стоят они совсем недорого по сравнению с 4090 =)
по сравнению с 4090 или н100 все недорого стоит
че там осваивать-то? все разжевано для "мамкинава хакира".
и на... зачем тебе эти тормоза? ничего полезного на этом не сделать. "тупые" модели были обучены на данных 3-4 летней давности. на своем "планшете" ты ничего, кроме как "мамку удивить", ты не сможешь.
РОТ ЗАКРОЙ МАМКИН ЛОХ И СТУКАЧ
озможность кастомизации модели под специфические задачи путем дообучения на собственных данных.
@@technicusacity тебе жизни не хватит, чтобы дождаться окончания этого процесса на твоем планшете. если только под "своими данными" ты не подразумеваешь "свое резюме". ты правда думаешь, что все модели просто так обучены на древних данных???
@@nichtverstehen2045Не знаю как у вас. А мой меня хуавей с 12700H норм с локальной ламой работает, хоть и не бешенно конечно. В планшетах у эппла проц конечно куда мощнее тот же м4 ан уровне 13900H Это ессно без учета N ядер и ускорителей Вобщем уже amd AI pro вполне может сам с ms копайлот работать Вы из какого века то?
@@technicusacity что вы подразумеваете под "работает"?
вопросики натренированной модели задавать - еще куда ни шло. да и то бесплатные сервисы куда шустрее, чем то, что на твоем планшете крутиться.
а вот тренировать на не "игрушечном" обьеме данных, о чем, собственно, и спор, не получится.
а так, конечно, играйте в своей песочнице. только не надо смешить "нейросредами".