интересно, мощьно, долго правда ставится, настраивается, смотрел я у вас предыдущие пару роликов...там всё попроще было, - поигрался удалил...будет время, попробую эту модель, но для неё реально нужно время и желание поставить
5:42 Дополнение (для тех кто использует NVIDIA Карты): размер Файла (GB) не должен превышать размер Видеопамяти (VRAM) Вся Модель грузиться в Видеопамять = бысстрая обработка.
Отлично!. Если не сложно можете проконсультировать по вопросу: база данных из различных текстовых заметок, объём базы до 10 млн символов , чтобы потом в ней искать ответ, а запрос будет писаться обычными словами и для оптимального поиска и ответа нужно использовать ИИ. Как лучше все организовать для локального использования без интернета.
Спасибо за видео. МОжешь подробнее рассказать как работать с документами, чтобы их чтение было полноценным. Особенно интересует работа с файлами в которых есть код. И например я хочу сделать какую то копию плагина к примеру для кмс, как мне заставить нейронку в мультимодальном режиме выполнить это ? Как заставить брать документы (если их много) одним за одним и анализировать, выдавая ответ в конце с возможным результатом, а возможно готовым файлом ? Это было бы мега интересно. Общие обзоры тоже круто, но конкретные примеры будет топ контентом !
@@ТарзанМакакович Если иконка в трее висит - отлично. Теперь переходим в папку виндоуз - пользователи. Находим папку ".ollama", наводим курсор и зажимая клавишу шифт, кликаем правой кнопкой мыши. В открывшемся списке действий выбираем "Окрыть окно ПаурШел здесь" - открываем. Появляется командная строка (экран) общения с нейросетью. Пишем, общаемся. Спрашиваешь, через какой вебинтерфейс с тобой (нейронка) можно лучше общаться. Она выдает список. Ну и далее, сам разберешься... Хотя и в ПауэрШел уже идет работа...
Спасибо! Хотелось бы видео: с реализацией лайков, чтобы собирать датасет, а также переаод интерфейса на русский. Также хотелось бы подробнее про РАГ, который здесь реализован. Установка и тест SD.
да, постепенно освоим. По интерфейсу меня, если честно, всегда удивляет, что сложного пользоватся набором десятка стандартных интерфейсных терминов на английском. Они же везде, и постоянно повторяются, каждый раз считать это проблемой?
Вопрос как и всегда один и тот же, как дообучить модель для каких-то своих целей? Может есть какие-то туторы или готовые проги? За видео однозначно лайк!
Жаль в гуи нельзя выбрать место, пришлось переносить из пользовательского каталога на нужный ресурс и делать жесткую ссылку, а так забивает диск С. По видео нормально все, недавно подписан - очень нравяться обзоры. Вот бы еще в ha запихать и научить разговаривать, с обучением на хозяина :-) Спасибо Вам!!!
инфа в любом случае полезная, за этим будущее. спасибо! есть у кого опыт подключить генератор картинок локальный сюда? поделитесь какую брали для генерации картинок. спасибо!
Хороший ролик, спасибо! По возможности по-короче бы, минут на 10-15. Ролик про интерфейс, но много времени на примеры самих моделей. Глупый вопрос, этот интерфейс работает без интернета (если модели через него не качать, а работать со скаченными)? И хотелось бы отдельно ролик по сравнению разных моделей в разных задачах. Баловался с дельфином Q8/фи2/нексусревен/мистрали разные... как по мне, все они не то что до бесплатного gpt3.5, даже до гигачата не дотягивают ((
Есть ли хоть какой-то практический смысл у этой системы? Вот я админ большой конторы, у меня есть определённые серверные мощности, где я могу применить эту байду? Она может быть секретарем на Астериске, или CRM-системой, или сможет перегрузить заглючивший маршрутизатор? Может она может искать по камерам воришек?
И за пивом бегать не умеет, и корабли космические построить не может чтоб собрать всех таких как вы и вывести с планеты, ну все гнилой продукт расходимся.... Я вижу ваши слова как-то так.... Если под ваши хотелки она пока что не подходит то что теперь все нужно хоронить проект? ведь прогресс он имеет зарождение развитие и т.д. у вас сразу хочу и точка да?
скрипт напишет веб версии. Правильный вопрос Выше. когда закрыт контур как можно это применить для офиса, секретарь, помощник для работников по какой то локальной базе вопрос-ответ (можно ли скормить оф доки компании не боясь что уйдет куда то) и тд, но я думаю это не к автору видео вопрос уже@@codedd3280
Что за вопрос? Немного не понял. Для быстрой работы модель должна помещаться в VRAM. Например, Mistral 7B занимает 4 ГБ, для любого домашнего ПК будет нормой. Если модель больше, скажем, 20 ГБ, и не влезает в VRAM, данные пойдут в оперативку, из-за чего упадёт скорость. RAM помогает только при больших данных или если мало видеопамяти. Кароче, для нормальной работы нужен актуальный ПК. Ибо компику будет тяжко обрабатывать что-то в других прогах, особенно с тяжёлыми запросами. Я сам пробовал на своей сборке, не слабой, но всё равно локальные AI сильно грузят систему, вызывая сбои в других программах, где мне нужна оперативка и видюха. Так что лучше запускать на сервере с норм железом, как у автора. А так, все эти текстовые модели, просто игрушка. Пока что.
Спасибо за интересный контент. Хотелось бы попросить вас сделать отдельный гайд под винду. Попробовал, не получилось. Веб интерфейс так и не удалось запустить...
скачивал даже недавно обновленные модели но в них данные минимум годовалой давности. а нужные мне данные вышли в конце прошлого года. как узнать примерное время накомления данных их актуальность?
все делал как на видео и уперся в то что не могу не выбрать не добавить модель, автор это скрыл, и как то быстро пропустил, агументируя что у него все настроено на своем сервере, а если только 1 компьютер как быть? как добавить модель? где ее брать? мне пишет Упс! Возникла проблема подключения к Llama3 (AI Tutor). Unexpected token 'I', "Internal S"... is not valid JSON
День добрый. Как можно с вами связаться по почте или ещё как. Не смог погрузить образ по не понятным причинам пишет не могу загрузить. Это происходит после загрузки образа в шеле. На этапе когда образ нужно уже загрузить на сам сервер.
Всё делаю согласно инструкции описанной в тг. Но увы смотрю логи и там пишет error loading model c: и путь к образу. И в логах ещё пишет failed to load dynamic library c: temp CPU_avx2 . Хотя процессор свежий и должен поддерживать данные инструкции. Прошу помощи! Почитал на сайте у многих такие проблемы возможно вы мне локально сможете подсказать где я туплю. Уже голову сломал.
У меня выдало такую ошибку, не подскажите кто-нибудь как пофиксить. PS C:\Users\User\Desktop\ollama-ui\open-webui\backend> pip install -r requirements.txt -U pip : Имя "pip" не распознано как имя командлета, функции, файла сценария или выполняемой программы. Проверьте правильн ость написания имени, а также наличие и правильность пути, после чего повторите попытку. строка:1 знак:1 + pip install -r requirements.txt -U + ~~~ + CategoryInfo : ObjectNotFound: (pip:String) [], CommandNotFoundException + FullyQualifiedErrorId : CommandNotFoundException
@@codedd3280 Попробовала вчера, хороший чат. Понравился. Но, к сожалению, проработал всего пол дня. После перезагрузки компьютера перестал запускаться из-за проблемы с 8080 портом. Устанавливала не через докер. Найти решения не удалось, потому что их много , а позволить себе убить пару дней на поиск не могу. В их дискорде спросила совета, но там все тихо. Попытался помочь один человек, но он плохо знает винду. Я так поняла что и разработчики так же. Так что проект интересный , но как всегда для людей которые неплохо разбираются в программировании и кого есть время возиться с этим самостоятельно исправляя ошибки. Так что поползла в LM студию )
могут быть проблемы, если запускаете скрипт повторно если он уже работает, так как он пытается открыть интефейс на том же порту, который уже используется. Попробуйте запустить '"start_windows.bat'. Как вариант переустановить, но использовать окружение conda - это поможет исключить ошибки связанные с python. Идеально конечно через докер, но докер под виндовс, это та еще история)
Если иконка в трее висит - отлично. Теперь переходим в папку виндоуз - пользователи. Находим папку ".ollama", наводим курсор и зажимая клавишу шифт, кликаем правой кнопкой мыши. В открывшемся списке действий выбираем "Окрыть окно ПаурШел здесь" - открываем. Появляется командная строка (экран) общения с нейросетью. Пишем, общаемся. Спрашиваешь, через какой вебинтерфейс с тобой (нейронка) можно лучше общаться. Она выдает список. Ну и далее, сам разберешься... Хотя и в ПауэрШел уже идет работа...
@@s_a_m_s_o_n_n_n Если иконка в трее висит - отлично. Теперь переходим в папку виндоуз - пользователи. Находим папку ".ollama", наводим курсор и зажимая клавишу шифт, кликаем правой кнопкой мыши. В открывшемся списке действий выбираем "Окрыть окно ПаурШел здесь" - открываем. Появляется командная строка (экран) общения с нейросетью. Пишем, общаемся. Спрашиваешь, через какой вебинтерфейс с тобой (нейронка) можно лучше общаться. Она выдает список. Ну и далее, сам разберешься... Хотя и в ПауэрШел уже идет работа...
Если иконка в трее висит - отлично. Теперь переходим в папку виндоуз - пользователи. Находим папку ".ollama", наводим курсор и зажимая клавишу шифт, кликаем правой кнопкой мыши. В открывшемся списке действий выбираем "Окрыть окно ПаурШел здесь" - открываем. Появляется командная строка (экран) общения с нейросетью. Пишем, общаемся. Спрашиваешь, через какой вебинтерфейс с тобой (нейронка) можно лучше общаться. Она выдает список. Ну и далее, сам разберешься... Хотя и в ПауэрШел уже идет работа...
Сначала идёт длительное описание интерфейса. Зачем мне смотреть описание неизвестно чего? Только потом показано что это вообще такое и как работает. Логично же всё это местами поменять и сначала представить предмет видео? Я видел другие видео с канала, а если бы не видел - выключил бы это видео с настройками какой то непонятной ерунды.
@@codedd3280Есть ключевой момент у всех видео, когда человек решает стоит ли предмет просмотра. Человека можно понять, он не может посмотреть весь Ютуб. У вас этот момент сдвинут далеко от начала. Вы его не видите, потому что для вас этот вопрос решён и вы знаете, что описываемая вещь стоит и просмотра, и того, чтобы снять о ней видео. А раз вы его не видите, то вам стоит обращать внимание на сообщения от тех, кто видит. Это называется обратная связь и ею пользуются многие блогеры. Про необходимый минимум, это да, это вы хорошо пошутили. Я уже представил себя аи, покупающим пельмени с необходимым минимумом начинки. Надо, наверное, добавить, что у вас хорошие видео, были бы плохие - ничего бы писать не стал.
Сплошная лажа и пустая болтовня. Для опытных в этом деле. Новичок по этой "инструкции" не сможет ни установить ни запустить систему, особенно из виндюзеров. Плясать надо исходя из ресурсов наличного железа и скорости интернета. В ай-ти чудес не бывает.
Какому новичку нужна локальная AI ? Те кто за пк первый раз сел вообще не будут этим интересоваться. И тебя вообще не смутило с каких слов автор начал видео? И прости нас, великий, "опытный", умнейший, за то что в твоей вселенной где в гайде для "Новичков", на обучающем канале, должна быть полезная информация для тебя.
@mistakiii Ваш фейерверк эмоций не впечатляет. 1) Для кого этот "гайд"? Для тех, у кого уже установлен "локальный AI"? Для изолированной корпоративной сети? Или для домашнего игрового ПК? 2) Для того, чтобы скачать несколько десятков Гб из Интернета нужен скоростной канал связи. 3) Дпя функционирования "локальной" системы AI надо иметь "нехилый" хард ресурс: CPU, видеокарту, быстрые HD. 4) Ежели Вы работаете под Windows 10, 11 и устанавливаете что-либо из интернета, то ничего "локального" у Вас не получится.
@@KraterStromboli Если нет идей для каких целей и при каких обстоятельствах её использовать, то чьи это проблемы? В таком случае, будет логичным, что это просто игрушка. Но и тут можно вернуться на 00:00 и понять, что у автора был ряд предшествующих роликов на тему ИИ. На почве которых можно найти применение для кого-то или чего-то. О каких десятках ГБ идёт речь, я так и не понял. Все текстовые модели для домашнего пользования не будут превышать 15 гб. На данный момент, даже 3-7гб. Отлично заменяя, например, интернет запросы, давая развернутые ответы, особенно на английском. Актуальные ИИ оптимизированы под любое доступное железо. Если объем модели помещается в VRAM - диски будут минимально задействованы. Если не помещается - модель загрузиться в RAM, что так же минимизирует использование диска. При наличии хотя бы 4 гб VRAM и соответствующей этому объему модели ИИ, CPU будет задействован не более чем на 40%. Всю нагрузку берет на себя VRAM и ядро карты. Последнее мне не понятно. Если это вопрос анонимности, то вполне реально вертеть системой как удобно и ограничивать сетевую активность других приложений/служб.
@mistakiii Предлагаю уточнить значения слов. "... интернет запросы" это просто вопросы. "Запросы" - это к базе данных. Касательно объëма памяти. Основной объëм занимает векторная база данных в составе ИИ. От этого зависит "эрудиция" конкретной модели ИИ. Если это локальная "игрушка" на малобюджетном домашнем ПК, то она не может выдавать толковые ответы подобно Gemini, которая уже установлена на любом смартфоне, имеющем гугл экаунт. Сервис Gemini имеет доступ к гугл поиску, что существенно усиливает её возможности учитывать актуальные данные. Любая локальная модель ИИ, как-бы её не рекламировали ограничена лишь тем набором данных, что были загружены в неё на дату создания. Другое дело, если реализуется локальная корпоративная система ИИ. В этом случае формируется собственная векторная база данных для конкретной предметной области и модель размещается на серверах локальной корпоративной компьютерной сети. Странно то, что Вы полагаете, что текстовая модель занимает мало памяти. Векторное представление текста для векторной базы данных это не просто текст, это разбиение на токены соответственно требуемой глубине логического анализа. При этом объëм необходимой памяти на много порядков превышает исходный. Свой первый коммент я написал потому что автор ролика в начале не отметил системные требования для установки этого софта.
@@KraterStromboli Ну насчет запросов, это слишком буквальная придирка к моим словам, чем к сути. Если в контексте ИИ "запрос" (prompt) - это такой же обычный (сегодня) термин. Уточнений тут не нужно. Векторная база данных это отдельный инструмент, для узконаправленного применения, типа корпоративных нужд. Домашнюю модель, при большом желании, можно настроить на поиск информации в инете через ключи API. Так же, существуют внешние базы данных, к которым модель будет обращаться при необходимости или в зависимости от настройки. И гибкости в подобных настройках достаточно. Вплоть до того, что модель будет обращаться к интернету исходя из контекста, например, понимая, что нужны актуальные данные для генерации ответа. Или можно загрузить Только необходимый раздел из базы. Где я сказал что полноценная текстовая модель не будет занимать много места? И откуда опять взялась потребность в наличии большого кол-ва свободного места и какие-то расширения размеров модели? Квантованные версии сохраняют почти все те же преимущества как, например, версия той же модели, но на 405b параметров или на 70b, просто менее "абстрактно" анализируют. Если я скачаю Mistral на 7b параметров, размером 4 гб - её размер ни как не измениться. Максимум мизерный кэш появиться и то только если подключать какие-то интерфейсы. На момент создания видео, автор поднял очень важную тему, как по мне. И мне всегда было интересно что-то подобное реализовать на своем ПК. На сегодняшний день это куда доступнее и намного лучше оптимизированно. Сейчас это ставиться в 5 кликов, буквально. Просто протестить, дообучить, интегрировать куда-то, работать анонимно и т.п... если это не интересно, как вообще это можно нарекать это какой-то лажей? И при чем тут опытные? Канал состоит из обучающего материала. Для тех кто хотел начать углубляться в ИИ инженерию или просто для общего развития. Замечание к железу - единственный весомый аргумент, но и его интерпретация не совсем верна. Потому что для Максимально комфортного пользования нужны просто актуальные комплектующие или, в Идеале, домашний сервер с актуальным комплектующими.
Просто в шоке. Ради окошка чата набивать комп адским мусором, да еще с такой сложной установкой. Ты сказал, ставил на чистую систему? У меня плохие новости - теперь у тебя грязная система.
@@игорьшавырин-р4я зачем докер, nodeJS, bun и прочая лабуда для запуска html странички ? Кстати, Bun и nodeJS это в принципе одно и тоже и там явно на английском писано Bun или NodeJS
Это спичифичный инструмент, если тебе нужен чисто чат: скачал Бинг, включить ВПН и радуешься. Локальная модель полезна для работы команд разработки, у меня в компании очень обрадовались возможности иметь нейронку без необходимости отправлять данные на чужие сервера.
все ссылки на ресурсы по теме видео здесь:
shorturl.at/adIJL
а зачем это? как с оламой заработать деньги?
Искренне Благодарю. Контент отличный. Продолжай в том же духе!
Контент - огонь!
интересно, мощьно, долго правда ставится, настраивается, смотрел я у вас предыдущие пару роликов...там всё попроще было, - поигрался удалил...будет время, попробую эту модель, но для неё реально нужно время и желание поставить
Спасибо, очень интересно!🤝👍🙂
5:42 Дополнение (для тех кто использует NVIDIA Карты): размер Файла (GB) не должен превышать размер Видеопамяти (VRAM)
Вся Модель грузиться в Видеопамять = бысстрая обработка.
Интересно, спасибо
Видео зачет. Качество болят глаза. Было бы хорошо если захват экрана был получше качества.
Отлично!. Если не сложно можете проконсультировать по вопросу: база данных из различных текстовых заметок, объём базы до 10 млн символов , чтобы потом в ней искать ответ, а запрос будет писаться обычными словами и для оптимального поиска и ответа нужно использовать ИИ. Как лучше все организовать для локального использования без интернета.
на тему RAG следующее видео
Всё супер!
Спасибо за видео. МОжешь подробнее рассказать как работать с документами, чтобы их чтение было полноценным. Особенно интересует работа с файлами в которых есть код. И например я хочу сделать какую то копию плагина к примеру для кмс, как мне заставить нейронку в мультимодальном режиме выполнить это ? Как заставить брать документы (если их много) одним за одним и анализировать, выдавая ответ в конце с возможным результатом, а возможно готовым файлом ? Это было бы мега интересно. Общие обзоры тоже круто, но конкретные примеры будет топ контентом !
чуть позже об этом будет видео
@@codedd3280 Прекрасно! Спасибо, буду ждать )
интересная нейросетка, возьмём на заметку
она ахинею несет
Спасибо! Установил всё работает.
Привет, помоги наладить вроде всё по инструкции, но не получается.
не работает, не заводится от слова совсем!
@@ТарзанМакакович Если иконка в трее висит - отлично. Теперь переходим в папку виндоуз - пользователи. Находим папку ".ollama", наводим курсор и зажимая клавишу шифт, кликаем правой кнопкой мыши. В открывшемся списке действий выбираем "Окрыть окно ПаурШел здесь" - открываем. Появляется командная строка (экран) общения с нейросетью. Пишем, общаемся. Спрашиваешь, через какой вебинтерфейс с тобой (нейронка) можно лучше общаться. Она выдает список. Ну и далее, сам разберешься... Хотя и в ПауэрШел уже идет работа...
Интересно
Отличное видео, как раз запускал недавно. И более подробно интересно посмотреть. Но просьба. не нужно эхо в голосе но комфортно.
специально эхо не накладывал точно)
Ваше оптимально
Хорошее видео. А можете сделать сопоставление и обзор разных вариантов иИ в одном видео
Спасибо! Хотелось бы видео: с реализацией лайков, чтобы собирать датасет, а также переаод интерфейса на русский.
Также хотелось бы подробнее про РАГ, который здесь реализован.
Установка и тест SD.
да, постепенно освоим. По интерфейсу меня, если честно, всегда удивляет, что сложного пользоватся набором десятка стандартных интерфейсных терминов на английском. Они же везде, и постоянно повторяются, каждый раз считать это проблемой?
@@codedd3280 для меня лично не проблема :) думал, как идея для всех. Не сложно сделать и видео будет:)
Хороший обзор! Сделайте обзор на речевые способности модели. И можно ли её подключить к ip-телефонии и разговаривать с ней по телефону?
бро, контент нормас - но в телеге у тебя нет возможность твои посты комментировать / добавь комменты
Соглашусь с вами, нет связи, на канале нет возможности комментировать, автор канала оставьте свой телеграмм или емайл.
Вово. Где комменты?
Вопрос как и всегда один и тот же, как дообучить модель для каких-то своих целей? Может есть какие-то туторы или готовые проги?
За видео однозначно лайк!
Жаль в гуи нельзя выбрать место, пришлось переносить из пользовательского каталога на нужный ресурс и делать жесткую ссылку, а так забивает диск С. По видео нормально все, недавно подписан - очень нравяться обзоры. Вот бы еще в ha запихать и научить разговаривать, с обучением на хозяина :-) Спасибо Вам!!!
через переменную окружения OLLAMA_MODELS=путь\до\папки. По крайней мере модели в олламе занимают больше всего места
инфа в любом случае полезная, за этим будущее. спасибо!
есть у кого опыт подключить генератор картинок локальный сюда? поделитесь какую брали для генерации картинок. спасибо!
Хороший ролик, спасибо! По возможности по-короче бы, минут на 10-15. Ролик про интерфейс, но много времени на примеры самих моделей.
Глупый вопрос, этот интерфейс работает без интернета (если модели через него не качать, а работать со скаченными)?
И хотелось бы отдельно ролик по сравнению разных моделей в разных задачах. Баловался с дельфином Q8/фи2/нексусревен/мистрали разные... как по мне, все они не то что до бесплатного gpt3.5, даже до гигачата не дотягивают ((
делал обзор по выбору модели, там есть все ресурсы, где попробовать более топовые бесплатные модели
А как обучать эти модели самому?
Есть ли хоть какой-то практический смысл у этой системы?
Вот я админ большой конторы, у меня есть определённые серверные мощности, где я могу применить эту байду?
Она может быть секретарем на Астериске, или CRM-системой, или сможет перегрузить заглючивший маршрутизатор? Может она может искать по камерам воришек?
ну как минимум писать скрипты по автоматизации массы задач
И за пивом бегать не умеет, и корабли космические построить не может чтоб собрать всех таких как вы и вывести с планеты, ну все гнилой продукт расходимся....
Я вижу ваши слова как-то так....
Если под ваши хотелки она пока что не подходит то что теперь все нужно хоронить проект? ведь прогресс он имеет зарождение развитие и т.д. у вас сразу хочу и точка да?
скрипт напишет веб версии. Правильный вопрос Выше. когда закрыт контур как можно это применить для офиса, секретарь, помощник для работников по какой то локальной базе вопрос-ответ (можно ли скормить оф доки компании не боясь что уйдет куда то) и тд, но я думаю это не к автору видео вопрос уже@@codedd3280
оно генерит cpu? получается ограничено только размером оперативной памяти, или же большие модели все равно дольше обрабатывает чем маленькие?
Что за вопрос? Немного не понял.
Для быстрой работы модель должна помещаться в VRAM. Например, Mistral 7B занимает 4 ГБ, для любого домашнего ПК будет нормой. Если модель больше, скажем, 20 ГБ, и не влезает в VRAM, данные пойдут в оперативку, из-за чего упадёт скорость.
RAM помогает только при больших данных или если мало видеопамяти.
Кароче, для нормальной работы нужен актуальный ПК. Ибо компику будет тяжко обрабатывать что-то в других прогах, особенно с тяжёлыми запросами.
Я сам пробовал на своей сборке, не слабой, но всё равно локальные AI сильно грузят систему, вызывая сбои в других программах, где мне нужна оперативка и видюха. Так что лучше запускать на сервере с норм железом, как у автора.
А так, все эти текстовые модели, просто игрушка. Пока что.
Здравствуйте! Подскажите, web ui не подгружает модели без интернета, что делать?
очень помогли, спасибо. Подскажите как можно изменить путь установки модели если на основном диске места нет?
писал команды в телеге
А LM studio? Попроще а суть та же.
суть да, кому что нравится. Мне нравится, когда есть много возможностей
+
А будут еще видео?
как в open webui устанавливать другие модели с сайта huggingface? или только с ollama сайта?
Ничего не понятно,там нажал тут нажал,а что и как она умеет делать не показано.😢
Спасибо за интересный контент. Хотелось бы попросить вас сделать отдельный гайд под винду. Попробовал, не получилось. Веб интерфейс так и не удалось запустить...
в общем на винду и ставилось. Или из под докера не получилось? инструкцию из телеграм пробовали?
@@codedd3280 Спасибо, разобрался. Через докер не смог, пришлось через питон. Сижу изучаю !
скачивал даже недавно обновленные модели но в них данные минимум годовалой давности. а нужные мне данные вышли в конце прошлого года. как узнать примерное время накомления данных их актуальность?
есть видос про выбор модели
@@codedd3280 спасибо, поищу
Gemini 1.5 studio android будет ?
Почему не показал как она работает с кодом программирования например питоно, как пишет скрипты?
это будет отдельно, видео 30+ минут. По Олламе продолжение следует
все делал как на видео и уперся в то что не могу не выбрать не добавить модель, автор это скрыл, и как то быстро пропустил, агументируя что у него все настроено на своем сервере, а если только 1 компьютер как быть? как добавить модель? где ее брать? мне пишет Упс! Возникла проблема подключения к Llama3 (AI Tutor).
Unexpected token 'I', "Internal S"... is not valid JSON
а какой конфиг нужен для шустрой работы этого всего дела? хочу домашний сервер сделать с нейросетью
Уймись! Ты же не Гений а простой обыватель.
И не требуй того, что не в сфере твоего понимания)
День добрый. Как можно с вами связаться по почте или ещё как. Не смог погрузить образ по не понятным причинам пишет не могу загрузить. Это происходит после загрузки образа в шеле. На этапе когда образ нужно уже загрузить на сам сервер.
см видео про выбор нейронок и телеграм - там есть про загрузку
Всё делаю согласно инструкции описанной в тг. Но увы смотрю логи и там пишет error loading model c: и путь к образу. И в логах ещё пишет failed to load dynamic library c: temp CPU_avx2 . Хотя процессор свежий и должен поддерживать данные инструкции. Прошу помощи! Почитал на сайте у многих такие проблемы возможно вы мне локально сможете подсказать где я туплю. Уже голову сломал.
В общем пройду остаток по установке а далее отпишусь
Рапортую, батник тоже не запустился. I need help 😅
В тг нет возможности написать так что буду тут писать
Картинка с воробьем .
Эта модель может подключаться к интенету ?
да, или без него
При первом включении проходит регистрация, но она не работает как и вход. Как решить?
возможно одна регистрация прошла, и мешает повторному входу, так как последующие требует подтверждения от админа.
У меня выдало такую ошибку, не подскажите кто-нибудь как пофиксить. PS C:\Users\User\Desktop\ollama-ui\open-webui\backend> pip install -r requirements.txt -U
pip : Имя "pip" не распознано как имя командлета, функции, файла сценария или выполняемой программы. Проверьте правильн
ость написания имени, а также наличие и правильность пути, после чего повторите попытку.
строка:1 знак:1
+ pip install -r requirements.txt -U
+ ~~~
+ CategoryInfo : ObjectNotFound: (pip:String) [], CommandNotFoundException
+ FullyQualifiedErrorId : CommandNotFoundException
Как установить это счастье не по умолчанию ?
через докер можно в контейнере запустить, это пока максимальная степень контроля или в отдельную виртуалку
@@codedd3280 Попробовала вчера, хороший чат. Понравился. Но, к сожалению, проработал всего пол дня. После перезагрузки компьютера перестал запускаться из-за проблемы с 8080 портом. Устанавливала не через докер. Найти решения не удалось, потому что их много , а позволить себе убить пару дней на поиск не могу. В их дискорде спросила совета, но там все тихо. Попытался помочь один человек, но он плохо знает винду. Я так поняла что и разработчики так же. Так что проект интересный , но как всегда для людей которые неплохо разбираются в программировании и кого есть время возиться с этим самостоятельно исправляя ошибки. Так что поползла в LM студию )
могут быть проблемы, если запускаете скрипт повторно если он уже работает, так как он пытается открыть интефейс на том же порту, который уже используется. Попробуйте запустить '"start_windows.bat'. Как вариант переустановить, но использовать окружение conda - это поможет исключить ошибки связанные с python. Идеально конечно через докер, но докер под виндовс, это та еще история)
какие системные требования?
Зависит от выбранной модели. про это отдельное видео
ua-cam.com/video/0uXqeI_ZMhw/v-deo.html
@@codedd3280 спасибо
так вместо карты метро была по сути схема с белибердой
а можно как то общаться с моделями через этот интерфейс
это его основная функция
Вообще не завелось :D
Установил, запустил -> ? -> Иконка висит в трее и ...всё? Ни консоли, ничешуя. Ору. Отличный запуск на Win, молодцы :D
Тоже не завелось, пробовал и переустанавливать, не помогло от слова совсем!
Если иконка в трее висит - отлично. Теперь переходим в папку виндоуз - пользователи. Находим папку ".ollama", наводим курсор и зажимая клавишу шифт, кликаем правой кнопкой мыши. В открывшемся списке действий выбираем "Окрыть окно ПаурШел здесь" - открываем. Появляется командная строка (экран) общения с нейросетью. Пишем, общаемся. Спрашиваешь, через какой вебинтерфейс с тобой (нейронка) можно лучше общаться. Она выдает список. Ну и далее, сам разберешься... Хотя и в ПауэрШел уже идет работа...
@@s_a_m_s_o_n_n_n Если иконка в трее висит - отлично. Теперь переходим в папку виндоуз - пользователи. Находим папку ".ollama", наводим курсор и зажимая клавишу шифт, кликаем правой кнопкой мыши. В открывшемся списке действий выбираем "Окрыть окно ПаурШел здесь" - открываем. Появляется командная строка (экран) общения с нейросетью. Пишем, общаемся. Спрашиваешь, через какой вебинтерфейс с тобой (нейронка) можно лучше общаться. Она выдает список. Ну и далее, сам разберешься... Хотя и в ПауэрШел уже идет работа...
Русский поддерживает ?
Да, поддерживает
"В этом случае, после того как новый участник установил свое присутствие посредством совершения убийства, количество убийц в комнате станет равным 5"😅
вот если запустить все это дело на orange pi
когда архитектуру моделей оптимизируют, будет иметь смысл
@@codedd3280 llama.cpp с llama-2-7b 3.5 токена на 16 оперативки. И это без перекомпиляции ядла для opencl ускорения.
дружище, это миллиарды а не миллионы параметров. 13B это 13 миллиардов. ты оговорился чуть.
отличное приложение. установилось, висит в трее, но не работает.
Если иконка в трее висит - отлично. Теперь переходим в папку виндоуз - пользователи. Находим папку ".ollama", наводим курсор и зажимая клавишу шифт, кликаем правой кнопкой мыши. В открывшемся списке действий выбираем "Окрыть окно ПаурШел здесь" - открываем. Появляется командная строка (экран) общения с нейросетью. Пишем, общаемся. Спрашиваешь, через какой вебинтерфейс с тобой (нейронка) можно лучше общаться. Она выдает список. Ну и далее, сам разберешься... Хотя и в ПауэрШел уже идет работа...
Я бы предпочёл хоть платную, но без цензуры и этики-шмэтики.
как раз таки платные все с цензурой
Контент хороший но слышно тебя!
Сначала идёт длительное описание интерфейса. Зачем мне смотреть описание неизвестно чего? Только потом показано что это вообще такое и как работает. Логично же всё это местами поменять и сначала представить предмет видео? Я видел другие видео с канала, а если бы не видел - выключил бы это видео с настройками какой то непонятной ерунды.
на мой взляд название и описание видео дает необходимый минимум инфо перед нажатием просмотра
@@codedd3280Есть ключевой момент у всех видео, когда человек решает стоит ли предмет просмотра. Человека можно понять, он не может посмотреть весь Ютуб. У вас этот момент сдвинут далеко от начала. Вы его не видите, потому что для вас этот вопрос решён и вы знаете, что описываемая вещь стоит и просмотра, и того, чтобы снять о ней видео. А раз вы его не видите, то вам стоит обращать внимание на сообщения от тех, кто видит. Это называется обратная связь и ею пользуются многие блогеры.
Про необходимый минимум, это да, это вы хорошо пошутили. Я уже представил себя аи, покупающим пельмени с необходимым минимумом начинки.
Надо, наверное, добавить, что у вас хорошие видео, были бы плохие - ничего бы писать не стал.
я принял к сведению Ваш комментарий по последовательности. Спасибо!
5 убийц осталось в комнате, правильно же ?)
да, это один из вариантов
Сплошная лажа и пустая болтовня. Для опытных в этом деле.
Новичок по этой "инструкции" не сможет ни установить ни запустить систему, особенно из виндюзеров.
Плясать надо исходя из ресурсов наличного железа и скорости интернета. В ай-ти чудес не бывает.
Какому новичку нужна локальная AI ? Те кто за пк первый раз сел вообще не будут этим интересоваться.
И тебя вообще не смутило с каких слов автор начал видео?
И прости нас, великий, "опытный", умнейший, за то что в твоей вселенной где в гайде для "Новичков", на обучающем канале, должна быть полезная информация для тебя.
@mistakiii Ваш фейерверк эмоций не впечатляет.
1) Для кого этот "гайд"? Для тех, у кого уже установлен "локальный AI"?
Для изолированной корпоративной сети? Или для домашнего игрового ПК?
2) Для того, чтобы скачать несколько десятков Гб из Интернета нужен скоростной канал связи.
3) Дпя функционирования "локальной" системы AI надо иметь "нехилый" хард ресурс: CPU, видеокарту, быстрые HD.
4) Ежели Вы работаете под Windows 10, 11 и устанавливаете что-либо из интернета, то ничего "локального" у Вас не получится.
@@KraterStromboli
Если нет идей для каких целей и при каких обстоятельствах её использовать, то чьи это проблемы? В таком случае, будет логичным, что это просто игрушка.
Но и тут можно вернуться на 00:00 и понять, что у автора был ряд предшествующих роликов на тему ИИ. На почве которых можно найти применение для кого-то или чего-то.
О каких десятках ГБ идёт речь, я так и не понял. Все текстовые модели для домашнего пользования не будут превышать 15 гб. На данный момент, даже 3-7гб. Отлично заменяя, например, интернет запросы, давая развернутые ответы, особенно на английском.
Актуальные ИИ оптимизированы под любое доступное железо. Если объем модели помещается в VRAM - диски будут минимально задействованы. Если не помещается - модель загрузиться в RAM, что так же минимизирует использование диска.
При наличии хотя бы 4 гб VRAM и соответствующей этому объему модели ИИ, CPU будет задействован не более чем на 40%. Всю нагрузку берет на себя VRAM и ядро карты.
Последнее мне не понятно. Если это вопрос анонимности, то вполне реально вертеть системой как удобно и ограничивать сетевую активность других приложений/служб.
@mistakiii Предлагаю уточнить значения слов. "... интернет запросы" это просто вопросы. "Запросы" - это к базе данных.
Касательно объëма памяти. Основной объëм занимает векторная база данных в составе ИИ. От этого зависит "эрудиция" конкретной модели ИИ. Если это локальная "игрушка" на малобюджетном домашнем ПК, то она не может выдавать толковые ответы подобно Gemini, которая уже установлена на любом смартфоне, имеющем гугл экаунт. Сервис Gemini имеет доступ к гугл поиску, что существенно усиливает её возможности учитывать актуальные данные. Любая локальная модель ИИ, как-бы её не рекламировали ограничена лишь тем набором данных, что были загружены в неё на дату создания.
Другое дело, если реализуется локальная корпоративная система ИИ. В этом случае формируется собственная векторная база данных для конкретной предметной области и модель размещается на серверах локальной корпоративной компьютерной сети.
Странно то, что Вы полагаете, что текстовая модель занимает мало памяти. Векторное представление текста для векторной базы данных это не просто текст, это разбиение на токены соответственно требуемой глубине логического анализа. При этом объëм необходимой памяти на много порядков превышает исходный.
Свой первый коммент я написал потому что автор ролика в начале не отметил системные требования для установки этого софта.
@@KraterStromboli
Ну насчет запросов, это слишком буквальная придирка к моим словам, чем к сути. Если в контексте ИИ "запрос" (prompt) - это такой же обычный (сегодня) термин.
Уточнений тут не нужно.
Векторная база данных это отдельный инструмент, для узконаправленного применения, типа корпоративных нужд.
Домашнюю модель, при большом желании, можно настроить на поиск информации в инете через ключи API. Так же, существуют внешние базы данных, к которым модель будет обращаться при необходимости или в зависимости от настройки.
И гибкости в подобных настройках достаточно. Вплоть до того, что модель будет обращаться к интернету исходя из контекста, например, понимая, что нужны актуальные данные для генерации ответа. Или можно загрузить Только необходимый раздел из базы.
Где я сказал что полноценная текстовая модель не будет занимать много места? И откуда опять взялась потребность в наличии большого кол-ва свободного места и какие-то расширения размеров модели?
Квантованные версии сохраняют почти все те же преимущества как, например, версия той же модели, но на 405b параметров или на 70b, просто менее "абстрактно" анализируют.
Если я скачаю Mistral на 7b параметров, размером 4 гб - её размер ни как не измениться. Максимум мизерный кэш появиться и то только если подключать какие-то интерфейсы.
На момент создания видео, автор поднял очень важную тему, как по мне. И мне всегда было интересно что-то подобное реализовать на своем ПК. На сегодняшний день это куда доступнее и намного лучше оптимизированно.
Сейчас это ставиться в 5 кликов, буквально.
Просто протестить, дообучить, интегрировать куда-то, работать анонимно и т.п... если это не интересно, как вообще это можно нарекать это какой-то лажей? И при чем тут опытные? Канал состоит из обучающего материала. Для тех кто хотел начать углубляться в ИИ инженерию или просто для общего развития.
Замечание к железу - единственный весомый аргумент, но и его интерпретация не совсем верна. Потому что для Максимально комфортного пользования нужны просто актуальные комплектующие или, в Идеале, домашний сервер с актуальным комплектующими.
Просто в шоке. Ради окошка чата набивать комп адским мусором, да еще с такой сложной установкой. Ты сказал, ставил на чистую систему? У меня плохие новости - теперь у тебя грязная система.
Ты о чем вообще ? Все это для разработчиков. Сама модель ставится в два клика а докер сам тебя в мусорку закинет.
@@игорьшавырин-р4я зачем докер, nodeJS, bun и прочая лабуда для запуска html странички ?
Кстати, Bun и nodeJS это в принципе одно и тоже и там явно на английском писано Bun или NodeJS
Короче геморрой тот ещё по установке, как и всё у этих офисных планктонщиков.
Это спичифичный инструмент, если тебе нужен чисто чат: скачал Бинг, включить ВПН и радуешься. Локальная модель полезна для работы команд разработки, у меня в компании очень обрадовались возможности иметь нейронку без необходимости отправлять данные на чужие сервера.