How to run an LLM Locally on Ubuntu Linux

Поділитися
Вставка
  • Опубліковано 22 січ 2025

КОМЕНТАРІ • 7

  • @mufeedco
    @mufeedco 7 місяців тому +8

    Thank you, great guide. How can I configure Oobabooga text-generation-webui with Open WebUI?

  • @AndersTrierRasmussen
    @AndersTrierRasmussen 19 днів тому

    Hi
    Can you use the web ui without a NVidia gpu?

  • @ddutta3008
    @ddutta3008 6 місяців тому +15

    It is very important to show how to close Ollama Web UI? And will that port will always be occupied? Once I close the browser Tab how to restart everything?

  • @brucewillis7213
    @brucewillis7213 10 днів тому

    Hi Morgan, do you have experience in setting up Anything LLM on Ubuntu? I need help on this.

  • @elarbielaarabi
    @elarbielaarabi 26 днів тому

    Great video

  • @wgabrys88
    @wgabrys88 Місяць тому +1

    Great tutorial because you are using installation from scratch and I mean scratch