Twój Własny "ChatGPT"! Ollama i Open WebUI - Lokalna AI na Twoim Komputerze!
Вставка
- Опубліковано 5 лют 2025
- W dzisiejszym odcinku zagłębimy się w świat narzędzi AI, takich jak Ollama oraz Open WebUI. Dowiesz się, jak te rozwiązania mogą ułatwić korzystanie z modeli językowych AI lokalnie na Twoim komputerze. Omówimy ich możliwości, instalację oraz potencjalne zastosowania w codziennej pracy i projektach. Czy warto postawić na lokalne modele AI? Sprawdź, jakie korzyści i wyzwania niosą ze sobą te narzędzia!
📌 W odcinku znajdziesz odpowiedzi na pytania:
Czym jest Ollama i jak działa?
Jak skonfigurować Open WebUI?
🎥 Zostań ze mną, aby odkryć, jak wykorzystać pełny potencjał ollama.
Link do skryptu instalacyjnego (pamiętaj aby uruchomić go jako administrator):
link.myeye.pl/...
🚀💡 Dołącz do Darmowej Bazy Wiedzy i zyskaj dostęp do sprawdzonych materiałów!
👉 go.lukaszpodgo...
Link do discord SpeakLeash:
discord.com/in...
Link do samego projektu SpeakLeash:
speakleash.org
#AI #SztucznaInteligencja #Ollama #OpenWebUI #ModeleAI #LokalneAI #Technologia #Programowanie #Automatyzacja #Chatboty #NowoczesneTechnologie
Music: Bensound.com/free-music-for-videos
License code: ERRHWF5DW5KI7TOH
Wg mnie ważna sprawa do powiedzenia: Open-webUI domyślnie ustawia temperaturę modelu na 0.8, co sprawia, że jego odpowiedzi będą mocno kreatywne (wartości od 0.0 do 1.0). Im wyższa temperatura tym większe halucynacje :)
Warto to zmienić, jeśli chcemy by nasz model odpowiadał bardziej z sensem :)
Ścieżka: Panel administracyjny/Ustawienia/Modele/
Tam wybieramy nasz model, np. Bielika, i po wybraniu Pokaż dla Zaawansowane parametry zmieniamy temperaturę.
Do czego ci się to przydaje? Dzięki!
@@LukaszKobierskinp. tworzenie szybkich podsumowań materiałów z UA-cam lokalnie.
@@lukaszpodgorski dobre :)