Wypowiem się na temat Stable Diffusion na karcie AMD (rx 6650xt 8GB) z wykorzystaniem Automatic1111. Windows kompletnie odpada jeżeli ktoś planuje się tym bawić, testowałem rozwiązania takie jak wtyczka directml do bazowej wersji Automatic1111 i działało to przeciętnie - 1.2it/s przy obrazku 512x512. Maksimum przy którym nie wywalało błędu o braku VRAMu to było jakieś 640x768, a dodatkowym zastrzeżeniem było tutaj trzymanie się danego wymiaru, który musiał być podzielny przez 64 bo inaczej się wysypywało, więc odpadał jakikolwiek niestandardowy refine obrazka, a w dodatku prompt musiał być ograniczony do rozmiaru 75 bo takie ograniczenia zostały nałożone i nie było szans tego ominąć. Warto tu także wymienić to że upscaling obrazka odbywał się nie z wykorzystaniem GPU, a obliczenia przenoszone były na CPU i trwało to czasem nawet kilka minut. Było też inne rozwiązanie do niedawna promowane na blogu AMD, czyli pobranie pewnej wersji A1111 ze wsparciem dla ONNX w połączeniu z DirectML ale działało to trochę inaczej i zdecydowanie gorzej niż directml jako extension do bazowego A1111. Oba te rozwiązania wymagały transformacji modelu na format ONNX. Pierwszy z nich operuje na unet a drugi bodajże na modelu w formacie ONNX z rozszerzeniem .ckpt. Więc dochodzi jeszcze odpowiednia umiejętność konwersji między formatami, optymalizacji tego itd... Generalnie sporo zabawy żeby to w ogóle zaczęło działać i nie jest to tego warte na Windows. Stwierdziłem w pewnym momencie że nie ma możliwości żebym się tak męczył, więc wydzieliłem odpowiedni rozmiar dysku na partycję z Ubuntu, pobrałem rocm według zaleceń AMD i po odpowiednich drobnych modyfikacjach (podmiana identyfikatora karty na wspierany przez rocm - rx 6800 xt oraz wyłączenie secure boota, który blokował wykorzystanie sterowników w systemie) wszystko działa jak marzenie - 3.6it/s przy obrazku 512x512, 4x upscaling w dosłownie kilka sekund. Różnica jest kolosalna, a w dodatku można korzystać z pełnej palety funkcjonalności A1111, a wykorzystanie VRAM nawet przy generowaniu obrazka 1024x1024 nie przekroczyło 6.2GB i ani razu nie miałem problemu ze stabilnością tego wszystkiego.
Powiem szczerze że nigdy nie miałem takich problemów chociaż mam karte NV i to może robić różnice, próbowałeś dodać parametry startowe ? jak --api --lowvram --always-batch-cond-uncond --xformers --no-half-vae ? Fakt że na windowsie demonem szybkości może to nie jest ale 1m 30sec average 7.52s/it 1024x768 i 1024x1024 z refinerem i esgran x4 Hires (na karcie 1050TI 8GB 4+4shared) dla SD 1.5 / 2 Dla SDXL polecam Fooocus, działa na 4GB ram pod windowsem więc pod linuxem powinno jeszcze szybciej, czas podobny jak dla SD 1.5 przy 2048x2048.
Tak, testowałem wiele parametrów startowych, które były polecane na wielu subredditach właśnie dla osób wykorzystujących te metody uruchamiania tego konkretnego narzędzia (A1111) na kartach AMD. Najważniejszym problemem tutaj jest niestety brak obsługi CUDA dla kart od czerwonych (ich technologia pozwalająca obsłużyć narzędzia z niej korzystające działa jedynie pod Linuxem) i trzeba próbować obchodzić to naokoło właśnie przez włączenie obsługi zoptymalizowanych modeli pod rozwiązania Microsoftu i zabawę z tym na wielu płaszczyznach żeby to działało tak jak powinno, a i tak mi się to nie udało w pełni i większość zadań była przerzucana z GPU na CPU i dlatego to tak wolno działało w większości przypadków. Być może właśnie są jakieś narzędzia które lepiej sobie z tym radzą, lub mają jakieś rozwiązania które po prostu działają, ale na tamten moment, gdy jeszcze próbowałem z tym działać na Windows, nie byłem w stanie znaleźć niczego sensownego na forach, a po przerzuceniu się na rocm widzę diametralną różnice w prędkości oraz stabilności, więc to jest jedyne rozwiązanie które poleciłbym komuś z układami od AMD. Szczerze mówiąc miałem do niedawna 1050 ti 4GB i kiedyś próbowałem generować za pomocą Stable Diffusion. W porównaniu do AMD karty NV działają od strzała i nic więcej nie trzeba robić, wystarczy mieć tylko narzędzie, model, wystarczająco VRAM i dobre parametry startowe. Nie wiem czy korzystałem z dzielonej pamięci, aby mieć dostęp do generowania czegoś większego, ale raczej nie, bo dość szybko docierałem do limitu pamięci. Zdecydowanie obczaję sobie tego Fooocus-a, ciekawe jakby to mogło działać z rocm. @@ephionis
Jestem głównym informatykiem w średniej fabryce i gpt dużo mi pomaga. Piszę budżety, odpowiada na e-maile, odpowiada na pytania odnośnie sieci, środowiska serwerowego, itp. Chętnie przetestuję to na swojej lokalnej maszynie :)
Bawię się w generowanie obrazków - WOW. RTX 4090 można spoko wykorzystać do generowania naprawdę dobrej jakości obrazów i maks co mi zajmuje na obrazek to 23 sekundy
1. można połączyć kilka komputerów aby generować na jednym, szybciej i lepiej? 2. Czy są modele pracujące tylko na CPU + j.w. czyli połączenie kilku dla szybszego/lepszego efektu?
Jestem czynnym programistą i powiem Wam, że z jednej strony cieszę się na to jak rozwijają się narzędzia oparte o sieci neuronowe, z drugiej strony tempo tego rozwoju trochę mnie przeraża :D
ja chciałem zostać grafikiem i zacząłem coś robić w tym kierunku, nagle pojawiło się AI. Po prostu skaczę z radości na widok tego, że za kilka lat AI będzie generować lepsze obrazy niż ludzie i będę skazany na pracę w biedronce xD
@@tomaszstaron1233 tu się nie zgodzę. To nadal chatboty. Testowałem je wielokrotnie i dalekie są choćby umiejętności mida. Są dobrym narzędziem wspomagającym ale programisty nie zastąpią przez jeszcze parę ładnych lat :)
9 місяців тому+1
LMstudio też służy do lokalnego uruchamiania LLM i pod czatem wyświetla benchmark w tokenach na sekundę. U mnie aktualnie: od 0,6tok/s na modelu 72B Q5 (największy jaki udało mi się odpalić, zajmuje 56GB RAMu) do 3tok/s przy trochę mniejszych modelach. Wszystko to na GTX1050Ti 4GB, Ryzen 3600, 64GB RAMu, z offloadingiem 1 warstwy do GPU i kontekstem ustawionym zawsze na domyślne 2048.
Używam już od dłuższego czasu stable diffiusion i powiem że mój model "wyuczył się" robić zajebiste cyberpunkowe i kosmiczne obrazy Jedno z takich obrazów nam na profilowym na steam
WhisperGUI świetne, na pewno kiedyś tego użyję jak już będę po remoncie w domu i wezmę się za hobby (yt/stream/gry/tech etc) - mam nadzieję znaleźć też podobny soft ale działający w czasie rzeczywistym. Stability Matrix i NMKD Stable Diffusion świetnie nadadzą się do prostych projektów, w sumie to nawet na steamie używam profilowych zdjęć które generowały AI.
Ciekawa sprawa z tym odczytywaniem plików. Fajnie by było jakby była możłiwość wrzucenia ustaw naszego prawa i zadawać mu pytania i żeby odpowiadał na podstawie tych ustaw ze wskazaniem źródeł :D
Ja w pewnym sensie wykorzystuję lokalną sieć neuronową w postaci dodatku o nazwie... kurde nie pamiętam... w każdym razie dodatek do OBSa, współpracujący z osprzetem Elgato, a wchoidzacy w skład sterownika nVidia Studio i działający jedynie na kartach RTX. Co on daje? Otóż teoretycznie jakieś baery z dźwiękiem (ale nie mam mikrofonu od elgato), do czego ja go nie używam, ale przede wszystkim za pomoca algorytmów sieci neuronowych usuwa tło w bardzo skuteczny i dokładny sposób. Ptrymitywna wersja czegoś takiego jest wam pewnie znana z jakiegoś zooma, czy czegoś w tym styuku, ale to nie zawsze działa dobrze, czasami dziwnie ucina kawał głowy, czy podmienia część ubrania - a u mnie działą idelnie tak, jakbym miał green screena za plecami, co znacznie pomaga mi w prowadzeniu streamów, czy nagrywaniu treści na kanał, gdzie potrzebuję wrzucić siebie z czymś w tle. Wymaga jednak dobrego światła, ale nie jakiegoś wybitnego - u mnei to nawet nie jest profesjonalny softbox, a zwykła lapma z IKEI, z tym, ze z dużo mocniejszą żarówką ledową (bodajże 14,5W). Da sie bawić ustawieniami, ale ja jestem laikiem i mam po prostu ustawioną wysoką jakość a reszta domyślnie.
Hmm... warto spróbować. Mam nadzieję, że moja 3060 w wersji 12GB sobie sprawnie poradzi:) Ale mam inne pytanie - czy znasz drogi Łukaszu jaki dodatek do takiego modelu, czy ogólnei jakiś ciekawy program, współpracujący z jakimś asystentem głosowym - tak aby mi takie AI odpowiedziało nei tylko tekstem, ale i odczytało go na głos. Albo ogólnie coś, co po prostu czyta teksty z ekranu na głos.
@@nihilistycznyateista oobabooga webgui plus dodatki. whisper do rozpoznawania mowy, elevenlabs do generowania audio (czytania tekstu). Elevenlabs jest płatny, ale są też jakieś darmowe odpowiedniki, szukaj tts (text to speech). Czy ogarniają język polski - nie mam pojęcia.
Siemka, zainteresuj się burn w RUST, bazują na webgpu które tłumaczy na VULKAN, METAL czy Dirext12 np. Ogólnie biblioteka na razie w fazie alpha ale wiele rzeczy już działa naprawdę świetnie. Jest to co prawda coś na zasadzie PyTorch czyli służy naukowcom czy devom, ale mogę ci coś wyskrobać na testy początkowo pod linux'a a przy większej chęci na Window'a, choć osobiście nie mam tego systemu w domu, korzystam tylko z Linux'a na co dzień do pracy i Mac'a rekreacyjnie.
PS GUI przyszłościowo tez była by szansa pod benchmark ogarnąć w Tauri np. A w sumie rozwijając myśl co daje biblioteka burn w porównaniu do pytorch na której to bazuje niemal wszystko to to że zbudowany model od 0 można puścić na CPU, GPU
@@piotrgo9939 Niestety linki nie przechodzą albo Łukasz usunął mój komentarz :kekw: Więc nie jestem w stanie ci nic wysłać. Drugi raz komentarza nie chce mi się pisać więc tylko napisze że projekt plus github i na githubie jest zawsze instrukcja co i jak.
Powiadasz, że na starszym kompie idzie pogadać na czasie GPT? U mnie koboldcpp się zamyka gdy ładuję większość modeli. Mam Win 10, procesor Intel Xeon E3-1246 v3, grafikę GF RTX 2060 super. Mógłbyś zrobić jakiś film który szerzej by omawiał ten program? Jest tam trochę do ustawiania i może o czymś istotnym nie wspomniałeś w tym filmie? Zauważyłem np, że część modeli działa ale tylko jak ustawię dla grafiki presety Vulkan w nazwie. Pozostałe presety nie działają a program się zamyka natychmiast po kliknięciu w launch. A może trzeba dobrać odpowiedni model? Jest tych oznaczeń modeli co nie miara i trudno się w tym połapać. Wiem tylko, że im wyższa cyferka przy q tym mocniejszy sprzęt potrzebny. Tylko nie każdy model ma podaną literkę q. Te modele które działają, to akurat nie trafiłem na taki z językiem polskim. Bywa, że zamiast odpowiadać sypią jakimiś tekstami zupełnie haotycznymi, wygląda to czasem jak podsumowanie naszej rozmowy podane w dwóch językach plus znaki specjalne. Albo bot się zapętli i odpowiada niemal to samo tylko w różnych konfiguracjach, choć moje pytania są już inne. Zupełnie inaczej to wygląda jak np. na stronie czatkropkaai.
Ja od siebie mogę polecić RVC-GUI, który pozwala powiedzieć dowolną rzecz dowolnym głosem (prawie dowolnym głosem bo najpierw ktoś musi zrobić model RVC do tego głosu bo samemu trudno taki zrobić).
Wspominałeś o pamięci VRAM, że jest tutaj istotna, w takim razie jak rozumiem lepiej jest kupić przy składaniu kompa RTX 3060 zamiast nowszej karty RTX 4060? Czy może RTX 4060 ma jakieś przewagi i finalnie lepiej będzie sobie radził z algorytmami AI? Z góry dzięki za odpowiedź, pozdrawiam! :)
Wszytko pięknie i ładnie, bajery, buzery itp. Wszyscy yutuberzy technologiczni i nie tylko opowiadają jakie to nie jest fajne, jakie to daje możliwości, jak to zrobić w domowym zaciszu. Ale jakoś nie widzę materiałów o negtywnych tego aspektach, a takowe niestyty są. I w miarę jak sztuczna inteligencja będzie rozwijana, implementowana w coraz większej ilości urządzeń i oprogramowaniu i stanie się nieodłączną częścią życia człowieka, dobrze byłoby, aby informować ludzi nie tylko o pozytywnych jak i o negatywnych cechach AI.
Tak, masz rację w zupełności, ale ten filmiki jest trochę nie o tym. Bo ten film ma pokazać jak to uruchomić u siebie i co można z tym zrobić, a nie mówię tu ogólnie o tym jakie pozytywy czy negatywy to niesie dla świata. To trochę tak jak z młotkiem można go użyć do wbijania gwoździ w swoich meblach albo wybić komuś szybę.
Ja bym chciał AI działające w tle w Windowsie, monitorujące pracę systemu i wszystkie jego procesy, tak aby wykrywał i monitorował błędy, oraz pomagał lub rozwiązywał by problemy z działaniem systemu i aplikacji. Apka czy gra się wywala to AI informuje nas co to spowodowało i pyta czy rozwiązać problem oraz mówi jak to robi. Coś co pomaga optymalizować system lub może powiedzieć co zmienić w konfiguracji sprzętowej aby wyciągnąć jeszcze więcej z obecnego sprzętu ale żeby znało też granice, że np. RAM-u nie ma sensu więcej ładować albo mocniejsze GPU tu nic nie zmieni itp.
Cześć Zmaslo chciałbym zapytać czy była by możliwość abyś nagrał odcinek lub po prostu sprawdził ile zajmuje czasu generowanie tych obrazków na karcie K80?
Co do programu Whisper Gui, to jaki język na wyjściu dostaniesz jeśli ustawisz na wejściu rozpoznawanie auto lub podasz jakiś język a odznaczysz j.angielski na wyjściu? Chodzi mi o to, że nie ma ten program opcji wyboru na jaki język ma być tłumaczony materiał. Tobie stworzył napisy pl przy pokazanym ustawieniu ale to jest transkrypcja a nie tłumaczenie. Z jakiego źródła pobierałeś program? W każdej z wersji na jaką trafiłem virustotal wykrył w pliku exe jakiegoś wirusa lub kilka sztuk. Są to fałszywe alerty? Z tego linka co podałeś w opisie też wykrył wirusy, sztuk 2.
No dobra, generowanie obrazków z tekstu, a co jeśli chcielibyśmy na czymś bazować załadować jakiś inny obrazek i go zmodyfikować lub wykorzystać twarze do edycji i modyfikacji i wrzuceniu w jakieś "nowe realia". Jak ma się sprawa generowania video?
StabilityMatrix ma wbudowane img2video, ale to bardziej gif a nie wideo. Repozytorium Fooocus dostępne w aplikacji pozwala na takie rzeczy związane z twarzą.
A co tam trzeba jeszcze ładować do pozostałych pól w programie koboldcpp np. pole lora itd? A jeśli w tym wypadku nic a czasem trzeba to w jakich wypadkach trzeba?
U mnie na 9900K z 6700XT NMKD obciąża tylko procesor, karta śpi a generowanie trwa wieki. Jak kliknie AI implementations - for AMD GPUs to nie mogę wtedy wybrać modelname - brak wyboru stablediffusion. Jak ten program ogarnać żeby generowało na 6700xt a nie na procku?
Pod Windows na AMD jest w chwili obecnej nie najlepiej, niby jest ten DIrectML od MS ale działa to bardzo słabo. Jak chcesz się pobawić w Stable Difusion na poważnie to polecam Linuksa, tam to działa znacznie lepiej, jego uruchomienie to zaledwie kilka krótkich poleceń. Nawiasem mówiąc polecam ComfyUI, do tworzenia obrazów, masz mnóstwo "workflow" od społeczności, a to znacznie ułatwia start.
ZMASLO trochę za wcześnie wykonałeś ten filmik, 2 dni temu został wypuszczony na światło dzienne projekt ZLUDA który pozwala uruchomić programy oparte o biblioteki cuda na kartach amd bez modyfikacji programu
Ten chat RTX będzie działać na plikach tekstowych czy tylko na tekście? Bo jeżeli na plikach to czuję potencjał do szybkiego tłumaczenia niektórych gier. Sam próbowałem tłumaczyć grę przy użyciu GPT i faktycznie nieźle szło ale ten non stop przerywał, gubił wątek lub zmieniał język na jakiś inny niezwiązany z tematem. Dodatkowo ilość linijek jakie może przerobić jest ograniczona. A jest model wyspecjalizowany w tłumaczeniu? Może wrócę do tłumaczenia? Niesiesz czy własne AI ma limit znaków do przyjęcia?
Z tego co rozmawiałem z inżynierami na CES to mówili o plikach tekstowych. Limit długości takiego pliku na pewno będzie bo póki co chyba każde Ai ma problem z bardzo dużą ilością tekstu. Myślę, że jeśli podzielić by teskt na kawałki może się udać taki proces. Trzeba poczekać aż wyjdzie i sprawdzić. Więcej o tym info w opisie!
Jestem pod wrażeniem, jak to AI się rozwinęło przez tyle czasu. Na początku 2023 roku byłem do tego sceptycznie nastawiony, bo robił to... żle w większości sytuacji (a przynajmniej u mnie). A teraz nie dość, że to jest prostsze i lżejsze do generowania, to jeszcze wygląda to znacznie lepiej. Jak tylko będę miał czas, to zabawię się z tym raz jeszcze. :)
Mam już pewne doświadczenie z tymi darmowymi czatami offline i jak do tej pory trafiam na samych imbecyli a nie na normalną AI. To zupełnie inny poziom jak np. czat AI online. Trudno jest uzyskać jakąkolwiek pomoc. Co z tego, że mogę offline gadać bez końca jak bot się zaplącze i w kółko to samo gada albo nie pamięta co napisał zdanie wcześniej. lub nie umie policzyć do 30 itd.
Dobrze że edukujesz ludzi, sam bawię się AI/ML od pól roku stablediffusion, whisper, xtts, wav2lip, xtts-webui, waifu-gui i masę innych, wszystko na gtx 1660S ;) bedę kupował 4070TIS. Niestety nvidia jak powiedziałeś góruje bezapelacyjnie w tym temacie. Co można wygenerować offline nie wygenerujesz online dużo ograniczeń i wszystko zostaje na ich serwerach.
ja jako użytkownik gtx 1660ti powiem że da się odpalić stable diffusion tylko trzeba wpisać parametr startowy odpowiadający za pominięcie sprawdzania vram ale jaki on jest to nie powiem bo nie pamiętam
Niezwykle ciekawy materiał, dzięki! Jeśli mogę coś polecić, to nie puszczaj na telewizorze za sobą filmików, bo rozpraszają. Sam kilka razy złapałem się na tym, że przestałem Cię słuchać, bo skupiłem się na driftach z tyłu :) Keep up the good work!
Ja gram w totolotka dzieki AI i powiem wam, ze zakup 4090 zwrocil sie szybciej niz myslalem! Teraz to juz czysty zarobek... Ciagle wakacje i bujanie noga. Aktualnie mam 6 4090 grajacych w w totka i inne tego typu gry. Nie ma tygodnia bez wygranej... I bynajmniej nie sa to 3jki... :)))
Witam ponieważ nie znam się na komputerach to mam pytanko do ciebie czy płyta główna msi b85 g43 procesor Intel cor i5 4570 plus pamięć RAM ddr3 8gb Nada się do podstawowych gier typu ETS2 Roblox i tym podobnych Pozdrawiam serdecznie
Hej zlaslo zaczalem sie bawic tym programem i probowalem pobrac jakies inne wersje zeby obrazki nie wygladaly tak zle i przy convertowaniu jest blad co to moze powodowac? NMKD stable diffiusion
Cześć Łukasz masz może jakas rade na temat kodu 15. Złożyłem pc'ta i cały czas bootuje mi system do kodu 15 a potem działą normalnie ale jest tak za każdym razem :( Już nie wiem co mam robić, niby system chodzi ale długoooo sie odpala :( Mam asusa b650 e e do tego ramy dominator 2x16gb 6000mhz. Profil expo 1 nie pomaga, 2 tez nie w biosie :( Dzięki.
Myślę, o tym żeby dodać jakieś benchmarki Ai przy GPU - to jest dziedzina która się rozwija i warto wiedzieć jak te karty wypadają. Czy to będzie A1111 nie zdecydowałem. W idealnym świecie chciałbym, żeby to było coś co zadziała na każdym GPU.
Witam serdecznie. Mam pytanko. Planuje lekki upgrade komputera mojego syna. Planuje wymiane karty graficznej oraz procesora. Myślę o rx 7600 oraz r5 5600. Czy ograniczyć się do samej karty i np za rok wymienic procesor z plytą główną na am5? platforma r5 3600 rx 5600xt red devil powercolor 32 gb ram B450 GAMING PLUS MAX Pozdrawiam Serdecznie
ja bym zostawił jeszcze na dwa lata mniej więcej, posiadam u siebie rtx 4060 z r5 3600 z tą samą płytą i ramem. nie ma co robić upgrade bo jest wszystko perfekcyjnie pod względem bottlenecka a sam komputer odpala wszystkie gierki. Sam planuje za jakieś 2/3 lata wymianę całego komputera, oczywiście nie trzeba wymieniać budy czy zasilacza jeżeli jest w dobrym stanie. (przez dobre 2 lata miałem ten procesor z gtx 670, ale nie narzekałem jakoś bardzo bo głównie minecraft i csgo odpalałem)
Np ogólnego przeznaczenia LLM jak mixtral 8x7b jest lepszy od GPT-3.5 we wszystkim. Wyspecjalizowany LLM do kodowania jak wizard v1.1 34b jest porównywalny w kodowaniu do GPT-4 Co do obrazów to polecam Fooocus i modele sdxl np juggernout 6 , 7 czy ,8. Ten model jest x100 lepszy niż na filmie pokazany sd1.5.. masakra jak można polecać tak antyczny model .
Nie wiem dlaczego w Stable Diffusion po przełączeniu na Ai Implementation na ONNX dla kart AMD, nie mogę wybrać żadnego z modeli. Próbowałem konwertować modele na różne sposoby, bez żadnego rezultatu. Jakieś pomysły?
Cześć, Często wspominasz że "dzisiejszy odcinek sponsoruje firma..." jak to się odbywa? Ty piszesz do nich że chcesz zrobić coś a oni wysyłają Ci sprzęt? Może jakiś odcinek właśnie o kulisach nagrywania na UA-cam w dziedzinie elektroniki? Np skąd bierzesz sprzęt? Czy musisz go oddać? Albo co musisz zrobić żeby go nie oddawać? Itp. Itd.
Odswiezalbym ten film co pół roku, mega ciekawy temat. Pewnie dużo nowych narzędzi powstanie.
O panie, dobry materiał. Chętnie się pobawię lokalnymi AI.
TYLKO NIE zmieniaj historii
Łukasz, więcej takich filmów o AI!!! Ogromnie szanuje za tego AI benchmarka. Wydaje mi się że nikt takiego testu na yt nie zrobił.
Ale sztos. Zaczęło się w zasadzie rok temu od publicznego chata gpt a do dzisiaj tyle tego powstało 😊😊😊😊😊
Wypowiem się na temat Stable Diffusion na karcie AMD (rx 6650xt 8GB) z wykorzystaniem Automatic1111. Windows kompletnie odpada jeżeli ktoś planuje się tym bawić, testowałem rozwiązania takie jak wtyczka directml do bazowej wersji Automatic1111 i działało to przeciętnie - 1.2it/s przy obrazku 512x512. Maksimum przy którym nie wywalało błędu o braku VRAMu to było jakieś 640x768, a dodatkowym zastrzeżeniem było tutaj trzymanie się danego wymiaru, który musiał być podzielny przez 64 bo inaczej się wysypywało, więc odpadał jakikolwiek niestandardowy refine obrazka, a w dodatku prompt musiał być ograniczony do rozmiaru 75 bo takie ograniczenia zostały nałożone i nie było szans tego ominąć. Warto tu także wymienić to że upscaling obrazka odbywał się nie z wykorzystaniem GPU, a obliczenia przenoszone były na CPU i trwało to czasem nawet kilka minut. Było też inne rozwiązanie do niedawna promowane na blogu AMD, czyli pobranie pewnej wersji A1111 ze wsparciem dla ONNX w połączeniu z DirectML ale działało to trochę inaczej i zdecydowanie gorzej niż directml jako extension do bazowego A1111. Oba te rozwiązania wymagały transformacji modelu na format ONNX. Pierwszy z nich operuje na unet a drugi bodajże na modelu w formacie ONNX z rozszerzeniem .ckpt. Więc dochodzi jeszcze odpowiednia umiejętność konwersji między formatami, optymalizacji tego itd... Generalnie sporo zabawy żeby to w ogóle zaczęło działać i nie jest to tego warte na Windows. Stwierdziłem w pewnym momencie że nie ma możliwości żebym się tak męczył, więc wydzieliłem odpowiedni rozmiar dysku na partycję z Ubuntu, pobrałem rocm według zaleceń AMD i po odpowiednich drobnych modyfikacjach (podmiana identyfikatora karty na wspierany przez rocm - rx 6800 xt oraz wyłączenie secure boota, który blokował wykorzystanie sterowników w systemie) wszystko działa jak marzenie - 3.6it/s przy obrazku 512x512, 4x upscaling w dosłownie kilka sekund. Różnica jest kolosalna, a w dodatku można korzystać z pełnej palety funkcjonalności A1111, a wykorzystanie VRAM nawet przy generowaniu obrazka 1024x1024 nie przekroczyło 6.2GB i ani razu nie miałem problemu ze stabilnością tego wszystkiego.
Powiem szczerze że nigdy nie miałem takich problemów chociaż mam karte NV i to może robić różnice, próbowałeś dodać parametry startowe ? jak --api --lowvram --always-batch-cond-uncond --xformers --no-half-vae ?
Fakt że na windowsie demonem szybkości może to nie jest ale 1m 30sec average 7.52s/it 1024x768 i 1024x1024 z refinerem i esgran x4 Hires (na karcie 1050TI 8GB 4+4shared) dla SD 1.5 / 2
Dla SDXL polecam Fooocus, działa na 4GB ram pod windowsem więc pod linuxem powinno jeszcze szybciej, czas podobny jak dla SD 1.5 przy 2048x2048.
Tak, testowałem wiele parametrów startowych, które były polecane na wielu subredditach właśnie dla osób wykorzystujących te metody uruchamiania tego konkretnego narzędzia (A1111) na kartach AMD. Najważniejszym problemem tutaj jest niestety brak obsługi CUDA dla kart od czerwonych (ich technologia pozwalająca obsłużyć narzędzia z niej korzystające działa jedynie pod Linuxem) i trzeba próbować obchodzić to naokoło właśnie przez włączenie obsługi zoptymalizowanych modeli pod rozwiązania Microsoftu i zabawę z tym na wielu płaszczyznach żeby to działało tak jak powinno, a i tak mi się to nie udało w pełni i większość zadań była przerzucana z GPU na CPU i dlatego to tak wolno działało w większości przypadków. Być może właśnie są jakieś narzędzia które lepiej sobie z tym radzą, lub mają jakieś rozwiązania które po prostu działają, ale na tamten moment, gdy jeszcze próbowałem z tym działać na Windows, nie byłem w stanie znaleźć niczego sensownego na forach, a po przerzuceniu się na rocm widzę diametralną różnice w prędkości oraz stabilności, więc to jest jedyne rozwiązanie które poleciłbym komuś z układami od AMD. Szczerze mówiąc miałem do niedawna 1050 ti 4GB i kiedyś próbowałem generować za pomocą Stable Diffusion. W porównaniu do AMD karty NV działają od strzała i nic więcej nie trzeba robić, wystarczy mieć tylko narzędzie, model, wystarczająco VRAM i dobre parametry startowe. Nie wiem czy korzystałem z dzielonej pamięci, aby mieć dostęp do generowania czegoś większego, ale raczej nie, bo dość szybko docierałem do limitu pamięci. Zdecydowanie obczaję sobie tego Fooocus-a, ciekawe jakby to mogło działać z rocm. @@ephionis
Zmaslo kiedy ten windows vista?
Do dwóch tygodni temat powinien być zamknięty - czekam jeszcze na dogrywki od innych twórców i jeszcze kilka testów zostało 😀
@@ZMASLO Powodzenia :D
W końcu @@ZMASLO
Zmaslo kiedy E8400?
@@AdrianKiel było i lepiej nie przypominać o tym temacie....
Bardzo bardzo bardzo bardzo fajny odcinek ❤❤❤❤
Jestem głównym informatykiem w średniej fabryce i gpt dużo mi pomaga. Piszę budżety, odpowiada na e-maile, odpowiada na pytania odnośnie sieci, środowiska serwerowego, itp. Chętnie przetestuję to na swojej lokalnej maszynie :)
Przetestuje, dzięki za wspaniały materiał, zmaślok :D
WIęcej, więcej, więcej tego contentu!
Bawię się w generowanie obrazków - WOW. RTX 4090 można spoko wykorzystać do generowania naprawdę dobrej jakości obrazów i maks co mi zajmuje na obrazek to 23 sekundy
1. można połączyć kilka komputerów aby generować na jednym, szybciej i lepiej?
2. Czy są modele pracujące tylko na CPU + j.w. czyli połączenie kilku dla szybszego/lepszego efektu?
to jest pierwszy taki typ bez neta wiec tylko na karcie od nvidi
Jestem czynnym programistą i powiem Wam, że z jednej strony cieszę się na to jak rozwijają się narzędzia oparte o sieci neuronowe, z drugiej strony tempo tego rozwoju trochę mnie przeraża :D
ja chciałem zostać grafikiem i zacząłem coś robić w tym kierunku, nagle pojawiło się AI. Po prostu skaczę z radości na widok tego, że za kilka lat AI będzie generować lepsze obrazy niż ludzie i będę skazany na pracę w biedronce xD
@@HeadHunter-cu7yw Taki sam los czeka większość programistów, ale też większość zawodów .
@@tomaszstaron1233 zajebiście
@@tomaszstaron1233 tu się nie zgodzę. To nadal chatboty. Testowałem je wielokrotnie i dalekie są choćby umiejętności mida. Są dobrym narzędziem wspomagającym ale programisty nie zastąpią przez jeszcze parę ładnych lat :)
LMstudio też służy do lokalnego uruchamiania LLM i pod czatem wyświetla benchmark w tokenach na sekundę. U mnie aktualnie: od 0,6tok/s na modelu 72B Q5 (największy jaki udało mi się odpalić, zajmuje 56GB RAMu) do 3tok/s przy trochę mniejszych modelach. Wszystko to na GTX1050Ti 4GB, Ryzen 3600, 64GB RAMu, z offloadingiem 1 warstwy do GPU i kontekstem ustawionym zawsze na domyślne 2048.
Uuuu to już konkretny model odpaliłeś :D
Skynet powoli przejmuje komputery domowe.
Miłego wieczoru!
Używam już od dłuższego czasu stable diffiusion i powiem że mój model "wyuczył się" robić zajebiste cyberpunkowe i kosmiczne obrazy
Jedno z takich obrazów nam na profilowym na steam
WhisperGUI świetne, na pewno kiedyś tego użyję jak już będę po remoncie w domu i wezmę się za hobby (yt/stream/gry/tech etc) - mam nadzieję znaleźć też podobny soft ale działający w czasie rzeczywistym. Stability Matrix i NMKD Stable Diffusion świetnie nadadzą się do prostych projektów, w sumie to nawet na steamie używam profilowych zdjęć które generowały AI.
Zobacz program SpeechTranslate1.3.10 oparty też na whisperze i ma funkcję czasu rzeczywistego.
NMKD Stable Diffusion - nie ma już wersji z modelami. Ściągnąłem kilka dni temu, jest 3GB plik, ale modeli brak, inni też ściągali i też nie mają.
Dzięki za filmik. Nie wiedziałem, że jest to możliwe, a teraz na pewno skorzystam! 😃
Ciekawa sprawa z tym odczytywaniem plików. Fajnie by było jakby była możłiwość wrzucenia ustaw naszego prawa i zadawać mu pytania i żeby odpowiadał na podstawie tych ustaw ze wskazaniem źródeł :D
Wiecie może, czy istnieje już jakiś program A.I do tłumaczenia z automatu MANG na polski ??
@ZMASLO 15:02 folder "płyta z PS5" i "film ps5.mp4" czyżby się szykował nowy odcinek o ps5😏
Nie, to był stary filmik, dokładnie ten: ua-cam.com/video/HsENsKcF-6Y/v-deo.html
@@ZMASLO a szkoda myślałem że jakiś mini projekcik taki pc mini do gier
Super materiał! Dzięki! :)
Ja w pewnym sensie wykorzystuję lokalną sieć neuronową w postaci dodatku o nazwie... kurde nie pamiętam... w każdym razie dodatek do OBSa, współpracujący z osprzetem Elgato, a wchoidzacy w skład sterownika nVidia Studio i działający jedynie na kartach RTX. Co on daje? Otóż teoretycznie jakieś baery z dźwiękiem (ale nie mam mikrofonu od elgato), do czego ja go nie używam, ale przede wszystkim za pomoca algorytmów sieci neuronowych usuwa tło w bardzo skuteczny i dokładny sposób. Ptrymitywna wersja czegoś takiego jest wam pewnie znana z jakiegoś zooma, czy czegoś w tym styuku, ale to nie zawsze działa dobrze, czasami dziwnie ucina kawał głowy, czy podmienia część ubrania - a u mnie działą idelnie tak, jakbym miał green screena za plecami, co znacznie pomaga mi w prowadzeniu streamów, czy nagrywaniu treści na kanał, gdzie potrzebuję wrzucić siebie z czymś w tle. Wymaga jednak dobrego światła, ale nie jakiegoś wybitnego - u mnei to nawet nie jest profesjonalny softbox, a zwykła lapma z IKEI, z tym, ze z dużo mocniejszą żarówką ledową (bodajże 14,5W). Da sie bawić ustawieniami, ale ja jestem laikiem i mam po prostu ustawioną wysoką jakość a reszta domyślnie.
🤩czyli już wiem, że weekend zleci na próbie uruchomienia tego na VM z VGA passthrough na Linuxie w piwnicy...no Dzięki😅
Hmm... warto spróbować. Mam nadzieję, że moja 3060 w wersji 12GB sobie sprawnie poradzi:)
Ale mam inne pytanie - czy znasz drogi Łukaszu jaki dodatek do takiego modelu, czy ogólnei jakiś ciekawy program, współpracujący z jakimś asystentem głosowym - tak aby mi takie AI odpowiedziało nei tylko tekstem, ale i odczytało go na głos. Albo ogólnie coś, co po prostu czyta teksty z ekranu na głos.
Raczej będzie ciężko
@@davydgorski5051 nie musi być lekko, byle działało
@@nihilistycznyateista oobabooga webgui plus dodatki. whisper do rozpoznawania mowy, elevenlabs do generowania audio (czytania tekstu). Elevenlabs jest płatny, ale są też jakieś darmowe odpowiedniki, szukaj tts (text to speech). Czy ogarniają język polski - nie mam pojęcia.
Siemka, zainteresuj się burn w RUST, bazują na webgpu które tłumaczy na VULKAN, METAL czy Dirext12 np. Ogólnie biblioteka na razie w fazie alpha ale wiele rzeczy już działa naprawdę świetnie.
Jest to co prawda coś na zasadzie PyTorch czyli służy naukowcom czy devom, ale mogę ci coś wyskrobać na testy początkowo pod linux'a a przy większej chęci na Window'a, choć osobiście nie mam tego systemu w domu, korzystam tylko z Linux'a na co dzień do pracy i Mac'a rekreacyjnie.
PS GUI przyszłościowo tez była by szansa pod benchmark ogarnąć w Tauri np. A w sumie rozwijając myśl co daje biblioteka burn w porównaniu do pytorch na której to bazuje niemal wszystko to to że zbudowany model od 0 można puścić na CPU, GPU
Hej, czy podlinkujesz jakiś guide jak zainstalować na linux któreś z tych usług o których mówi Łukasz w klipie? Używam Minta 21.2.
@@piotrgo9939 Niestety linki nie przechodzą albo Łukasz usunął mój komentarz :kekw: Więc nie jestem w stanie ci nic wysłać. Drugi raz komentarza nie chce mi się pisać więc tylko napisze że projekt plus github i na githubie jest zawsze instrukcja co i jak.
Jak generujesz napisy używając AI to musisz popracować nad dykcją. Bo potem masz taki kwiatek jak: "usług w murze". W 2:44
Pięknie dziękuję. Fajnie objaśniłeś temat dla lajkoników. 👍
Powiadasz, że na starszym kompie idzie pogadać na czasie GPT? U mnie koboldcpp się zamyka gdy ładuję większość modeli. Mam Win 10, procesor Intel Xeon E3-1246 v3, grafikę GF RTX 2060 super. Mógłbyś zrobić jakiś film który szerzej by omawiał ten program? Jest tam trochę do ustawiania i może o czymś istotnym nie wspomniałeś w tym filmie? Zauważyłem np, że część modeli działa ale tylko jak ustawię dla grafiki presety Vulkan w nazwie. Pozostałe presety nie działają a program się zamyka natychmiast po kliknięciu w launch. A może trzeba dobrać odpowiedni model? Jest tych oznaczeń modeli co nie miara i trudno się w tym połapać. Wiem tylko, że im wyższa cyferka przy q tym mocniejszy sprzęt potrzebny. Tylko nie każdy model ma podaną literkę q. Te modele które działają, to akurat nie trafiłem na taki z językiem polskim. Bywa, że zamiast odpowiadać sypią jakimiś tekstami zupełnie haotycznymi, wygląda to czasem jak podsumowanie naszej rozmowy podane w dwóch językach plus znaki specjalne.
Albo bot się zapętli i odpowiada niemal to samo tylko w różnych konfiguracjach, choć moje pytania są już inne. Zupełnie inaczej to wygląda jak np. na stronie czatkropkaai.
Witaj. Dzięki za ten film. Czy znasz może "podobne" programy Ai do tworzenia prostych animacji? Pozdrawiam.
Ja od siebie mogę polecić RVC-GUI, który pozwala powiedzieć dowolną rzecz dowolnym głosem (prawie dowolnym głosem bo najpierw ktoś musi zrobić model RVC do tego głosu bo samemu trudno taki zrobić).
Wspominałeś o pamięci VRAM, że jest tutaj istotna, w takim razie jak rozumiem lepiej jest kupić przy składaniu kompa RTX 3060 zamiast nowszej karty RTX 4060? Czy może RTX 4060 ma jakieś przewagi i finalnie lepiej będzie sobie radził z algorytmami AI? Z góry dzięki za odpowiedź, pozdrawiam! :)
Dziękuję za świetny, wartościowy film!
poprosił bym o instrukcje z kobold bo ta strona jest chaotyczna, instrukcje nie jasne. błądzę i błądzę i cholera wie czy dobrze robie
Wszytko pięknie i ładnie, bajery, buzery itp. Wszyscy yutuberzy technologiczni i nie tylko opowiadają jakie to nie jest fajne, jakie to daje możliwości, jak to zrobić w domowym zaciszu. Ale jakoś nie widzę materiałów o negtywnych tego aspektach, a takowe niestyty są. I w miarę jak sztuczna inteligencja będzie rozwijana, implementowana w coraz większej ilości urządzeń i oprogramowaniu i stanie się nieodłączną częścią życia człowieka, dobrze byłoby, aby informować ludzi nie tylko o pozytywnych jak i o negatywnych cechach AI.
Tak, masz rację w zupełności, ale ten filmiki jest trochę nie o tym. Bo ten film ma pokazać jak to uruchomić u siebie i co można z tym zrobić, a nie mówię tu ogólnie o tym jakie pozytywy czy negatywy to niesie dla świata. To trochę tak jak z młotkiem można go użyć do wbijania gwoździ w swoich meblach albo wybić komuś szybę.
Ja bym chciał AI działające w tle w Windowsie, monitorujące pracę systemu i wszystkie jego procesy, tak aby wykrywał i monitorował błędy, oraz pomagał lub rozwiązywał by problemy z działaniem systemu i aplikacji. Apka czy gra się wywala to AI informuje nas co to spowodowało i pyta czy rozwiązać problem oraz mówi jak to robi. Coś co pomaga optymalizować system lub może powiedzieć co zmienić w konfiguracji sprzętowej aby wyciągnąć jeszcze więcej z obecnego sprzętu ale żeby znało też granice, że np. RAM-u nie ma sensu więcej ładować albo mocniejsze GPU tu nic nie zmieni itp.
Super materiał
@ZMASLO pytanie jak uważasz ma to sens na rx580?
Mam rx590 i nie polecam. Zastanawiam się nad 4060 Ti 16GB żeby lepsze modele załadować. Na AMD więcej kombinowania i wydajnościowo kiepsko.
@@Mariousz1 no zauważyłem i podobne podejście mam teraz
Nie mogę się doczekać kiedy będzie retro, komp ze śmietnika czy vista ;)
Może w przyszłości jakiś materiał o home lab serwerze pod AI?
Od kilku tygodni twoi widzowie czekają na film z linux gentoo
Cześć Zmaslo chciałbym zapytać czy była by możliwość abyś nagrał odcinek lub po prostu sprawdził ile zajmuje czasu generowanie tych obrazków na karcie K80?
Co do programu Whisper Gui, to jaki język na wyjściu dostaniesz jeśli ustawisz na wejściu rozpoznawanie auto lub podasz jakiś język a odznaczysz j.angielski na wyjściu?
Chodzi mi o to, że nie ma ten program opcji wyboru na jaki język ma być tłumaczony materiał. Tobie stworzył napisy pl przy pokazanym ustawieniu ale to jest transkrypcja a nie tłumaczenie. Z jakiego źródła pobierałeś program? W każdej z wersji na jaką trafiłem virustotal wykrył w pliku exe jakiegoś wirusa lub kilka sztuk. Są to fałszywe alerty?
Z tego linka co podałeś w opisie też wykrył wirusy, sztuk 2.
No dobra, generowanie obrazków z tekstu, a co jeśli chcielibyśmy na czymś bazować załadować jakiś inny obrazek i go zmodyfikować lub wykorzystać twarze do edycji i modyfikacji i wrzuceniu w jakieś "nowe realia". Jak ma się sprawa generowania video?
StabilityMatrix ma wbudowane img2video, ale to bardziej gif a nie wideo. Repozytorium Fooocus dostępne w aplikacji pozwala na takie rzeczy związane z twarzą.
Jak się nazywa ten model Ai który potrafi wygenerować te klucze?
A co tam trzeba jeszcze ładować do pozostałych pól w programie koboldcpp np. pole lora itd? A jeśli w tym wypadku nic a czasem trzeba to w jakich wypadkach trzeba?
U mnie na 9900K z 6700XT NMKD obciąża tylko procesor, karta śpi a generowanie trwa wieki. Jak kliknie AI implementations - for AMD GPUs to nie mogę wtedy wybrać modelname - brak wyboru stablediffusion. Jak ten program ogarnać żeby generowało na 6700xt a nie na procku?
Pod Windows na AMD jest w chwili obecnej nie najlepiej, niby jest ten DIrectML od MS ale działa to bardzo słabo. Jak chcesz się pobawić w Stable Difusion na poważnie to polecam Linuksa, tam to działa znacznie lepiej, jego uruchomienie to zaledwie kilka krótkich poleceń. Nawiasem mówiąc polecam ComfyUI, do tworzenia obrazów, masz mnóstwo "workflow" od społeczności, a to znacznie ułatwia start.
ZMASLO trochę za wcześnie wykonałeś ten filmik, 2 dni temu został wypuszczony na światło dzienne projekt ZLUDA który pozwala uruchomić programy oparte o biblioteki cuda na kartach amd bez modyfikacji programu
Ten chat RTX będzie działać na plikach tekstowych czy tylko na tekście? Bo jeżeli na plikach to czuję potencjał do szybkiego tłumaczenia niektórych gier. Sam próbowałem tłumaczyć grę przy użyciu GPT i faktycznie nieźle szło ale ten non stop przerywał, gubił wątek lub zmieniał język na jakiś inny niezwiązany z tematem. Dodatkowo ilość linijek jakie może przerobić jest ograniczona. A jest model wyspecjalizowany w tłumaczeniu? Może wrócę do tłumaczenia? Niesiesz czy własne AI ma limit znaków do przyjęcia?
Z tego co rozmawiałem z inżynierami na CES to mówili o plikach tekstowych. Limit długości takiego pliku na pewno będzie bo póki co chyba każde Ai ma problem z bardzo dużą ilością tekstu. Myślę, że jeśli podzielić by teskt na kawałki może się udać taki proces. Trzeba poczekać aż wyjdzie i sprawdzić. Więcej o tym info w opisie!
@@ZMASLO I tak daje to szansę na wiarę łatwe i szybkie tłumaczenie gier które normalnie by tłumaczenia się nigdy nie doczekały. 👍
@@BRX_2137Świetna sprawa 😊
Jestem pod wrażeniem, jak to AI się rozwinęło przez tyle czasu. Na początku 2023 roku byłem do tego sceptycznie nastawiony, bo robił to... żle w większości sytuacji (a przynajmniej u mnie). A teraz nie dość, że to jest prostsze i lżejsze do generowania, to jeszcze wygląda to znacznie lepiej. Jak tylko będę miał czas, to zabawię się z tym raz jeszcze. :)
Mega, osiagnales mega fajny poziom, jestem zachwycony, mozesz mi podlinkowac twojego githuba na priv ?
Jak wrzucić bazę danych do tego Cobolt? Da radę nauczyć go obsługi strony i zarządzanie sklepem?
Jak uruchomić stable diffusion na Debianie? Mam kartę AMD i co nie zrobię to torch się pluje że nie może użyć karty graficznej
Jaki masz model karty graficznej?
@@raven1439 AMD 7900 XT, ale chyba wiem w czym leżał problem. Próbowałem uruchomić na Pythonie 3.11 a musi być 3.10 żeby Torch działał.
Co myślisz o języku RUST ma to przyszłość?
Siema zmaslo mam pytanie zrobisz jeszcze film o hackintoshu a konkretnie czy to się opłaca?
A NV Tesla K80 24GB VRAM się nada?
Mam 3 sztuki w maszynach do Boinc.
Ciekawy film. Masz ode mnie suba. 👍
Zmaslo ja chce taką koszulkę , skąd masz.
Wiesz może jak zrobić dual boot na rog ally asus?😅
Polecacie jakiś model do KoboldCpp przeznaczony do tłumaczenia tekstu z/na angielski?
fajny t-shirt, też chcę :P
Mam już pewne doświadczenie z tymi darmowymi czatami offline i jak do tej pory trafiam na samych imbecyli a nie na normalną AI. To zupełnie inny poziom jak np. czat AI online. Trudno jest uzyskać jakąkolwiek pomoc. Co z tego, że mogę offline gadać bez końca jak bot się zaplącze i w kółko to samo gada albo nie pamięta co napisał zdanie wcześniej. lub nie umie policzyć do 30 itd.
Dobrze że edukujesz ludzi, sam bawię się AI/ML od pól roku stablediffusion, whisper, xtts, wav2lip, xtts-webui, waifu-gui i masę innych, wszystko na gtx 1660S ;) bedę kupował 4070TIS. Niestety nvidia jak powiedziałeś góruje bezapelacyjnie w tym temacie. Co można wygenerować offline nie wygenerujesz online dużo ograniczeń i wszystko zostaje na ich serwerach.
zrobisz taki poradnik ale na macOS ?
o ile dobrze pamiętam, to 1660 Super ma 6GB VRAM'u a nie 8GB
ja jako użytkownik gtx 1660ti powiem że da się odpalić stable diffusion tylko trzeba wpisać parametr startowy odpowiadający za pominięcie sprawdzania vram ale jaki on jest to nie powiem bo nie pamiętam
nic nie zmieniałem a na 1060 działa doskonale :)
@@marcindj3411 a bo to różnie bywa ja musiałem pominąć sprawdzanie vram nwm jak na dzisiejszy dzień to wyglada
Ooo, stary. Właśnie ostatnio szukałem czegoś o takiej tematyce.
SGUI nie polecam, program padł po wygenerowaniu paru obrazków na 4080. Mam nadzieje, ze nic nie uszkodził...
Niezwykle ciekawy materiał, dzięki! Jeśli mogę coś polecić, to nie puszczaj na telewizorze za sobą filmików, bo rozpraszają. Sam kilka razy złapałem się na tym, że przestałem Cię słuchać, bo skupiłem się na driftach z tyłu :) Keep up the good work!
Ja gram w totolotka dzieki AI i powiem wam, ze zakup 4090 zwrocil sie szybciej niz myslalem! Teraz to juz czysty zarobek... Ciagle wakacje i bujanie noga. Aktualnie mam 6 4090 grajacych w w totka i inne tego typu gry. Nie ma tygodnia bez wygranej... I bynajmniej nie sa to 3jki... :)))
ciekawe :D
wow nie wiedzialem ze AI to wrozka i przepowiada liczby 🤣🤣🤣
Witam ponieważ nie znam się na komputerach to mam pytanko do ciebie czy płyta główna msi b85 g43 procesor Intel cor i5 4570 plus pamięć RAM ddr3 8gb Nada się do podstawowych gier typu ETS2 Roblox i tym podobnych Pozdrawiam serdecznie
Hej zlaslo zaczalem sie bawic tym programem i probowalem pobrac jakies inne wersje zeby obrazki nie wygladaly tak zle i przy convertowaniu jest blad co to moze powodowac? NMKD stable diffiusion
hm.. Stable Diffusion rozpakowuje się już 3 godzinę a przewidywany czas to 22h :/ coś to dziwne jakieś
Czy w programie Whisper GUI wygenerowanie napisów pl do filmu z j. angielskim da taki sam efekt, czy lepszy jak napisy generowane na youtube ?
O niebo lepszy
@@sebastianstec Na win 7 wywala błąd i się nawet nie uruchamia.
Chętnie przejrzy historię Twojego przeglądania
Jest coś takiego do translacji dźwięku?
super film
Zrobisz pełny film o windows server? 🖥
Zmaslo, daj poradnik jak i jakich programów można użyć do rozbierania panienek!
Żadnych. Wystarczy dobra bajera (albo gruby portfel).
ZMASLO widziales chuwi minibook x ? smieszny maly laptop z intel celeron N100
4c\4t 3.4ghz
Tak fajny sprzęt używamy takiego
Będzie 200k special?
Cześć Łukasz masz może jakas rade na temat kodu 15. Złożyłem pc'ta i cały czas bootuje mi system do kodu 15 a potem działą normalnie ale jest tak za każdym razem :( Już nie wiem co mam robić, niby system chodzi ale długoooo sie odpala :( Mam asusa b650 e e do tego ramy dominator 2x16gb 6000mhz. Profil expo 1 nie pomaga, 2 tez nie w biosie :(
Dzięki.
Czy można taki czat szkolić ? Bardzo proszę od odpowiedz .
Czy Stability Matrix wykorzysta kilka kart graficznych, jeśli mamy np. 3x RTX3090 ?
Czy są jakieś bazy danych którymi uczymi i aktualizujemy to AI?
Skoro i tak masz automatic1111 to może możesz dodać tabelkę przy recenzjach dla wybranego przez siebie obrazka w 512x512 i 1024x1024? :)
Myślę, o tym żeby dodać jakieś benchmarki Ai przy GPU - to jest dziedzina która się rozwija i warto wiedzieć jak te karty wypadają. Czy to będzie A1111 nie zdecydowałem. W idealnym świecie chciałbym, żeby to było coś co zadziała na każdym GPU.
Adrian Kilar odrobinę szybciej hah
(tak, wiem że jego film jest mocno inny but still)
Tak, oglądam jego filmy od czasu do czasu. Widać, że jest mocno w ten temat wkręcony i super, bo to bardzo ciekawy temat 😀
Który model polecisz do tego Kobolda? żeby był jak najbardziej rozbudowany a przy tym praktycznie niczym nie ograniczany
Super materiał, dzięki!
Czy z gf 230mx 2GB jest sens w to wchodzić?
Witam serdecznie. Mam pytanko. Planuje lekki upgrade komputera mojego syna. Planuje wymiane karty graficznej oraz procesora.
Myślę o rx 7600 oraz r5 5600. Czy ograniczyć się do samej karty i np za rok wymienic procesor z plytą główną na am5?
platforma
r5 3600
rx 5600xt red devil powercolor
32 gb ram
B450 GAMING PLUS MAX
Pozdrawiam Serdecznie
ja bym zostawił jeszcze na dwa lata mniej więcej, posiadam u siebie rtx 4060 z r5 3600 z tą samą płytą i ramem. nie ma co robić upgrade bo jest wszystko perfekcyjnie pod względem bottlenecka a sam komputer odpala wszystkie gierki. Sam planuje za jakieś 2/3 lata wymianę całego komputera, oczywiście nie trzeba wymieniać budy czy zasilacza jeżeli jest w dobrym stanie. (przez dobre 2 lata miałem ten procesor z gtx 670, ale nie narzekałem jakoś bardzo bo głównie minecraft i csgo odpalałem)
a masz coś do tłumaczenia napisów do filmów? :P
Są tylko musisz zapłacić.
nie działa mi instalacja modeli, przy każdym mam że jest niekompletny
A do jakiego AI to jest porównywalne np. gpt 1,gpt 2,gpt 3,gpt4,gpt 4 turbo tak samo z generatorem obrazów do czego to jest podobne
zależy jaki model bierzesz
Np ogólnego przeznaczenia LLM jak mixtral 8x7b jest lepszy od GPT-3.5 we wszystkim.
Wyspecjalizowany LLM do kodowania jak wizard v1.1 34b jest porównywalny w kodowaniu do GPT-4
Co do obrazów to polecam Fooocus i modele sdxl np juggernout 6 , 7 czy ,8.
Ten model jest x100 lepszy niż na filmie pokazany sd1.5.. masakra jak można polecać tak antyczny model .
@@mirek190 Bo ja wiem, do testowania prędkości generowania sd1.5 nadal jest ok. Ogrom modeli nadal bazuje na 1.5.
Modele oparte na sd 1.5 sa mocno ograniczone i nikt wiekszy z tworcow juz nie robi takich modeli.
Wszyscy poszli na sdxl.@@kilosera
1:55 już cue club miało bardziej zaawansowane ai gra o bilardzie z wirtualnym czatem z komputerem było bardziej zaawasnowane z roku 2000
Nie wiem dlaczego w Stable Diffusion po przełączeniu na Ai Implementation na ONNX dla kart AMD, nie mogę wybrać żadnego z modeli. Próbowałem konwertować modele na różne sposoby, bez żadnego rezultatu.
Jakieś pomysły?
Mam to samo, rozwiązałeś problem?
Cześć,
Często wspominasz że "dzisiejszy odcinek sponsoruje firma..." jak to się odbywa? Ty piszesz do nich że chcesz zrobić coś a oni wysyłają Ci sprzęt?
Może jakiś odcinek właśnie o kulisach nagrywania na UA-cam w dziedzinie elektroniki?
Np skąd bierzesz sprzęt?
Czy musisz go oddać?
Albo co musisz zrobić żeby go nie oddawać?
Itp. Itd.
Hej zmaslo kiedy kolejne gotowanie na karcie graficznej?
Jaka to dokładnie karta graficzna z nvidia rtx 4070 fe?