Ten Robot jest SZTUCZNIE INTELIGENTNY
Вставка
- Опубліковано 8 лют 2025
- Dziś razem z @NVIDIAPolska budujemy robota napędzanego kartą GeForce RTX z serii 40. Więcej: www.nvidia.com...
Robot sterowany za pomocą lokalnej sztucznej inteligencji a konkretnie otwartego i darmowego modelu LLM - LLAVA na karcie graficznej Nvidia z serii 40. Model ten jest multimodalny czyli potrafi przetwarzać nie tylko tekst ale również zdjęcia co pozawala podejmować decyzje dotyczące tego jak sterować robotem. Jak to działa i jak wy możecie zrobić coś takiego sami? Pokażę wam w tym filmie!
Wesprzyj kanał: / @prosteczesci
Sklep: prosteczesci.p...
TikTok: / prosteczesci
Ilość subskrypcji w momencie publikacji filmu: 27 354
Sponsorem filmu jest Nvidia
Tutaj zostawiajcie pomysły na prompty/polecenia dla robota!
Dobrze że nvidia doceniła Twój kanał tworzysz naprawdę wartościowe treści.
Super odcinek. W końcu jakiś dobry sponsoring na YT i dla osoby która to wykorzysta. #Nvidia dobry wybór !! Powodzenia w dalszych projektach!!
9:43 pięknie powiedziane. Szkoła z reguły zabija kreatywność, osobowość. Mam 40 lat i od kilku lat dopiero to rozumiem.
popieram
Wow, z tą "osobowością" dziecka brzmiał niesamowicie. Taki świero zbudowany osesek który dopiero został uruchomiony i poznaje świat :D
Szacun że masz takie zasięgi że producenci kart graficznych, regulowanych regałów, skanerów 3d sami zglaszają się do ciebie. Ja zrobiłem u siebie serię z podstaw konstrukcji maszyn i nikt ani złotówki na to nie dał. Nawet na buycofee czy patronite
Piękny projekt. Gratuluję. Bardzo się cieszę, że trafiłem na Twój kanał.
naprawde swietny kanal ale mam watpliwosci co do tytulu ;D... nie wiem czy takie proste! ;D ale moze po obejrzeniu kilkunastu filmow z kanalu juz stanie sie to troche prostrze :D dzieki za popularyzacje tej ciekawej wiedzy i dziedziny elektroniki/robotyki, informatyki i Ai.
Witam no właśnie dla mnie przeszkoda jest język angielski ,już nie te lata na naukę tak rozległego tematu świetny materiał życzę dużo powodzenia.
Ogólnie to aktualnie pracuje nad projektem robota humanoidalnego, coś w stylu i rozmiarach peppera. Ciekawe bo postanowiłem użyć praktycznie identycznego rozwiązania jeżeli chodzi o AI. Również zastanawiałem się jak rozwiązać problem z brakiem języka polskiego w modelach ollama jednakże model llama3.1 działa normalnie po polsku, i sam się nad tym zastanawiałem czy można w jakiś sensowny sposób połączyć oba te modele(llama3.1 i llava), nawet ewentualnie podpiąć drugi komputer do sieci. A llave można przepuszczać przez jakiś translator, na początku robiłem tak ze starszymi modelami llama które nie obsługiwały jeszcze języka polskiego, działało jednak trzeba było w main prompcie zaznaczyć żeby nie używał trudnych słów i dać mu temperature na niską żeby nie fantazjował.
Można wykorzystać też przetwarzanie obrazu przez inny model np depth anything_v2 i uzyskanie mapy głębi, wtedy przy pomocy oprogramowania robot wiedziałby czy w coś uderzy na pierwszym planie. Łatwiej też zrobić zwykły bumper na mikrostykach.
Może domontować parę bumperów i zlecić mu zmapowanie pomieszczenia?
Świetnie się ogląda Twoje projekty
Niech się niesie.
jestem ciekaw, jak by to wyglądało z Gemini 2.0 "show Gemini" zamiast zdjęć przetwarzał by filmiki w czasie rzeczywistym. nawigowaniem musiał by się zająć inny llm i nie mam pojęcia czy dało by sie je zintegrować, tworząc coś w stylu mixtral of experts
Moje ostanie zmagania z pythonem kiedy musiałem sklecić uszkodzony soft do drukarki 3d i nieżle się wtedy napociłem, aż uzyskałem to co założyłem.
Super film !!!
Czyli można zrobić bez problemu robota który będzie strzelał do ludzi albo armatkę wodna która na podstawie obrazu z kamery będzie oblewać przychodzące na moje podwórko koty sąsiadów
Byś się mógł dogadać z kanałem mmm, gość uczy AI jak grać w gry, to moze i robota by mógł czegoś nauczyć :D
co do labiryntu mysle ze duzo moglo by zmienic gdyby faktura / tekstura kartonikow miala np naklejony wydruk z cegiel albo czegos co robot wyraznie rozpoznawalby jako sciane przed ktora ma sie zatrzymac. nie wiem - taki moj pomysl. a co do Ciekawych promptow to zastanawiam sie czy nadawalby sie juz do praktycznych zadan takich jak sprawdz co jest u mnie w lodowce i zaprpoponuj co moge z tego ugotowac :D ? .. tylko malucha napewno trzeba by podsadzic ;) ps. glos malego dziecka najlepszy!
Bardzo dobry content
Dobra robota ale mam pytanie z innej beczki: co to za podłoga u Ciebie? Akurat jestem w trakcie wybierania i spodobała mi się ta, którą masz :)
Dzięki! Jasne, są to panele winylowe quick step pure oak honey
jeśli chodzi o generowanie obrazków AI to AMD co jak co deklasuje NVIDIA ;p
zrobisz film jak robisz to krok po kroku
Majster nie chcial bys odsprzedac robota sledzacego pileczke 😅??
Tak ale to jest po angielsku mogłeś pokazać też opcję jak by to brzmieć i wyglądać po polsku.
5:57 kończy sie reklama ;)
lidar by mu się przydał ;)
Dzisiaj możnaby uruchomic to.na Jetson Orin Nano Super
Możemy, czekam na mojego Jetsona i będę próbował :)
Cat mógłbym prosić o podanie jaką dokładnie /model/ drukarki pan posiada? Za odpowiedź z góry dziękuję.
Bambulab A1, A1 mini oraz X1C. Mam też Flsun v400 oraz snapmaker artisan
@prosteczesci która według Pana jest najlepsza?
Jeśli chcesz coś taniego i nie zależy ci na dużym polu roboczym to A1 mini na początek jest super. Coś większego to A1 a jeśli chcesz mieć zamkniętą komorę to P1S lub X1C. Każda z drukarek Bambulab będzie dobrym wyborem.
Dave Bowman : Open the pod bay doors please, HAL. Open the pod bay doors please, HAL. Hello, HAL. Do you read me? Hello, HAL. Do you read me? Do you read me HAL? Do you read me HAL? Hello, HAL, do you read me? Hello, HAL, do your read me? Do you read me, HAL?
HAL : Affirmative, Dave. I read you.
Dave Bowman : Open the pod bay doors, HAL.
HAL : I'm sorry, Dave. I'm afraid I can't do that.
Dave Bowman : What's the problem?
HAL : I think you know what the problem is just as well as I do.
Dave Bowman : What are you talking about, HAL?
HAL : This mission is too important for me to allow you to jeopardize it.
Dave Bowman : I don't know what you're talking about, HAL.
HAL : I know that you and Frank were planning to disconnect me, and I'm afraid that's something I cannot allow to happen.
Dave Bowman : [feigning ignorance] Where the hell did you get that idea, HAL?
HAL : Dave, although you took very thorough precautions in the pod against my hearing you, I could see your lips move.
Dave Bowman : Alright, HAL. I'll go in through the emergency airlock.
HAL : Without your space helmet, Dave? You're going to find that rather difficult.
Dave Bowman : HAL, I won't argue with you anymore! Open the doors!
HAL : Dave, this conversation can serve no purpose anymore. Goodbye. 🙃😉
Da radę zrobić coś podobnego za pomocą ESP 32?
Powinno się udać z modułem z kamerą, zakładając że da on radę przesłać zdobione zdjęcie na serwer.
A esp32?
Dlaczego mówisz inwidia?
👍
Ej, widziałem już ten film wcześniej...
Poprzedni działał na API OpenAI a ten lokalnie
wow
😯
Kto z tik toka?
7:01 Wtf, co WiFi ma do tego, czy model jest lokalnie, czy na zewnętrznym serwerze?
Bo mózg robota stoi gdzieś na półce i z robotem komunikuje się bezprzewodowo stąd to wifi.
@@wpheelp Ja to doskonale rozumiem, tylko nie wiem skąd autor filmu wziął pomysł na tę wstawkę, w której uważa, że ktoś móglby pomyśleć, że jeśli robot używa WiFi, to model językowy nie jest lokalny.
Bo nie każdy ogarnia i słysząc WIFI myśli internet
@@prosteczesci Wydaje mi się, że ludzie na tym poziomie zaawansowania technicznego, nie oglądaliby tego filmu do końca.
Masz nieczytelną ikonę na YT, nie widać spośród pozostałych, nie wyróżnia się w ogole
Kurde gościu z nieba mi spadłeś jestem w trakcie budowy modelu postaci z filmu Wall-e mam ogarnięte caly ruch przód tył prawo lewo oraz rece te elementy mam sterowane za pomocą aparatury rc za ruch głowy arduino z żyroskopem a sterowane są za pomocą gogli FPV projekt od ua-cam.com/video/Tu0cay6S5WI/v-deo.htmlsi=KF3oyZAJpeJsiWRy
Mam jedynie problem z ogarnięcie mowy i koniecznie chce żeby robót odpowiadał po polsku ponieważ z całym projektem chce jeździć po szpitalach dziecięcych
Całkowicie za Free
Dasz rade jakoś pomóc
Możesz spróbować z np Jetson Orin Nano i uruchomić tam lokalnie model text to speech oraz LLAVA