- 29
- 146 695
Herding Electrons
United States
Приєднався 24 лип 2020
Український Радіотехнічний. Навчально-розважальний канал.
Відео
#32 - Дрони та камери
Переглядів 1,5 тис.21 день тому
Моя тестова платформа для експериментів із "штучним інтелектом" для дронів. Про сам "штучний інтелект" буде у наступному епізоді.
#31 - ШІ(AI)- для дрона. Дев. платформа на базі BeagleY-AI. Тести продуктивності з EdgeAI.
Переглядів 1,9 тис.4 місяці тому
ШІ(AI) для дрона. Дев. платформа на баз BeagleY-AI. Тести продуктивност з EdgeAI.
#30 - Нова плата від Beagleboard для дрона, керованого ШІ : BeagleY-AI портування PX4 AutoPilot.
Переглядів 2,2 тис.5 місяців тому
Нова плата від Beagleboard для дрона, керованого ШІ : BeagleY-AI портування PX4 AutoPilot.
#29 - Sound Blaster E5 - "безбатарейна" модифікація.
Переглядів 1,5 тис.Рік тому
Велике дякую глядачам каналу за ідеї та підказки :)
#28 - ШІ(AI) для дрона. Дев. платформа. Робоча станція. Симулятор польотів.
Переглядів 17 тис.Рік тому
00:00 - Заставка. 01:18 - Девелоперська платформа від ТІ. 09:34 - ТІ Linux середовище. 15:56 - Прискорювач TESLA для тренування ШІ. 23:06 - Робоча станція DELL. 26:21 - Про політний симулятор. 31:15 - Приклади симуляцій польотів. Unreal Engine: www.unrealengine.com/en-US/ue-on-github AirSim від Майкрософт: github.com/microsoft/AirSim Форк AirSim від Codex Laboratories LLC : github.com/CodexLabs...
#27 - ШІ(AI) для дрона. Передісторія. Ознайомча частина. Демонстрації.
Переглядів 100 тис.Рік тому
Матеріали по темі Документація на Beaglebone AI-64: docs.beagleboard.org/latest/boards/beaglebone/ai-64/ Git репозиторій для Beaglebone AI-64: git.beagleboard.org/beagleboard/beaglebone-ai-64 Форум про Beaglebone AI-64: forum.beagleboard.org/tag/bbai64 Даташит від ТІ на TDA4VM SOC: www.ti.com/lit/gpn/tda4vm Технічна документація (Technical Reference Manual) від ТІ на TDA4VM SOC: www.ti.com/lit/...
#26 - Ремонт APC Back-UPS ES550, не заряджається батарея.
Переглядів 880Рік тому
Огляд, аналіз ремонт зарядного пристрою в APC UPS із розповсюдженою проблемою. Ви можете завантажити схему для Micro-Cap за посиланням: r3z3t.org/UPS_APC/ups_apc_start.cir . Додаток Micro-Cap можна завантажити із сайту команії Spectrum Software безкоштовно: www.spectrum-soft.com/index.shtm
#25 - Плата GRBL/grblHAL на stm32f401cc замість gd32f303cc.
Переглядів 1,2 тис.2 роки тому
Тут я розповідаю, як я замінив китайський клон gd32 на оригінал stm32.
#24 - GRBL, grblHAL та нашестя клонів
Переглядів 9552 роки тому
У цьому відео я розповідаю про свої пригоди із GRBL, grblHAL та китайськими клонами чіпів ST Microelectronics, STM32, а саме чіпами від GigaDevice GD32.
#23 - Apple iMac 2017. Недорого і круто!
Переглядів 1,2 тис.2 роки тому
У цьому відео я розкажу як я перетворив недорогий Apple компютер з eBay на досить потужну робочу машину.
#22 - Мультиметр vs Мультиметр. А яка ТАМ різниця?!
Переглядів 7483 роки тому
Чим відрізняються подібн ззовн мультиметри всередині.
#21 - Заміна дисплею у настільному мультиметрі високої точності.
Переглядів 2443 роки тому
Заміна дисплею у настільному мультиметр високої точності.
#19 - Старовинний Rb-атомний годинник на вісім клієнтів, ч.2.
Переглядів 3153 роки тому
Кілька базових кроків по перевірц рубідієвого осцилятора.
#18 - Святкова ялинка для домашньої лабораторії.
Переглядів 3913 роки тому
#18 - Святкова ялинка для домашньої лабораторії.
#17 - Старовинний Rb-атомний годинник на вісім клієнтів, ч.1.
Переглядів 2823 роки тому
#17 - Старовинний Rb-атомний годинник на вісім клієнтів, ч.1.
#12 - Небезпечні розбірки з блоком живлення. Частина 2.
Переглядів 9614 роки тому
#12 - Небезпечн розбірки з блоком живлення. Частина 2.
#11 - Небезпечні розбірки з блоком живлення. Частина 1.
Переглядів 9784 роки тому
#11 - Небезпечн розбірки з блоком живлення. Частина 1.
#9 - Діджиталізація мікроскопу МБС-1
Переглядів 2,1 тис.4 роки тому
#9 - Діджиталізація мікроскопу МБС-1
#8 - RCA Victor 86T. Частина 5. Підкручуємо контури. Слухаєм, як працює радіо.
Переглядів 1,3 тис.4 роки тому
#8 - RCA Victor 86T. Частина 5. Підкручуємо контури. Слухаєм, як працює радіо.
#7 - RCA Victor 86T. Частина 4. Оновлення.
Переглядів 8774 роки тому
#7 - RCA Victor 86T. Частина 4. Оновлення.
#6 - RCA Victor 86T. Частина 3. Огляд технічної літератури. Порівняння з аналогом.
Переглядів 7224 роки тому
#6 - RCA Victor 86T. Частина 3. Огляд технічної літератури. Порівняння з аналогом.
#5 - RCA Victor 86T. Частина 2. Реставрація. Відновлення динаміка.
Переглядів 1 тис.4 роки тому
#5 - RCA Victor 86T. Частина 2. Реставрація. Відновлення динаміка.
#3 - Creative Sound Blaster E5 за $25?!! Короткий рецепт успіху.
Переглядів 2,3 тис.4 роки тому
#3 - Creative Sound Blaster E5 за $25?!! Короткий рецепт успіху.
#2 - Удосконалюємо дешевий USB-XLR адаптер для професійного радіомікрофона. Чи буде це працювати?
Переглядів 4344 роки тому
#2 - Удосконалюємо дешевий USB-XLR адаптер для професійного радіомікрофона. Чи буде це працювати?
#1 - RCA Victor 86T. Частина 1. Реставрація античного радіоприймача.
Переглядів 1,3 тис.4 роки тому
#1 - RCA Victor 86T. Частина 1. Реставрація античного радіоприймача.
Я так розумію, що мова йде про global shutter, то його назву зараз ніхто не перекладає
Можливо і так. Якщо подивитися на загальний простір, то тільки аналогові камери наявні. Мабуть я пропустив, а де обговорювалися Global Shutter? Бо я не перекладений варіант вирізав- трохи був не впевнений як вимовляють: «шутер» чи «шатер» :)
@@HerdingElectrons в описі камери було "затвор загальної дії", в FPV вони не використовуються, тому мабуть про них ніде не кажуть, але в машинному зорі вони часто must have. інколи перекладають як "глобальний затвор", або простіше "глобал шатер", але то не принципово )
@ дякую, візьму до уваги.
Добр;а) комментарий в поддержку.
Чому б Вам не запропонувати своє рішення для Збройних сил України, це переверне ситуацію на полі битви з росією де всі вороги будуть знайдені і знищені такими дронами. Звісно, якщо Ви стоїте на боці України. Бо українські розробники не можуть зробити таку систему, вони купують неякісне китайське, а Ви зібрали все самостійно з гвинтиків і розбираєтесь як воно побудоване насправді. Допоможіть МОУ зі створенням Зброї Перемоги.
Я на Світлій стороні Сили, то точно :)
Такі справи.
Памʼятаєте як Маск розповідав про те, що можна зняти модуль FaceID, найти людину дроном та підірвати йому обличчя? Так от в мене таке відчуття що ви заточуєте штучний інтелект саме для цього ахах
То напевно маються на увазі дверні дзвінки з камерами. Я таке не досліджую і взагалі не варто звертати увагу що там говорять.
Не діліться цим проєктом детально у відео та в інтернеті його можуть просити росіяни під виглядом українців. Показуйте краще готовий результат.
Та ні. Я розказую публічно доступну інформацію. Я сподіваюсь, що це зможе зменшити вплив технічної дезінформації з російського інтернету. Це допомагає їм тримати нас на нижчому технологічному рівні. Дрон має бути не найдешевший, дрон має бути найефективніший.
Я знайшов що цей чіп має 4TOPS, я зараз цікавлюся нейронками, і згадав про ваш канал, і знайшов такий чіп як hailo 8l, там цілих 28TOPS, я не всі Відео дивився тому хотів би почути вашу думку про це
Наразі мені складно прокоментувати щось про Hailo 8l, у мене немає цієї системи і я поки що не планую її вивчати. Я не знайшов ніякої інформації про внутрішню архітектуру чіпа, тяжко щось проаналізувати. Але ось тут є деякі цікаві моменти: community.hailo.ai/t/my-model-runs-slower-than-expected/125 Вони пишуть що ефективність сильно залежить од пропускної здатності PCIe і процесора на хост системі. Це не є добре. Одна справа, коли ви використовуєте це у слоті М.2 х86 компютера і інша справа Raspberry Pi.
Круто, гарна робота успіхів вам з цим проектом Дякую що поділились
Дякую!
інформативно особливо для тих хто тереотично заточений але не має приктики і не знає з якого боку зайти. дякую за цей волшебний пендель
Дякую! Бажаю успіхів :)
Привіт. Які наступні етапи? Які подальші плани?
Привіт! Я хочу поексперементувати з деякими алгоритмами, як то Dense Optical Flow, передбачення траєкторії цілі і розібратися із камерами від Тесли.
@HerdingElectrons керування поки ні?
Керування то окрема цікава тема. У цього SoC є не задіяний RT процесор, то можливо я його використаю якраз під RT задачі.
Ви десь в Каліфорнії живете? Запозичені слова часто використовуєте, і в ІТ продвинуті - припущення
Живу на Східному узбережжі. Часом язик заплутується в словах, не завжди встигаю згадати значення.
Там мало піти повідомлення на LinkedIn
@@HerdingElectrons як вас знайти в LinkedIn?
В мене є бажання тренувати модель на пошук ідентифікацію дрона в повітрі але окрім інфи на ютуб нічого не має для навчання
Я зустрічав великі дейтасети на десятки гігабайт, але потрібно дивитися що там є насправді всередині.
@@HerdingElectrons є у воених але там тре авторизуватися
Таких даних я не маю, точно. Через те я робив свою кіностудію. Можна збільшити масштаби, якщо є ресурс. Я думаю що це буде навіть краще, знімати відео у контрольованому енвайроменті з контрольованими варіаціями, по світлу, наприклад. Ось: www.horizonhobby.com/product/replacement-airframe-delta-ray-one/EFL9501.html Мені це щось нагадує. Можна пофарбувати у будь який колір і знімати під різними кутами вдень і вночі. Можна навіть прифантазувати якийсь ангар для зйомок у польоті. Ось є ще такого типу: www.ebay.com/itm/255894484902?mkcid=16&mkevt=1&mkrid=711-127632-2357-0&ssspo=hoqId8nsQeu&sssrc=4429486&ssuid=il9ANVKbR3q&var=&widget_ver=artemis&media=COPY
@@HerdingElectrons а у вас випадково немає посилання на дейтасети про які ви згадали?
Мабуть, непоганий початок: anti-uav.github.io/dataset/
Ооо!
Про оверфітінг ви трохи не те щось сказали. Коли модель не може вивчити нічого корисного з великої кількісті нерелевантних даних, це не є оверфітінгом. Велика кількість даних (релевантних) це майже завжди добре. Оверфітінг - це коли модель вивчає фічі, які не генералізуються на інши дані, окрім тих, на яких модель навчалась. Для того, щоб не було оверфітінга як раз збільшують кількість даних для тренування, застосовують до зображень різноманітні трансформації/аугментації, які дозволяють штучно збільшити тренувальний датасет.
Я, звичайно, не дейта сайнтіст. Я спробував узагальнити свій минулий досвід, коли модель ставала гіршою при довшому тренуванні. Мабуть це пояснюють в IBM: “Another sign of an overfit model is its decision boundaries, the model’s learned rules for classifying data points. The decision boundary becomes overly complex and erratic in overfit models, as it adapts to noise in the training set rather than capturing true underlying structures, further indicating overfitting.”
@@HerdingElectrons Може ви просто не дуже чітко висловились, бо "коли модель ставала гіршою при довшому тренуванні" це саме і є оверфітінг, бо модель просто запам'ятовує ваш тренувальний датасет, якщо грубо. Але це не через збільшення кількості тренувальних данних, а через збільшення кількості тренувальних епох на одних і тих же даних. Я не знаю чи в цьому пайплайні, який ви використовуєте, є автоматичне додавання аугментацій, але якщо немає - обов'язково спробуйте їх додати.
Так, подивлюсь обовʼязково, дякую :) я боюся довгих процесів ще з часів, коли ми моделювали фізичні процеси з використанням рядів. Там з певного моменту похибка починала різко зростати через обмеження точності яке виражалося як цифровий шум. Через те я вибрав 16 біт тензор, ніби працює краще.
@@HerdingElectrons Так, для моделювання фіз. процесів збільшення precision-а дуже важливе, бо похибки накопичуються при обчисленнях, та ми працюємо з меншою кількістю параметрів, але їх точні значення важливі. Але для нейронних мереж на практиці precision компенсується кількістю параметрів в моделі. Тобто квантизована модель з більшою кількістю параметрів зазвичай працює краще ніж менша модель з більшою точністю вагів. Ну і швидкість обробки суттєво відрізняється. Але у вашому випадку через те, що ви використовуєте одну і ту ж модель з різною точністю, більша точність буде працювати краще, скоріше за все, а може і буде працювати так само як квантизована. Треба тестувати та шукати світспот.
Точно. Потрібно більше тестів. Мої 331 зображення то взагалі не показово, дуже мало для висновків. Але дякую за поради! Дуже корисно :)
Варто використовувати теж ШІ автопілот тільки для наземних дронів, тому що оператору наземного дрона приходиться непереливки, коли він керує дроном і втрапляє в канаву чи застрягає в гіляках які валяються на землі, моя ідея полягає в тому щоб фпвшками знімати карту висот маршруту аби автопілот самостійно опираючись на цю карту прокладав маршрут і оператору варто лише вказати напрямок а автопілот сам вестиме дрон обїжджаючи перешкоди. Може вже таку ідею реалізовують хз але..
Так це непроста задача. Я дуже мало знаю про наземні дрони. Має бути комбінація лідара і віжуал, очевидно. Але це не вирішить проблему само по собі. Спробую, як буде можливість.
Дякую, що ділитесь інформацією, дякую за відео. Зараз, я так розумію, багато хто паралельно працює над автоматизацією дронів. З наших тут знайшов (@)ZIR-system, також вам може бути цікавим ваш канадський сусід (@)UARobots-k7e. Чекаємо оновлень.
Дякую! Продовжую працювати. Ще кілька алгоритмів потрібно спробувати.
👍🏻👍🏻👍🏻
А як на рахунок того щоб використовувати гугл колаб для тренування?
На якомусь етапі можна використати і Гугл Колаб, але він не дає повного циклу, що включає генерацію і оптимізацію генеруємої моделі під таргет платформу. І Гугл це більше про Тензорфлов. З Торсч усе таки трохи легше працювати.
Забагато хибних детекцій снігу як машини
Так, я це помітив. Надто мало було інформації для тренування. Можна було змістити поріг валідності на більш високий.
Це круто. Це тільки донаведення?
Я хочу щоб воно працювало автономно, без оператора і на відстані до 100 км.
@@HerdingElectrons Потрібно робити реконструкцію місцевості в 3d. Це досить складно бо потрібен 3d рушій. OpenGL може не підійти, але можна написати свою спрощену версію.
От чим подобається мені ці платформа, що там є SfM та DoF прямо в SDK :)
Супер! Трекінг баундінг бокса та детекція є у всіх. Найскладніше - це система ініціації та доведення самого дрона до бажаної точки. Перехоплення - ще складніше.
Я тут хотів показати що ця платформа в принципі працює, тепер хочу додавати функціонал.
Мда... Надивився я всяких там відосіків про те що біглбон може літати ( ну і мав до цього успішний досвід використання синього) але ось хочу заявити що то всьо сміття: для того щоб запустити НМ перед цим її треба конвертнути, а це не просто і багато обмежень. Але саме неприємне те що документації на СОК дуже мало і вона протирічить сама собі - треба експерементувати. Версії кернела всього 2 шт, решта не підтримує АІ чіп і треба вибирати АІ або ріалтайм - що в принципі не цікаво для авіації. Проц гарячий і в стані ідла гріється так що може згоріти - як от у мене. Для тих у кого мета вічної розробки - штука цікава, а для тих хто хоче швидко зробити і насолоджуватись результатом рекомендую звязку контролер-джетсон(ну або малина).
Ааа… навіть не зразу зрозумів, про що Ви пишете. Про модель буде наступне відео. Про документацію то ви маєте на увазі сайт самого Біглборд. Про айдл режим і перегрівання: що мається на увазі айдл режим у системі яка працює безперервно. Ви використовували якийсь радіатор? Наскільки мені відомо, Бігоборд ще не має працюючого АІ для своєї плати взагалі. Це зараз просувається окремими ентузіастами :)
Камера від Tesla може використовуватися для тринокулярної триангуляції, різна фокусна відстань дозволяє "бачити" далі і робити більш точну триангуляцію
Так, можливо. Але відстань між камерами досить незначна і на 50 метрів складно буде визначити якесь зміщення при 1000 пікселів по горизонталі. Я через якийсь час зможу перевірити що бачать камери, сподіваюсь. Десеріалайзер у мене вже є, лишилось тільки коректно зконфігурувати сенсори :)
@@HerdingElectrons Відомі параметри камери та лінз? Відстані між камерами? Тоді можна порахувати на скільки далеко вона може "бачити". Ще питання цілей, якщо ми говоримо про візуальну одометрію то і 20 метрів буде достатньо для визначення траекторії руху
Відстань між камерами не складно поміряти а от про лінзи нічого не відомо. Сподіваюсь вдасться взнати експериментальним шляхом. На даний момент мене цікавить задача визначення цілі і її відносної траєкторії (і дрон і ціль рухаються одночасно) у повністю автоматичному режимі, без оператора. Стосовно Тесли, то на великій швидкості бажано щось починати бачити хочаб метрів за 100-150. Але тут я не можу точно сказати.
@@HerdingElectrons якщо відома висота відносно землі то положення цілі в системі координат дрона можна визначити за допомогою однієї камери. Так похибка на великих відстанях може бути досить великою, але цього буде достатньо для того щоб дрон міг долетіти до цілі і при наближенні похибка буде ставати меншою. Але звичайно дві камери значно краще для такої задачі :)
Там навіть не похибка… там може ціль виглядати як щось менше за піксель :)
Хотів би поділитися, щоб ви, можливо, не марнували час. Зараз військові хотіли додати до донаведення ще й детектор цілі. Але з'ясувалось, що, мало того що хардвар для саме детекції дорожчий, це можно вирішити, але саме тактичне застосування детекції сумнівне. Ми досить швидко і точно можем детектувати об'єкт типа "людина" або "автівка". Але достатньо на цей об'єкт нанести чорно білі смужки і наша сіть його не бачить. Так що з детекцією при застосуванні в реальності не все так добре. Але ось в задачах навігаціі ШІ досить добре себе показує.
Дякую, я так думаю, що у мене є відповідь. Зараз я працюю над наступним епізодом, там буде.
топ))
👍
дякую, завжди дуже цікаво дивитись ваші відео
Дякую за коментар. Незабаром буде друга частина.
щира подяка за відео!
Вам дякую :)
Нічого собі осцилограф. А чим ви заробляєте на життя(якщо не секрет, теж так хотілось би)?
Я, останнім часом, був програмістом.
@@HerdingElectrons За яким напрямом?
Було багато напрямків. Останні 15 років “high performance computing” для фінансових сервісів компаній на Вол Стріт. Відомі як Stock Exchange.
доброго дня, можете підказати як зробити так, щоб цю плату бачив компютер? вставнолювати драйвера? іх на офіційному сайті немає, як ви змогли це зробити?
Привіт! Вам потрібно мати кабельок для консолі, типу ось такого: www.aliexpress.us/item/3256806028875349.html?spm=a2g0o.productlist.main.1.6b47e2z8e2z8uQ&algo_pvid=586493d4-c218-4012-8379-2fbae2a0e0ee&algo_exp_id=586493d4-c218-4012-8379-2fbae2a0e0ee-0&pdp_npi=4%40dis%21USD%212.88%210.99%21%21%212.88%210.99%21%402103205117337613857473152efdea%2112000036317363020%21sea%21US%210%21ABX&curPageLogUid=yzUdi0LDAeYC&utparam-url=scene%3Asearch%7Cquery_from%3A а потім, коли завантажиться імідж з карточки, можна заходити через ssh і копіювати через scp.
Правда, потрібно уточнити про яку саме плату йде мова. JST конектори бувають різні.
@@HerdingElectrons BeagleBone AI 64
@@HerdingElectrons ви як свою підключали? через type c ? ви підключали ще додаткове живлення на 5 вольт? я от таку саму як у вас пидбав, и іі комп тупо не бачить, драйвера я офіційні не знайшов, а по гайду вона повинна видна як флешка
@@HerdingElectrons а у нас в украііні не можна десь знайти такий кабель? і без нього ніяк не вийде підключитись? я ще хотів спитати, я купив Servo Cape, і камеру машиного зору,але ця камера доволі дорога і іі підключити не так легко, як я зрозумів
Дякую!
Приголомшливо. Ще декілька слів для алгоритмів, бо від себе сказати нічого
Таких специалистов, как Вы в Украине ОЧЕНЬ мало. Вы делаете огромный вклад в развитие новых спецов своими видео. Жаль, московиты так же обучаюся :) Вибачаюсь за кацапську, я тільки почав вчити рідну мову :)
блін, я купив от тільки прийшов зовсім інша плата, походу я відстаю дуже від всіх)
а де його купити? на офф сайті не знайшов, а до нього можна підключити сервоприводи?
а програмування на microPhyton можливо?
а можно з вами звязатись?
А інша плата то яка?
@@HerdingElectrons ій далеко до вашоіі, повірьте)
Чи потребуєте ви інвестицій? Якщо так, то кому можна написати?
Привіт! Можете написати ось на цей імейл: olehzdubna@gmail.com ? Дякую :)
цікаво!
Hello! I found this video through the BeagleBone forum. Great work! Could you please share the steps to reproduce your results? Thanks!
Hi Greg! Sure, I will put changed files in a git repo somewhere.
... and here it is: I put short notes about my changes on the GitLab, you can check here: gitlab.com/bby-ai/sdk-changes Let me know if any issues.
Дуже цікаво ! Ви молодець чекаємо на продовження
Дякую! Продовження буде.
Доброго дня добродію. Слідкую за вашим проєктом. Дуже цікаво. На столі в перших кадрах помітив щось схоже на dual ELRS модуль. На скільки я розумію ви будете збирати FPV дрон з польотним контролером та платою copilot - власне Beaglebon Y-AI?
Моєю метою є створення політного модуля, який здатний працювати в режимах від ручного до повністю автономного. Цей ExpressLRS модуль на столі був підʼєднаний до плати Beaglebone AI-64, мій інший проєкт. Я портував PX4 Autopilot на один із вільних процесорів усередині SoC цієї плати. Є плани, також, перенести PX4 на BeagleY-AI також. Все що зараз вимагає три окремих плати розміститься на одному чіпі. А якщо робити серію на платі разом із чіпом можна розмістити і сенсори. ESC треба виносити назовні, усе-таки дуже великі комутаційні шуми.
Я теж думав над такою системою, яка може замінити GPS і на яку не будуть впливати РЕБи
Так, тема цікава. Але потребує залучення людей добре знайомих з певними сферами математики.
Минус таких плат - не паспаянная sd карта. Может в полете отвалится, что будет очень слабым местом.
Ця проблема легко вирішується. Ну, а якщо, ви замовляєте 1000 плат то проблема ще легше вирішується.
як ви підеднуете плату до польотного контролера? через порт тайпси чи якись інший варіант?
Ага, здогадався, тайпси це Type-C :) У цього SOC все на одному кристалі: політний контролер, компаньйон компютер і DL процесор. Обмінюються даними через регіони в спільній памяті.
Дуже гарний SoC. Чи розглядали ви як базу Sipped LicheeRV nano? Там лиш два головних ядра: одне під лінукс одне під metal прошивку, також є NPU. Просто ціна і форм фактор більше під фпв підходить
Цей Lichee на базі ядра від Alibaba? Ця річ орієнтована на ІоТ і має дуже скромні характеристики. Даташіт на сім сторінок без якої небудь конкретної інформації. З RISC V, я так розумію, на даний момент зоопарк, специфікація відкрита і кожна фірма чи студент робить свій ISP.
@@HerdingElectrons нуууу та, десь так як ви сказали, так на IoT але там впринципі є всі компоненти для дрона, включаючи відео енкодери
SoC SG2002
Погоджуюсь, характеристики прості відносно, але це для яких завдань, для фпв з донаведенням мало б хватити
Перші два питання: 1. Доступність готового програмного забезпечення у форматі сорс коду. 2. Якісна документація. Без NDA. 3. Ціна. AliExpress «Sipeed Nezha 64bit RISC-V Linux SBC Board, Allwinner D1@1.0GHz with 1GByte DDR3, Support Tina/Debian System» хоче продати за $112. Не виглядає як щось таке дуже цікаве.
Are you sitting in US? Do you play only with AI, or you know Digital Control Theory? Do you know Z transform? Can you implement Robust and Nonlinear controllers on TI DSPs ? I am in Kyiv region now.
Hi, yes, I’m here since early 2000s. I’m more a system developer. I’m not dedicated to AI only. I didn’t have a chance to work with discrete signals so far, but would figure it out.
Нагадаємо, для Raspberry Pi 5 (про 4 не впевнен) існуе плата расширення з AI GPU, робить роспізнування з камер доволі шустро. Ось приклад ua-cam.com/video/Vp4glSVPT8o/v-deo.html ---- ПЕРЕМОГА НЕОДМІННО БУДЕ НА БОЦІ УКРАЇНИ ! ВІРТЕ та НАПРЯМУ ДОПОМОГАЙТЕ ЗСУ, ТерОбороні, Волонтерам та родинам наших Украінськіх Захісників та Захісниць! 0:05
Саме так!!! 7:45
Цікава річ. Але дещо закрита для вільної розробки. Ні доків ні сорс коду.
… мені цікаво було знати, скільки там є памяті, наприклад для параметрів.
Доброго дня, як з вами можно зв'язатися?
Привіт, там і-мейл є на моїй сторінці в Ю-Тюб, його видно на компʼютері, не мобілці.
Радий що ви зʼявилися, бо я вже засумував що канал закинутий. Як завжди цікаво. Успіху вам у проекті!
Дякую!
Дякую за контент. Дивився попереднє відео де ви знімаєте потік машин. І от всі ці машини схожі між собою. І виникло питання: якщо взяти наприклад військові дії і те, що люди у військовій формі схожі ( і там і там піксель), і техніка з обох сторін майже не відрізняється між собою. Яким чином штучний інтелект зрозуміє де свій, а де чужий? Яка верогідність, що той же дрон збившись з маршруту не наткнеться на схожу техніку "своїх" і не вирішить що це "чужий". Ці питання звісно не технічні, але являють собою продовження теми чи взагалі досяжна реалізація розумного штучного інтелекту для конкретних задач.
Я так думаю, що такі подібні труднощі має і «не штучний» інтелект. Проблему допоможе вирішити введеня інших данних, як то координати, наприклад.
Я вже гадав чи всьо в тебе гаразд.
Усе добре, дякую. Трохи був зайнятий останнім часом.
Дякую за відео, з нетерпінням очікую на нові. p.s. це звісно ваше авторське рішення але мені подобались довші сегменти відео. забагато врізок роблять кадр більш метушливим. магія ваших попередніх відео для мене була в тому числі через таку медитативну атмосферу.
Добре, дякую. Візьму до уваги :)
Супер, скажіть що було причиною вибору QGroundControl а не Mission Planner?
Я використав GroundControl у першу чергу, для відлагодження самого Mavlink у політному контролері. Я зробив деякі суттєві зміни у порівняні з «ванільним» PX4 з огляду на нові можливості SOC. Я планую випробувати Mission Planner також.
які зараз завади в розробці? Може бути поєднано з wfb-ng?
Основна проблема це надзвичайно велика кількість коду, в якому треба розібратися. Я порахував у самому TI SDK десь до десяти мільйонів рядків коду у .с і .h файлах. Треба буде десь занотувати число. Для звязку у мене десь чекають пара LoRa трансіверів, можливо варто глянути і на wfb-ng…
Я вже встановив на jetson nano wfb-ng та mavproxy, під'єднав до ardupilot це air. Також встановив wfb-ng на Raspberry Pi 4 це ground. Зв'язок є, усе працює. Але не можу змусити працювати відео на qgroundcontrol Raspberry pi 4...
Я не планую передавати відео напряму, але я бачив відео месіджі у протоколі Мавлінк. Ви каже е про відео стрім із флайт контролера до QGC?
@@HerdingElectronsцей SDK складає більшість для збірки Linux, сподіваюсь
@@HerdingElectrons Ні через mavlink відео не передаєця. Передаєця через udp та gstreamer. Я кажу провідео від JN на GGC