- С какой скоростью Вы печатаете? - Полторы-две тысячи символов в минуту... - !!! Разве возможно печатать с такой скоростью? - Печатать-то возможно, но такая херня получается...
конечно, на других же компьютерах модели не запускают. запуск моделей на маках мини это скорее извращение для техногиков не имеющее прикладного смысла, типа как запуск дума на зубной щетке, куда больше смысла будет иметь мини пк на AMD Ryzen AI 9 HX 370 со 128 гигами памяти куда можно запихать действительно большую НОРМАЛЬНУЮ модель, а не инвалида)
Запускать llm'ки на маках весьма разумно - у них можно получить очень много памяти. 64+гб видеопамяти сейчас очень сложно получить на нормальных железках за разумные деньги. Конечно, всегда можно взять 2-4 A6000, но цена такого решения просто космос. На фоне этого, что маки, что эта штука стоят весьма гуманно. Ну, а райзен для этого едва подходит - скорость работы этих моделек практически пропорциональна скорости памяти, а тут 2 канала DDR5, что весьма немного.
Да, Nvidia копирует подход Apple: «Продавай нишевый продукт как must-have для профессионалов». Но: 🟢 Успех: Если цена и производительность честны - это прорыв. 🔴 Провал: Если это «терафлопсы в вакууме» - разочарование убьёт доверие. Пока верим, но ждём разборов на UA-cam. А там - или новая эра, или мемы про «петафлопсный тостер» 😉.
@@spongegot рассказ про терафлопсы в вакууме и яббл) те кто сравнивает недопроц с 3080 в макмини по видео) и синебенч баллы. не смешите. техника яббл всегда была узкоспециализирована,но хороша в своих задачах,в отличии от универсального х86/64. Сейчас будет новый игрок-только тягаться там будет некому,все всрут в десятикратном проиграше в изкоспециаллизированных задачах. Будет новый игрок окромя яббла. Врядли игры там запустят)
Теоретически саму плату с чипом если вынуть из корпуса то она вполне может уместиться внутри корпуса робота или большого дрона и тогда локально на дроне или роботе можно будет запустить нейросеть размером в GPT 3 и это многое меняет. Я думаю что в течении ближайших 5 лет проект Digits может очень сильно повлиять на робототехнику.
Возможный путь развития такой железки. Такой микрокомпьютер может стать базовой станцией для домашнего ИИ ассистента. Возможно ассистент роботизированный, либо электронный супер-помощник. Его мозгами будет данный мини-компьютер, в котором будет какой-нибудь триллион параметров. (К тому времени нвидия сделает такой процессор). Условно, базовая станция. Хочешь себе ассистента поумнее? - покупай еще миники и делай кластеры. Так можно будет использовать AJI в любых условиях. От домашних до мега-заводов. В зависимости от задачи - докупаешь миники в кластеры. Хотя, конечно, если появятся роботы, то такие процессоры можно будет сразу в них встраивать.
AJI расшифровывается как "Artificial Jewish Intelligence". Но вообще не понимаю, чего все так цепляются за ИИ. как будто в мире компьютерных технологий ВООБЩЕ ничего другого не осталось
Хорошо, прям очень хорошо. Я давно о такой штуке мечтал. Если он будет стоить 350к, и реально запускать модельки на 90Гб с приемлемой скоростью, то я готов его взять вместо новой видеокарты. Ибо нейросети нужны больше чем графика.
Думаю сначала стоит подождать выхода и тестов, вижу много спорных нюансов, давайс таки не кратно мощнее раз. Ещё непонятно какой тип памяти используется если это ddr5 как используется в ноутбуках или обыных пк то не думаю что скорость генерации с такой памятью будет какой то заоблачной. Хочу узнать сколько tops будет на моей rtx4090 laptop в fp4
@@mi111982 почитал такой тип памяти раза в 2 быстрее обычной ddr5, если мощный нейрочип работает с этой памятью можно прикинуть что эта штуковина будет выводить примерно 5 или даже больше строчек текста в секунду что вполне приемлемо для комфортной работы дома
Объединив десяток-другой одноплатников в кластер можно получить ту же, ато и большую вычислительную мощьность за гораздо меньшие деньги и уверен, что с меньшим потреблением энергии. В принципе, не обязательно одноплатников, например с Mac mini сейчас такое делают. Можно задействовать любое железо, в зависимости от целей.
Ну вот вам и сервак для умного дома, который и простой голосовой помощник обработает, и климатические режимы, и привычки пользователя выучит и будет опережающий сервис предоставлять.
0:34 "Немыслимые 1 петафлопс" в рекламе речь идет о чем то типа 1000 AI TOPS, правда для куцых FP4 , в то время как у старушки 4090 1350 AI TOPS, c FP8 у нее 0.6 петафлопа. А у 5090 в спецификации ~3400 AI TOPS. Про проф карточки отдельный разговор там очень много на экономичносьт и зато чку по конкретные применения завязано, но к примеру популярная Н200 SXM версии качает 3980 TFOPS/FP8. Прикинь! 🤣
У 4090 энергопотребление явно повыше будет. Про форм-фактор тоже не стоит забывать. Если GB10 можно в робособаку засунуть, то в случае с 4090 получится роболошадь. Следом за пиццей придется заказывать чистые трусы.
@@Riocontra Ну да это компактная маломощная система. Вот только куда проще и деешвле нормальные NPU для это использовать по типу DeepX или google tensor. ВСЯ робособака типа Unitree Go2 или DeepRobotics Lynx стоит $3-4 тыщ а тут один только GPU юнит на 3+ тянет. Nvida в свои GPU много лишнего с точки зрения нейронных сетей толкает
@ производительность DeepX DX M1 25 Tops, производительность Nvidia GB10 1000 Tops, если ваши данные верны. Разница в 40 раз, логично, что и разница в цене существенна. На локальном рабочем месте системник с 4090 или 5090 бесспорно экономически целесообразнее. Но может быть какая-нибудь нетривиальная задача. Например Яндекс обучал нейросеть для беспилотного авто возя "ферму" в багажнике. А можно такие миникомпьютеры закинуть таксистам или в каршеринговые автомобили, не создавая при этом дискомфорт для пассажиров. Согласен, что для робособак производительность избыточная, но во многом это зависит, чего мы от них хотим.
@@Riocontra V3 100 TOPS и этог ОДНОГО чипа , это же в своей основе ASIC + обвес. Их можно пачками собирать, сколько ASIC в самом дешевом Antminer? Но можно и по отдельности мелкие для установки в камеры и т.п. в роли контроллера, более крупные для более тяжел прикладных применений - в тех же дронах, робособаках и т.п. Но есть еще и серверные применения 😁
@@patunce дело не в том, что груб плохой. Дело в том, что он старый и уже достаточно давно совсем не развивается (речь именно о развитии, не о мелких фиксах), а многомиллиардная корпорация не удосужилась разработать для своего инновационного продукта хотя бы высокотехнологичный загрузчик.
что толку китайцы не потянут даже 200нМ. своих чипов нет, только по лицензии старые амдешные чипы и те китайцы не смогли довести до ума. в амд уже смеются и плачут от этого договора. сколько можно обучать тех кто необучаем от слова совсем!
Запуск сети(inference) - задача относительно не сложная. Может эта штука позиционируется, что на ней сетки обучать можно будет быстро и ловко? Это тогда совсем нишевое применение.
так оно не для того, чтобы вы у себя дома запустили чат гпт3 и радовались, что локально, а для того, чтобы сотруднику в офис на стол поставить, чтобы он быстре "прототипировал" и гипотезы свои проверял
Конечно же было бы круче если бы на него можно было установить модель больше chatgpt 3. По типу DeepSeek r1 и что бы ещё места осталось на других. Но звучит круто а главное он очень компактный, в теории это очень важный инструмент но дождёмся отзывов
Новенькая DeepSeek-R1 это около 700 миллиардов параметров, т е 4 таких штукенции, правда, такие модели это вот правда для коммерческих проектов, а там уже лучше специализированные сервера с профессиональными видеокартами использовать. Если брать за очень таки хорошую модель где-то 32 миллиарда параметров, то 5090 спокойно запустит такую GGUF модель на 6 квантах. Для тренировки графических и текстовых нейронок также хватит. Другое дело если брать сразу несколько моделей разом. Один определитель (для чтения информации с картинок), затем сверху модель для генерации текста и поверх всего этого низкую модель для генерации картинок + контрол нет. Чисто в теории, такой франкенштейн сможет создать 3Д игру в низком разрешении, которую можно будет заапскейлить уже на ПК до чего-то более-менее внятного (модель для определения объектов на фото\видео, текстовая модель для генерации сценария\диалогов, низкая модель для генерации картинок + контролнет). Для 2д игр такое будет, правда, перебором, так как nvme накопителя + видюхи с хотя бы 8 гигами будет достаточно для создания чего-то похожего на РПГ мейкер (методом свапа и простоя для генерации). Пока-что смотрится так, что просто установишь со сдачей в аренду с почасовой оплатой и как бы всё. Благо на данный момент у нас таких сервисов не много, если они вообще есть (я не нашёл, по крайней мере). Вопрос ещё в цене, стабильности, энергопотреблении и вообще просто как скоро они выпустят digits 2.
Ну как сказать, может. Если очень грубо, то все текущие «домашние» генераторы зависимы от видеопамяти и, как следствие, от железки, которая не модульная совсем. Отсюда, кстати, вой про память в решениях «Нвидии» (*ну и от 4К-гейминга*), карточки-то мощные, но памяти на мощные модели не хватает. Если бы можно было закинуть обчёты на оперативку, то да, такая штука спорная. Но если это некое промежуточное звено, где оперативка по внутренней логике - это видеопамять, то это прорыв, где вы ещё увидите видюху на 128 ГБ оперативы, и даже если скорость одной операции будет низкой, то объём данных позволит делать на этой штуке очень тяжелые расчёты, которые просто нельзя сделать на бытовой карте..
@@nikkurl123 у оперативной памяти скорость работы очень маленькая по сравнению с видеопамятью + на большее расстояние данные надо слать. (в случае с обычным пека)
Лет через 10-15 такие "коробочки" могут стать доступны на еВау/Авито простым людям. Если их к тому времени не запретят вместе с 3Д принтерами как "инструменты террористов". Я сам немного занимаюсь LLM -моделями любительский и модель на 200б на своем железе... Это сколько же там "оперативки" доступно GPU? Пары RTX 3060 12 gb еле хватает чтобы запустить нормально 20б модель отвечающую на ввод с удобоваримой скоростью.
Надеюсь оно будет дешевле чем видеокарта с 96гб памяти. Можно учить свою сеть например для компании. Любой сотрудник сможет мгновенно узнать любую информацию накопленную за время работы компании. Например мы продали за последние 3 дня столько то столько таких то штук по такой то цене и с такой то прибылью и имеем тренд на повышение, пора закупать на склад новую партию, подтвердите оплату!
Эх, 3к зеленых этой в целом неплохой ценник для такой интересной железки, жаль только у меня нет таких денег, я бы точно взял такую даже на последние мани)
Было бы прикольно лет через 5-10 иметь такой у себя дома с установленной llm типо ламы чтоб он мог управлять умным домом или поболтать с тобой и при этом крупные компании не собирали твои данные.
С учётом, что 4-bit ADPCM-xq кодирует звук на слух с таким же качеством как CDDA 16-bit, то удивляться нечему (даже обычные 8-bit шумят - ломкая кривая). Это экономия в 4 раза на хранилище вообще без требований к ЦП при воспроизведении (NES справляется), потому что без сжатия в каком-то смысле в отличии от mp3. При этом 4-bit ADPCM создаётся даже при частоте выборки 192 КГц. Наверно и в нейронках используют какую-то подобную адаптивность для сохранения нужной точности.
@@NicolasXXI_youtuber основная разница в том, чтобы скейлинг в оборудовании приводил к скейлингу производительности. Условно 10 карт по 10 терафлопс не дадут 100 терафлопс, но можно выжать условно 90, если правильно хард и софт настраивать, а можно 70, если руки кривые.
Если бы этот диджитал был в разы быстрее, уверен, что на презентации об этом бы сказали. Есть подозрение, что он в разы слабее. Единственный, но весомый плюс - объем памяти. В каком-то смысле из-за этого устройства трудно сравнивать.
Вопрос (сразу скажу, что не всё понял): можно ли на этом компьютере запустить ИИ с процессом обучения на основе данных которые будут ей скормлены. А точнее отдавать готовые смонтированные видео как примеры, что бы в дальнейшем ей отдавать сырые материалы которые ей нужно будет построить - смонтировать по аналогии с тем что ранее ей было показано ? Проще говоря заменить работу монтажа видео. p.s. я не говорю про интервью видео - это уже решаемо. интересует монтаж свадебных видео по 3-5 минут и свадебных фильмов по 20-40 минут. (то есть разнообразие кадров и объём большие). Буду благодарен, если вы поделитесь другим вариантом решения задачи. Но всё что я смог узнать, так это то что нужно ИИ обучить под конкретно мою задачу... но это мне подсказал ИИ, а на деле не встречался с реальным опытом кто так делал.
@@alekseiiudin2874 какой нафиг промт. Щас не 2022-2023. Современные Ии общаются вполне адекватно и близко к человеческому. Ии во многом даже лучше понять может, чем люди. Но речь идет про нормальные современные модели, например, грок последний, чатгпт 4о, о1, сонет 3.5, лама 405. Это самые попсовые, но другого и не надо для большинства задач
У меня знакомый на Nvidia jetson поднял локальную нейронку для управления дроном. Думаю на этой штуке можно будет ещё более высоких результатов добиться
Рассказывали-рассказывали… ни чего не понятно. Вы для обычных людей объясните, стейбл дифужин там работать будет? а на флуксе картинки делать будет эта штука? ламу какую потянет?
Смотря что считает нейронная сетка - "интеллектуальные" задачки в большинстве своём булевая алгебра с огромным количеством последовательных циклов и как результат высокая разрядность в нормальных процессорах просто превращает электроэнергию в тепло и тормозит исполнение скалярных вычислений.
Я немного отстал от жизни, поэтому не понимаю: для процессора обычного персонального компьютера нужно охлаждение, а тут супер компьютер вмещающийся в ладонь. Не понимаю как он без охлаждения работает?
Это только начало. Учитывая сколько денег собираются вбухать в развитие ИИ, только представьте что будет когда все это впихнут в разработки той же Бостон Динамикс. Это вам не мясные штурмы устраивать
Если "Digits" заявляет 1 петафлопс в FP4 - это узкоспециализированная система для ИИ-интерфейса, а не универсальный суперкомпьютер. В реальности: - Для большинства задач её мощность будет на уровне RTX 4090 (100+ терафлопсов в FP32). - Низкая точность (FP4) неприменима для науки, игр или моделирования - только для нейросетей. Upd: Почему цена в $3000 вызывает сомнения? - Себестоимость компонентов: - 128 ГБ DDR5: ~$500-700. - 4×4 ТБ NVMe: ~$2500-3000 (Samsung 990 Pro 4 ТБ - $750 за штуку). - 20-ядерный SoC: Даже бюджетные 16-ядерные CPU (AMD Ryzen 9 7950X) стоят $600-700. Для специализированного SoC цена будет выше. - Охлаждение и корпус: Минимум $200-300. - Итого: Только компоненты стоят $4000+, не считая НИОКР, сборки и прибыли. Примеры аналогов: - Nvidia RTX 4090 (24 ГБ, 100 терафлопсов FP32) - $1600. - Система с 4×RTX 4090 (0.4 петафлопса FP32) - $6400 только за GPU. - Nvidia Jetson AGX Orin (32 ТОПС) - $2000.
Почему Nvidia может пойти на низкую цену? Локомотив для экосистемы Nvidia не просто продает железо - она зарабатывает на программном стеке (CUDA, Omniverse, AI Enterprise), облачных сервисах и подписках. Дешёвый "Digits" может стать "троянским конем" для привязки пользователей к их экосистеме. Пример: Игровые консоли (PlayStation, Xbox) часто продаются в убыток, но прибыль идёт с игр и подписок. Доминирование в ИИ-инференсе Если "Digits" станет стандартом для локального запуска LLM (как ChatGPT), это укрепит позиции Nvidia в ИИ-индустрии и подорвёт конкуренцию (AMD, Intel, стартапы вроде Groq). Массовое производство и экономия на масштабе Архитектура Blackwell может быть адаптирована как для дата-центров, так и для компактных систем. Чем больше чипов выпустят - тем ниже себестоимость. Государственные субсидии Возможно, Nvidia получила финансирование от государств или партнёров для развития "гражданского ИИ", чтобы снизить зависимость от облачных гигантов (AWS, Google). Риски и подводные камни Скрытые ограничения Подписка на софт: Базовая цена $3000 может не включать критически важное ПО (например, доступ к оптимизированным моделям Llama или Mistral). Апгрейды: Система может быть "закрытой", а за дополнительные модули (память, SSD) придётся платить втридорога. Урезанная производительность Заявленный 1 петафлопс в FP4 может работать только в идеальных условиях (например, на моделях от Nvidia, а не на сторонних). Реальная скорость для пользовательских задач (типа Stable Diffusion или fine-tuning) может быть в разы ниже. Сроки и доступность Старт продаж в мае 2025 - это лишь пре-заказы для избранных (стартапы, университеты), а массовый релиз за $3000 отложат на 2026. Первые партии могут быть распроданы ботам и перекупщикам, как это было с RTX 4090. Энергопотребление и шум Даже если система компактная, при нагрузке она может: Потреблять 500-700 Вт (половина мощности чайника), Шуметь как пылесос, что сделает её непригодной для дома. Исторические аналогии iPhone (2007): Продавался с минимальной наценкой, но перевернул рынок, сделав ставку на экосистему (App Store). Tesla Model 3: Машина с себестоимостью выше цены продажи, но она захватила рынок, а прибыль пошла с софта (Autopilot) и carbon credits. Raspberry Pi: Мини-ПК за $35, который стал стандартом для образования и DIY-проектов, хотя изначально был убыточным. Что это значит для пользователей? Если Nvidia реализует задуманное: Локальный ИИ станет доступным: Любой сможет запустить персонального ассистента уровня ChatGPT без облачных подписок. Рынок переориентируется: Облачные гиганты (OpenAI, Microsoft) потеряют монополию, а разработка ИИ сместится в сторону edge-устройств. Новая волна инноваций: Малые компании и энтузиасты получат инструменты для экспериментов, что ускорит прогресс в ИИ. Заключение Гипотеза о стратегическом демпинге Nvidia выглядит логичной. Компания может пожертвовать краткосрочной прибылью, чтобы: Убить конкурентов на корню, Сделать свои технологии стандартом де-факто, Зарабатывать на подписках, сервисах и будущих апгрейдах.
расчеты не верны оперативка 460 евро 128 гигов в испании хоть сейчас заказыва Disco Duro Samsung 990 EVO Plus 4TB Disco SSD 7250MB/S NVME PCIe 5.0 x2 NVMe 2.0 NAND 270 евро и того 740 евро это в магазе так что до 1000 евро все по себестоимости кроме их процессора а 2 к возбмут за свой проц . так что все реально и хочу отметить 3000 сша в сша в европе 4000 евро ибо в сша нет налога на пс компоненты кароче минимум в европе на 30 проц дороже а елси вы в РФ ..........
Никого не удивляет? А меня вот удивляет, почему на нем ТАК МАЛО (оперативной) ПАМЯТИ, меньше чем на Mac Studio, суперкомпьютер, ага, СТЫДОБА. И кому нужны показатели GPT 3 версии, когда на дворе 2025?
учитывая что на потребительских видюхах можно запустить разве что 35b модель с тем же квантованием q4 и то вся в видеопамять не влезет, возможность запустить на этой крохе модель 105b выглядит неплохо. Ну а про количество памяти, Для чего вам больше? Сколько вы хотите хранить моделек чтобы вам не хватило 4 тб?
А причём тут показатели, модель на 100 лярдов параметров, времён ГПТ-3, не равна по своему качеству современной модели на 100 лярдов пар. Современные модели на 8 - 12 лярдов параметров (запускаются на видюхе с 8 GB VRAM) на уровне ГПТ-3, а некоторые из них и подавно умнее чем гпт-3 по всем тестам. (Nemo/Ministral, L3.1/3.2, Qwen2.5)
Точность чисел с плавающей запятой зависит от их размера. Чем меньше число тем оно точнее. Например если записать значение выражающее расстояние в километрах, то это будет точнее чем если записать это же расстояние выраженное в миллиметрах
А причем тут разные представления числа если речь идет об округлении? Грубо говоря отличие fp4 от fp8 в том что настоящее число равно допустим 0.45 а при переводе в fp4 число получается 0.5 (я опустил все эти 0 для более понятного примера)
У вас показания будут в одном случае округляться до КМ, а в другом случае будут округляться до ММ. С какой точностью вы найдете нужное место быстрее? В радиусе одного километра или в радиусе одного миллиметра?
@anunah7497 в том то и дело что округление срабатывает по разному, в зависимости от того насколько крупное это число. Ваш пример не совсем правильный, 0.45 никогда не округлилось бы до 0.5 потому что значение довольно небольшое. А вот 1000.45 вполне может быть округлено до 1000.5
@@isf4801 если вы говорите про обычные десятиричные значения, то очевидно что расстояние в миллиметрах будет более точным чем расстояние в километрах. Но мы говорим про компьютерные форматы чисел. Они работают по другим правилам. Округление зависит от размера числа
@@Sadamitsu При поисках крупномасштабных объектов легче оперировать километрами, далее может и хватит точности в метрах. На фоне метровых объектов поиск напёрстка будет легче в сантиметрах. И так далее по этому алгоритму поиска. Так и более точное округление не всегда полезно
По генерации изображений даже лучшие ии любят обобщать, коверкать, и искажать особенно задники, фоны, мелкие детали.. не знаю влияет на это битность или нет но то что я понял он еще больше будет обобщать... цветы но фото с кроликом он уже не осилил, глянем.
- С какой скоростью Вы печатаете?
- Полторы-две тысячи символов в минуту...
- !!! Разве возможно печатать с такой скоростью?
- Печатать-то возможно, но такая херня получается...
ахах отличный пример!!!
Хпхпхаха ( не смешно) чисто по русски рофл
@@Gyzwe этот юмор не для всех )
Это и есть маркетинговая логика Nvidia. Я уже на этапе DLSS понял это.
@@blackred5064 сравнение 5070 с 4090 (но ТОЛЬКО С DLSS 4) Это будет мем на века, такую дичь я не слышал, и давно так не ржал
За нарушение закона Мура в соответствии с УК X86 полагается до пяти лет лишения свободы
Жжош
😂
↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
──── ୨୧ ────
В имени смотри I-I0 класс🥕😄
В имени смотри I-I0 класс🥴🌭
@@PEPKI.Ru-nepexodi_na_sait_12 Платно, я не куплю
У меня теперь Droider ассоциируется с дурацким анекдотом про нюанс.
А у меня он всегда ассоциируется с бездарным парикмахером ведущего😂
Дроидеру нужна такая прическа чтобы показывать нюанс @@rcshow5901
И кто Петька?
Анекдот шедевральный
↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
──── ୨୧ ────
В имени смотри I-I0 класс🥕😄
В имени смотри I-I0 класс🥴🌭
Кратко: зелёные посмотрели, как на маках мини запускают модели и подумали, что они могут продавать тоже самое сами, обмазав маркетингом
конечно, на других же компьютерах модели не запускают. запуск моделей на маках мини это скорее извращение для техногиков не имеющее прикладного смысла, типа как запуск дума на зубной щетке, куда больше смысла будет иметь мини пк на AMD Ryzen AI 9 HX 370 со 128 гигами памяти куда можно запихать действительно большую НОРМАЛЬНУЮ модель, а не инвалида)
Запускать llm'ки на маках весьма разумно - у них можно получить очень много памяти. 64+гб видеопамяти сейчас очень сложно получить на нормальных железках за разумные деньги. Конечно, всегда можно взять 2-4 A6000, но цена такого решения просто космос. На фоне этого, что маки, что эта штука стоят весьма гуманно.
Ну, а райзен для этого едва подходит - скорость работы этих моделек практически пропорциональна скорости памяти, а тут 2 канала DDR5, что весьма немного.
Да, Nvidia копирует подход Apple: «Продавай нишевый продукт как must-have для профессионалов». Но:
🟢 Успех: Если цена и производительность честны - это прорыв.
🔴 Провал: Если это «терафлопсы в вакууме» - разочарование убьёт доверие.
Пока верим, но ждём разборов на UA-cam. А там - или новая эра, или мемы про «петафлопсный тостер» 😉.
@@spongegot ждем тестов как фп8 хотябы модели работать будут) если скорость инференса будет ок, то надо брать
@@spongegot рассказ про терафлопсы в вакууме и яббл) те кто сравнивает недопроц с 3080 в макмини по видео) и синебенч баллы. не смешите. техника яббл всегда была узкоспециализирована,но хороша в своих задачах,в отличии от универсального х86/64. Сейчас будет новый игрок-только тягаться там будет некому,все всрут в десятикратном проиграше в изкоспециаллизированных задачах. Будет новый игрок окромя яббла. Врядли игры там запустят)
Теоретически саму плату с чипом если вынуть из корпуса то она вполне может уместиться внутри корпуса робота или большого дрона и тогда локально на дроне или роботе можно будет запустить нейросеть размером в GPT 3 и это многое меняет. Я думаю что в течении ближайших 5 лет проект Digits может очень сильно повлиять на робототехнику.
Скайнет начало, но уже локально на железе?
Изменено: отмена производительность в 1pfps это на fp4 задачах, это не сильно мощнее rtx4090
Для роботов есть Jetson
@@Musicchannel-wp2je до восстания машин осталось всего 4 года) Лос-Анжелес 2029г.
Она будет жрать как не в себя. Для роботов уже много лет используют jetson
робот с двумя чемоданами батареек в руках?🤣
Droider находится в суперпозиции между нюансом и перспективой
Милые 🦄 в имени 🍇 I-I0 класс
Милые 🍀 в имени 🦊 I-I0 класс
Милые 🤫 в имени 🤪 I-I0 класс
Возможный путь развития такой железки.
Такой микрокомпьютер может стать базовой станцией для домашнего ИИ ассистента. Возможно ассистент роботизированный, либо электронный супер-помощник. Его мозгами будет данный мини-компьютер, в котором будет какой-нибудь триллион параметров. (К тому времени нвидия сделает такой процессор). Условно, базовая станция. Хочешь себе ассистента поумнее? - покупай еще миники и делай кластеры.
Так можно будет использовать AJI в любых условиях. От домашних до мега-заводов. В зависимости от задачи - докупаешь миники в кластеры.
Хотя, конечно, если появятся роботы, то такие процессоры можно будет сразу в них встраивать.
AJI расшифровывается как "Artificial Jewish Intelligence". Но вообще не понимаю, чего все так цепляются за ИИ. как будто в мире компьютерных технологий ВООБЩЕ ничего другого не осталось
Я так понял никто не опасается ИИ, все думают что могут контролировать того кто умнее их в миллион раз
@@НиколайБухаров-д5н ну, это уже вопросы ко всяким Илонам и Сэмам. Я лишь накидал по сути пример сервера супер-умного дома на основе ИИ.
Милые 🦄 в имени 🍇 I-I0 класс
Милые 🍀 в имени 🦊 I-I0 класс
Милые 🤫 в имени 🤪 I-I0 класс
Хорошо, прям очень хорошо. Я давно о такой штуке мечтал. Если он будет стоить 350к, и реально запускать модельки на 90Гб с приемлемой скоростью, то я готов его взять вместо новой видеокарты. Ибо нейросети нужны больше чем графика.
Думаю сначала стоит подождать выхода и тестов, вижу много спорных нюансов, давайс таки не кратно мощнее раз. Ещё непонятно какой тип памяти используется если это ddr5 как используется в ноутбуках или обыных пк то не думаю что скорость генерации с такой памятью будет какой то заоблачной.
Хочу узнать сколько tops будет на моей rtx4090 laptop в fp4
@@Musicchannel-wp2je ddr5x было написано
@@mi111982 почитал такой тип памяти раза в 2 быстрее обычной ddr5, если мощный нейрочип работает с этой памятью можно прикинуть что эта штуковина будет выводить примерно 5 или даже больше строчек текста в секунду что вполне приемлемо для комфортной работы дома
Какие задачи преследуете? Какие модели?
Зачем и в чём смысл? Всеравно самые большие модели не потянет
Непонятны две вещи:
1.Чем охлаждается данная коробочка?
2. Что это за отсек такой в левом верхнем углу? Дополнительное место для SSD?
1. чудом
2. секрет фирмы
Подождем когда в смартфон засунут)
Объединив десяток-другой одноплатников в кластер можно получить ту же, ато и большую вычислительную мощьность за гораздо меньшие деньги и уверен, что с меньшим потреблением энергии. В принципе, не обязательно одноплатников, например с Mac mini сейчас такое делают. Можно задействовать любое железо, в зависимости от целей.
каждый ролик огонь!
спасибо за творчество
Ну вот вам и сервак для умного дома, который и простой голосовой помощник обработает, и климатические режимы, и привычки пользователя выучит и будет опережающий сервис предоставлять.
За 3к долларов?
@@jijiDwuv А должно быть за сколько?
@jijiDwuv на фоне ремонта с полноценным умным домом фигня.
@@Makolfive рилток
Такой сервак и для умного города подойдёт )
0:34 "Немыслимые 1 петафлопс" в рекламе речь идет о чем то типа 1000 AI TOPS, правда для куцых FP4 , в то время как у старушки 4090 1350 AI TOPS, c FP8 у нее 0.6 петафлопа. А у 5090 в спецификации ~3400 AI TOPS. Про проф карточки отдельный разговор там очень много на экономичносьт и зато чку по конкретные применения завязано, но к примеру популярная Н200 SXM версии качает 3980 TFOPS/FP8. Прикинь! 🤣
вопрос в цене елси он по мошности как 4090 то пк будет немного дороже з-ато тебя 128 гигоб обедененной памяти что большой бонус
У 4090 энергопотребление явно повыше будет. Про форм-фактор тоже не стоит забывать. Если GB10 можно в робособаку засунуть, то в случае с 4090 получится роболошадь. Следом за пиццей придется заказывать чистые трусы.
@@Riocontra Ну да это компактная маломощная система. Вот только куда проще и деешвле нормальные NPU для это использовать по типу DeepX или google tensor. ВСЯ робособака типа Unitree Go2 или DeepRobotics Lynx стоит $3-4 тыщ а тут один только GPU юнит на 3+ тянет. Nvida в свои GPU много лишнего с точки зрения нейронных сетей толкает
@ производительность DeepX DX M1 25 Tops, производительность Nvidia GB10 1000 Tops, если ваши данные верны. Разница в 40 раз, логично, что и разница в цене существенна. На локальном рабочем месте системник с 4090 или 5090 бесспорно экономически целесообразнее. Но может быть какая-нибудь нетривиальная задача. Например Яндекс обучал нейросеть для беспилотного авто возя "ферму" в багажнике. А можно такие миникомпьютеры закинуть таксистам или в каршеринговые автомобили, не создавая при этом дискомфорт для пассажиров. Согласен, что для робособак производительность избыточная, но во многом это зависит, чего мы от них хотим.
@@Riocontra V3 100 TOPS и этог ОДНОГО чипа , это же в своей основе ASIC + обвес. Их можно пачками собирать, сколько ASIC в самом дешевом Antminer? Но можно и по отдельности мелкие для установки в камеры и т.п. в роли контроллера, более крупные для более тяжел прикладных применений - в тех же дронах, робособаках и т.п. Но есть еще и серверные применения 😁
Сделали супер железные и программные решения, такие модные, инновационные...а загрузчик - старый добрый GRUB
А в чем проблема? Он ограничивает скорость работы? Просто гробу все привыкли и если хочешь можешь сам другие поставить
Старый и добрый это лило.
@@viacheslavshambazov7445 нет. Лило - просто старый.
А груб - старый и добрый.
@@patunceон просто решил козырнуть какие он слова вумные знает. Ну, типа, гений 👍🫤
@@patunce дело не в том, что груб плохой. Дело в том, что он старый и уже достаточно давно совсем не развивается (речь именно о развитии, не о мелких фиксах), а многомиллиардная корпорация не удосужилась разработать для своего инновационного продукта хотя бы высокотехнологичный загрузчик.
Дак запускать то и сейчас можно на обычном мощном компе, а вот тренировать...
Я представил как китайский мальчик вырывает эту коробочку из рук Хуанга и убегает в неизвестном направлении в сторону Китая..))
А коробочка то там всё равно пустая) Возможно даже из картона и фольги)
@@ivan_zzz Вполне возможно..)
Что бы повторить надо иметь оборудование и программное обеспечение. Чего нет у китайцев
что толку китайцы не потянут даже 200нМ. своих чипов нет, только по лицензии старые амдешные чипы и те китайцы не смогли довести до ума. в амд уже смеются и плачут от этого договора. сколько можно обучать тех кто необучаем от слова совсем!
Кто тебе мозги промыл, у Китая уже 3нм есть @ЛаганьКалмыкия
Запуск сети(inference) - задача относительно не сложная.
Может эта штука позиционируется, что на ней сетки обучать можно будет быстро и ловко?
Это тогда совсем нишевое применение.
так оно не для того, чтобы вы у себя дома запустили чат гпт3 и радовались, что локально, а для того, чтобы сотруднику в офис на стол поставить, чтобы он быстре "прототипировал" и гипотезы свои проверял
Конечно же было бы круче если бы на него можно было установить модель больше chatgpt 3. По типу DeepSeek r1 и что бы ещё места осталось на других.
Но звучит круто а главное он очень компактный, в теории это очень важный инструмент но дождёмся отзывов
ждём квантовый мини-суперкомпьютер
У меня он уже есть 🎉
Наконец-то пасьянс без лагов пойдёт! Ухх..заживём!
Так первые шаги.. Прогресс) Глядишь и на Аллишке начнут скоро аналоги выползать :D
Новенькая DeepSeek-R1 это около 700 миллиардов параметров, т е 4 таких штукенции, правда, такие модели это вот правда для коммерческих проектов, а там уже лучше специализированные сервера с профессиональными видеокартами использовать.
Если брать за очень таки хорошую модель где-то 32 миллиарда параметров, то 5090 спокойно запустит такую GGUF модель на 6 квантах. Для тренировки графических и текстовых нейронок также хватит.
Другое дело если брать сразу несколько моделей разом. Один определитель (для чтения информации с картинок), затем сверху модель для генерации текста и поверх всего этого низкую модель для генерации картинок + контрол нет. Чисто в теории, такой франкенштейн сможет создать 3Д игру в низком разрешении, которую можно будет заапскейлить уже на ПК до чего-то более-менее внятного (модель для определения объектов на фото\видео, текстовая модель для генерации сценария\диалогов, низкая модель для генерации картинок + контролнет). Для 2д игр такое будет, правда, перебором, так как nvme накопителя + видюхи с хотя бы 8 гигами будет достаточно для создания чего-то похожего на РПГ мейкер (методом свапа и простоя для генерации).
Пока-что смотрится так, что просто установишь со сдачей в аренду с почасовой оплатой и как бы всё. Благо на данный момент у нас таких сервисов не много, если они вообще есть (я не нашёл, по крайней мере). Вопрос ещё в цене, стабильности, энергопотреблении и вообще просто как скоро они выпустят digits 2.
самое главное не сказал, форм фактор тот же что и у jetson nano и можно ли будет засунуть в turing pi 2.5?
Мне одному кажется что "ИИ" не звучит, давайте говорить "ИскИн" - это звучит 🤘😎🤘
Ещё можно говорить И2. Типа "идва".
У Брина в "Бытие" ИР - искусственный разум.
На котором каждый скуф сможет хостить домашнюю Альтушку, но есть нюанс…
Если Валера - то особенно смотрим).
А разве это всё не может делать видеокарта с тензорными ядрами?
Может - медленнее и менее эффективно. Если нет денег на ASIC, то консумерские видяхи - выход. Если есть - в них нет никакого смысла для продакшена.
нейронки все заточены на использование тензорных ядер, а в этом суперкомпьютере их мало
Ну как сказать, может. Если очень грубо, то все текущие «домашние» генераторы зависимы от видеопамяти и, как следствие, от железки, которая не модульная совсем. Отсюда, кстати, вой про память в решениях «Нвидии» (*ну и от 4К-гейминга*), карточки-то мощные, но памяти на мощные модели не хватает. Если бы можно было закинуть обчёты на оперативку, то да, такая штука спорная. Но если это некое промежуточное звено, где оперативка по внутренней логике - это видеопамять, то это прорыв, где вы ещё увидите видюху на 128 ГБ оперативы, и даже если скорость одной операции будет низкой, то объём данных позволит делать на этой штуке очень тяжелые расчёты, которые просто нельзя сделать на бытовой карте..
@@nikkurl123только не тяже тяжёлые, а занимающие память, не стоит путать. Будет узкое вычислительное горлышко тем не менее
@@nikkurl123 у оперативной памяти скорость работы очень маленькая по сравнению с видеопамятью + на большее расстояние данные надо слать. (в случае с обычным пека)
А его можно будет использовать в 3д моделировании и какая ос там будет
linux
уже достаточно большие модели можно запускать у себя на ПК и без всяких NVidia) Мне кажется это чисто бизнесовая тема
Лет через 10-15 такие "коробочки" могут стать доступны на еВау/Авито простым людям. Если их к тому времени не запретят вместе с 3Д принтерами как "инструменты террористов". Я сам немного занимаюсь LLM -моделями любительский и модель на 200б на своем железе... Это сколько же там "оперативки" доступно GPU? Пары RTX 3060 12 gb еле хватает чтобы запустить нормально 20б модель отвечающую на ввод с удобоваримой скоростью.
Окей, Джарвис, какая погода за бортом?
прикинь, у меня телик так уже 8 лет может)
Помню время, читал компьютеру, и кластеры подбирались к отметке 1пФ
Надеюсь оно будет дешевле чем видеокарта с 96гб памяти. Можно учить свою сеть например для компании. Любой сотрудник сможет мгновенно узнать любую информацию накопленную за время работы компании. Например мы продали за последние 3 дня столько то столько таких то штук по такой то цене и с такой то прибылью и имеем тренд на повышение, пора закупать на склад новую партию, подтвердите оплату!
1:32 обдувают не кулерами, а вентиляторами. Кулеры же могут быть безвентиляторные, fanless cooler.
Эх, 3к зеленых этой в целом неплохой ценник для такой интересной железки, жаль только у меня нет таких денег, я бы точно взял такую даже на последние мани)
Было бы прикольно лет через 5-10 иметь такой у себя дома с установленной llm типо ламы чтоб он мог управлять умным домом или поболтать с тобой и при этом крупные компании не собирали твои данные.
Хороший байт, я думал, что вы уже успели купить😢
Брух они только в мае презентуют
Малаца, хорошо сделали! А Crysis потянет?
Ну если такой нюанс, то я так не играю😂
На шаг ближе к тому чтобы прогрузить всю карту Майнкрафта, но, всё ещё так далеко....
С учётом, что 4-bit ADPCM-xq кодирует звук на слух с таким же качеством как CDDA 16-bit, то удивляться нечему (даже обычные 8-bit шумят - ломкая кривая).
Это экономия в 4 раза на хранилище вообще без требований к ЦП при воспроизведении (NES справляется), потому что без сжатия в каком-то смысле в отличии от mp3.
При этом 4-bit ADPCM создаётся даже при частоте выборки 192 КГц. Наверно и в нейронках используют какую-то подобную адаптивность для сохранения нужной точности.
Интересно, а майнить на нём можно?🤔
Интересно, можно ли майнить?)
Л2 будет лагать в замесах на осадах или нет? 😅
арм процессор и блеквел в одном корпусе звучит интересно
4 бита норм - много таких моделей сейчас гоняют. Ответы неплохие.
Пожалуйста не поворайчивайтесь боком, мне страшно.
Какая разница между персональным суперкомпьютером и компьютером?
@@NicolasXXI_youtuber основная разница в том, чтобы скейлинг в оборудовании приводил к скейлингу производительности. Условно 10 карт по 10 терафлопс не дадут 100 терафлопс, но можно выжать условно 90, если правильно хард и софт настраивать, а можно 70, если руки кривые.
Супер компьютер мощнее в 10-1000раз
Дык а где сравнение в локальном запуске ии-моделей на диджитале и обычной 4090 ??
А зачем это? 4090 имеет всего 32 гига видеопамяти, она ни одну ллм больше 100 миллиардов не запустит даже. Именно тут ботлнек
Если бы этот диджитал был в разы быстрее, уверен, что на презентации об этом бы сказали. Есть подозрение, что он в разы слабее. Единственный, но весомый плюс - объем памяти. В каком-то смысле из-за этого устройства трудно сравнивать.
@@spiritlass вроде бы 24 Гб же... 32 - это у 5090 будет.
@ а, показалось да
Очень нишевая коробочка для юных Тони Старков, которые делают своего Джарвиса на коленке в гараже..
Интересно увидеть сравнения с кластером из макмини или мак студио с гиганским количеством оперативы.
Спасибо Хуанг! Нормальные видеокарты? Нет, вот вам огрызки с смешным количеством ядер. Но зааато, смотри какой к нас мини-суперкомпьютер! Мощно, да?
Думаю корпорации будут закупать эту штуку сотнями в будущем.
Как это было с покупкой сотни PS3 для использования их как супер компютер под Linux
Ютуб потянет в 4к?
Он хотя бы маинкрафт с шейдерами потянет на 60 фпс?
нет, тебе же сказали
@@ispiteмля😂😂😂😂
Ps5pro выдает 30 терафлопс?) посмотрите разбор digital foundry, она выдает не больше 16
Боже) разные тесты есть)
Вопрос (сразу скажу, что не всё понял): можно ли на этом компьютере запустить ИИ с процессом обучения на основе данных которые будут ей скормлены. А точнее отдавать готовые смонтированные видео как примеры, что бы в дальнейшем ей отдавать сырые материалы которые ей нужно будет построить - смонтировать по аналогии с тем что ранее ей было показано ? Проще говоря заменить работу монтажа видео. p.s. я не говорю про интервью видео - это уже решаемо. интересует монтаж свадебных видео по 3-5 минут и свадебных фильмов по 20-40 минут. (то есть разнообразие кадров и объём большие).
Буду благодарен, если вы поделитесь другим вариантом решения задачи. Но всё что я смог узнать, так это то что нужно ИИ обучить под конкретно мою задачу... но это мне подсказал ИИ, а на деле не встречался с реальным опытом кто так делал.
....КАК я ПОНЕЛ, *_НА ЕТАЙ ФГГГНе ПОЛУЧИЦЦ КЛАСНЫЙ майнынг_*
.....ТАК ШО мб ОТСТНУТ ОТ ВЫДИО КРРТ
Задай свой вопрос ии. Без шуток. Так проще
@@NikONEplay я не умею задавать вопрос (составлять промт) так, что бы результат был подходящим.
@@alekseiiudin2874 какой нафиг промт. Щас не 2022-2023. Современные Ии общаются вполне адекватно и близко к человеческому. Ии во многом даже лучше понять может, чем люди. Но речь идет про нормальные современные модели, например, грок последний, чатгпт 4о, о1, сонет 3.5, лама 405. Это самые попсовые, но другого и не надо для большинства задач
Запаритесь готовить данные для обучения. Потребуется собрать терабайты свадебных видео чтобы обучить модель на их основе.
У меня знакомый на Nvidia jetson поднял локальную нейронку для управления дроном. Думаю на этой штуке можно будет ещё более высоких результатов добиться
На нëм пасьянс Касынка потянет?
Рассказывали-рассказывали… ни чего не понятно. Вы для обычных людей объясните, стейбл дифужин там работать будет? а на флуксе картинки делать будет эта штука? ламу какую потянет?
Смотря что считает нейронная сетка - "интеллектуальные" задачки в большинстве своём булевая алгебра с огромным количеством последовательных циклов и как результат высокая разрядность в нормальных процессорах просто превращает электроэнергию в тепло и тормозит исполнение скалярных вычислений.
Очень жаль что они сделали его в виде отдельного (ПК), куда интересней такую штуку впихнуть в комп через pcie и получить RTX ядра на 750ti
я уверен энтузиасты уже занимаются этим вопросом
Куртка стремится к технологическому господству🤗
Ведьмак на ультрах запуститься или нет в итоге?
Я немного отстал от жизни, поэтому не понимаю: для процессора обычного персонального компьютера нужно охлаждение, а тут супер компьютер вмещающийся в ладонь. Не понимаю как он без охлаждения работает?
Там охлаждение пол корпуса занимает.
ИИ для анализа микрофотографий с целью получения морфометрических числовых данных. Ну и статистику с них анализировать.
Наконец-то появился компьютер, который потянет, Fortnite, без фризов и статеров!
За нарушение закона Мура необходимо запретить digits на Земле и Луне.
Так и вижу , что для ГТА 8 понадобится именно этот компьютер !!! 😂😂😂
Это только начало. Учитывая сколько денег собираются вбухать в развитие ИИ, только представьте что будет когда все это впихнут в разработки той же Бостон Динамикс. Это вам не мясные штурмы устраивать
Это вам спонсировать мясные штурмы и удерживать фортецю с той стороны
Мне кажется, что Бостон Динамикс, после некоторых китайских новинок уже не выглядит таким уж новаторским, как бы не оказался на обочине истории
@@g0riz0nt взгляд с обочины истории
@@g0riz0nt такое чувство, что он последние 5-6 лет ничего не делает, а только деньги пилит
@@PromBom особенно когда посмотришь что вытворяет Unitree Go 2 pro, ощущение что Бостон Динамикс застряли в начале нулевых годов
Если "Digits" заявляет 1 петафлопс в FP4 - это узкоспециализированная система для ИИ-интерфейса, а не универсальный суперкомпьютер. В реальности:
- Для большинства задач её мощность будет на уровне RTX 4090 (100+ терафлопсов в FP32).
- Низкая точность (FP4) неприменима для науки, игр или моделирования - только для нейросетей.
Upd: Почему цена в $3000 вызывает сомнения?
- Себестоимость компонентов:
- 128 ГБ DDR5: ~$500-700.
- 4×4 ТБ NVMe: ~$2500-3000 (Samsung 990 Pro 4 ТБ - $750 за штуку).
- 20-ядерный SoC: Даже бюджетные 16-ядерные CPU (AMD Ryzen 9 7950X) стоят $600-700. Для специализированного SoC цена будет выше.
- Охлаждение и корпус: Минимум $200-300.
- Итого: Только компоненты стоят $4000+, не считая НИОКР, сборки и прибыли.
Примеры аналогов:
- Nvidia RTX 4090 (24 ГБ, 100 терафлопсов FP32) - $1600.
- Система с 4×RTX 4090 (0.4 петафлопса FP32) - $6400 только за GPU.
- Nvidia Jetson AGX Orin (32 ТОПС) - $2000.
Почему Nvidia может пойти на низкую цену?
Локомотив для экосистемы
Nvidia не просто продает железо - она зарабатывает на программном стеке (CUDA, Omniverse, AI Enterprise), облачных сервисах и подписках. Дешёвый "Digits" может стать "троянским конем" для привязки пользователей к их экосистеме.
Пример: Игровые консоли (PlayStation, Xbox) часто продаются в убыток, но прибыль идёт с игр и подписок.
Доминирование в ИИ-инференсе
Если "Digits" станет стандартом для локального запуска LLM (как ChatGPT), это укрепит позиции Nvidia в ИИ-индустрии и подорвёт конкуренцию (AMD, Intel, стартапы вроде Groq).
Массовое производство и экономия на масштабе
Архитектура Blackwell может быть адаптирована как для дата-центров, так и для компактных систем. Чем больше чипов выпустят - тем ниже себестоимость.
Государственные субсидии
Возможно, Nvidia получила финансирование от государств или партнёров для развития "гражданского ИИ", чтобы снизить зависимость от облачных гигантов (AWS, Google).
Риски и подводные камни
Скрытые ограничения
Подписка на софт: Базовая цена $3000 может не включать критически важное ПО (например, доступ к оптимизированным моделям Llama или Mistral).
Апгрейды: Система может быть "закрытой", а за дополнительные модули (память, SSD) придётся платить втридорога.
Урезанная производительность
Заявленный 1 петафлопс в FP4 может работать только в идеальных условиях (например, на моделях от Nvidia, а не на сторонних).
Реальная скорость для пользовательских задач (типа Stable Diffusion или fine-tuning) может быть в разы ниже.
Сроки и доступность
Старт продаж в мае 2025 - это лишь пре-заказы для избранных (стартапы, университеты), а массовый релиз за $3000 отложат на 2026.
Первые партии могут быть распроданы ботам и перекупщикам, как это было с RTX 4090.
Энергопотребление и шум
Даже если система компактная, при нагрузке она может:
Потреблять 500-700 Вт (половина мощности чайника),
Шуметь как пылесос, что сделает её непригодной для дома.
Исторические аналогии
iPhone (2007): Продавался с минимальной наценкой, но перевернул рынок, сделав ставку на экосистему (App Store).
Tesla Model 3: Машина с себестоимостью выше цены продажи, но она захватила рынок, а прибыль пошла с софта (Autopilot) и carbon credits.
Raspberry Pi: Мини-ПК за $35, который стал стандартом для образования и DIY-проектов, хотя изначально был убыточным.
Что это значит для пользователей?
Если Nvidia реализует задуманное:
Локальный ИИ станет доступным: Любой сможет запустить персонального ассистента уровня ChatGPT без облачных подписок.
Рынок переориентируется: Облачные гиганты (OpenAI, Microsoft) потеряют монополию, а разработка ИИ сместится в сторону edge-устройств.
Новая волна инноваций: Малые компании и энтузиасты получат инструменты для экспериментов, что ускорит прогресс в ИИ.
Заключение
Гипотеза о стратегическом демпинге Nvidia выглядит логичной. Компания может пожертвовать краткосрочной прибылью, чтобы:
Убить конкурентов на корню,
Сделать свои технологии стандартом де-факто,
Зарабатывать на подписках, сервисах и будущих апгрейдах.
@@spongegotа на рынке гос заказов видеоускорителей осталась только нвидиа?
@@Pshekich я не слышал чтобы AMD или intel предлагали такие мощности
расчеты не верны оперативка 460 евро 128 гигов в испании хоть сейчас заказыва Disco Duro Samsung 990 EVO Plus 4TB Disco SSD 7250MB/S NVME PCIe 5.0 x2 NVMe 2.0 NAND 270 евро и того 740 евро это в магазе так что до 1000 евро все по себестоимости кроме их процессора а 2 к возбмут за свой проц . так что все реально и хочу отметить 3000 сша в сша в европе 4000 евро ибо в сша нет налога на пс компоненты кароче минимум в европе на 30 проц дороже а елси вы в РФ ..........
а что им мешает выпустить универсальный суперкомпьютер с тем- же супер железом? Или для этого нужно выйти из вто?
Сравнимо с небольшим сервером, если сравнивать по осиливаемой нейронке. Так глядишь и AI карточки появятся скоро
Если бы аналоговые решения для нейросетей продали - был бы толк.
Мне кто-то там мемристоры к 2015 году обещал.
Так давно уже в цпу используется gpu модуль. А что толку? Большинство вероятно не используют gpu часть, в итоге только переплата.
Своя операционка. А какие программы под неѣ
а можно объеденить больше двух штук? 100 штук например. это же всего 300 тыс. но какая вычислительная мощность получается
вроде незя )
Сейчас пользователи мак будут обсирать этот девайс что мак намного круче
Чтобы ИИ хорошо функцианировал нужно постоянно кормить его личными данными. Все меньше и меньше конфидициальности. Уже телефоны пошли с ИИ.
Капец. Уже на самой превьюшке не правильно. Не петафлопс, а петафлоп. В английском слове petaflop нет ни какой s. Аналогично и с другими флопами.
Киберпук то потянет ?
Буду брать. 😎
Я так и не понял, кризис на максималках потянет?
если бы про нюанс сказали в самом начале, то не пришлось бы тратить 10 минут на это
Никого не удивляет? А меня вот удивляет, почему на нем ТАК МАЛО (оперативной) ПАМЯТИ, меньше чем на Mac Studio, суперкомпьютер, ага, СТЫДОБА.
И кому нужны показатели GPT 3 версии, когда на дворе 2025?
Уверен можно будет больше 4тб поставить, хотя для локального хранения этого и хватит скорее всего. Энивэй внешний ссд база
Нет, вас таких много. Не очень понимаете ЦА устройства)
+ очевидная киллерфича в виде быстрого интерконнекта
учитывая что на потребительских видюхах можно запустить разве что 35b модель с тем же квантованием q4 и то вся в видеопамять не влезет, возможность запустить на этой крохе модель 105b выглядит неплохо. Ну а про количество памяти, Для чего вам больше? Сколько вы хотите хранить моделек чтобы вам не хватило 4 тб?
на мэээкбуах (специально каверкаю) с их армами даже программ нормальных нет и по поводу тормозов ходят легенды
А причём тут показатели, модель на 100 лярдов параметров, времён ГПТ-3, не равна по своему качеству современной модели на 100 лярдов пар. Современные модели на 8 - 12 лярдов параметров (запускаются на видюхе с 8 GB VRAM) на уровне ГПТ-3, а некоторые из них и подавно умнее чем гпт-3 по всем тестам. (Nemo/Ministral, L3.1/3.2, Qwen2.5)
интересно, получится на нём запустить ферму 42 фугаботов?
эво новый бог в этой игре
Что за очки у тебя?)
Ролик про ИИ где работники 4:32 проектируют кубик из Portal 😂 Ну Ну ... А что там по кортированию головного мозга?
Эти компьютеры пойдут как валюта когда ,, машины встанут ,,
Валера снова тут ура ❤❤😚😚😚
Подожду когда на Авито можно будет купить за бакс
Автор в такой манере говорит какбудто сам каждый день придумывает суперкомп пока чистит зубы😂
Ура Валерий наконец то
Точность чисел с плавающей запятой зависит от их размера. Чем меньше число тем оно точнее. Например если записать значение выражающее расстояние в километрах, то это будет точнее чем если записать это же расстояние выраженное в миллиметрах
А причем тут разные представления числа если речь идет об округлении? Грубо говоря отличие fp4 от fp8 в том что настоящее число равно допустим 0.45 а при переводе в fp4 число получается 0.5 (я опустил все эти 0 для более понятного примера)
У вас показания будут в одном случае округляться до КМ, а в другом случае будут округляться до ММ. С какой точностью вы найдете нужное место быстрее? В радиусе одного километра или в радиусе одного миллиметра?
@anunah7497 в том то и дело что округление срабатывает по разному, в зависимости от того насколько крупное это число. Ваш пример не совсем правильный, 0.45 никогда не округлилось бы до 0.5 потому что значение довольно небольшое. А вот 1000.45 вполне может быть округлено до 1000.5
@@isf4801 если вы говорите про обычные десятиричные значения, то очевидно что расстояние в миллиметрах будет более точным чем расстояние в километрах. Но мы говорим про компьютерные форматы чисел. Они работают по другим правилам. Округление зависит от размера числа
@@Sadamitsu При поисках крупномасштабных объектов легче оперировать километрами, далее может и хватит точности в метрах. На фоне метровых объектов поиск напёрстка будет легче в сантиметрах. И так далее по этому алгоритму поиска. Так и более точное округление не всегда полезно
Когда 4тб и 128гб стало много? Это база вообще-то
4 терабайта памяти и 128 Гб оперативной
Как ты себе так волос сделал?
Суперклеем
Кардан за информативность 👍
По генерации изображений даже лучшие ии любят обобщать, коверкать, и искажать особенно задники, фоны, мелкие детали.. не знаю влияет на это битность или нет но то что я понял он еще больше будет обобщать... цветы но фото с кроликом он уже не осилил, глянем.
На четырехбитных числах можно только выполнять модели (inference), но уж точно не обучать. Так что не знаю, куда столько 4битной мощности…
А на этой коробочке можно сыграть катку в Доту или КСку? 🤔 Если да, то беру. 😂