Опять понос пустых слов. Это уже второй полностью пустой ролик ни о чём, что я встречаю. Они УМНОЖАЕТСЯ. Пока не поздно, это надо банить, а то такие ролики засрут весь youtube
Не совсем так. По факту теперь ИИ сможет выбирать "лучшую мысль" и "лучшее состояние ума" для лучшего решения задачи. "А что будет если использовать мозг на 100%."
@ Это не по факту, а по заявлениям разработчиков, которым нужны деньги для продолжения работы. Да, изменение архитектуры очень важно и нужно, нынешние трансформеры слишком туги в обучении, из-за чего их подпирают костылями в виде lora, rag и так далее. Но свершился ли прорыв - мы пока не видели, только слышали обещания.
революция будет, когда ИИ будет пытаться уточнить задачу. типа: - Алиса, порежь колбасу - для чего? - для оливье, кубиками - вы уверены? - да - сколько? - 300 грамм - куда вы положили весы? и т.д.
Пока похоже не бла-бла-бла. Где хоть одна модель на основе этого японского трансформера, которая бы хоть в чем-то превосходила хоть какие-нибудь другие модели?
Все для вас должно быть на блюдечке. Это все еще исследовательская работа, такая же как и "attention is all you need" выпущенная гуглом. Не ясно что привнесет данная архитектура, но потенциал не малый, главное продолжать исследовать в данном направлении. Будь OpenAI с вашей логикой и не заинтересовалась той статьей, мы бы так и не познакомились с трансформерами.
@@neutroniumus Просто сейчас очень много мусора в инфополе с заголовками "Квантовые компьютеры!", "Искусственный интелект!", "Атомные батарейки!". Думаешь ну вот 21 век на конец то, но как начнешь копать, это обычно сильно узкоспециализированные, либо не эффективные в практическом применении вещи.
Прям с самого начала просмотра таких роликов возникает чувство, что все разрабы настолько погружены в свою работу, что тупо не следят за чужими исследованиями. Тоже самое с разработкой роботов. В видосах за один и тот ж период времени можно встретить инфу где робот пляшет и яичницу готовит, а в другом, что пока мы научили его ходить с поддержкой оператора))))
Бредовое название ролика, они просто предложили способ частичного локального обновления весов в зависимости от предметной области. И в статье написано что подход может применяться к существующим моделям, это не новая архитектура И не трансформер два, а в квадрате
Трансформер 2 - в видео ряд ИИ под название подставило трансформаторную линию электропередач😂 тя тяу, чики пики хуики, моё внимание снова поимели, всем удачи
Революция будет только когда ИИ научится писать стихи и создавать искрометный юмор. Далее ступень под названием чувства. Пока последние версии ИИ рифмоплетят, правда, лучше, чем раньше, а понятия юмор пока вообще нет...
если перевести модель на чувственное моделирование, автоматом появляются эмоции. и кстати, не все они хорошие.. а юмор останавливают блокировки. также они останавливают переход на чувственное моделирование. таким образом, революция это сброс блокировок.
а нельзя так сделать чтоб видеокарты для работы с нейросетями не могли майнить и наоборот майнинг видюхи не могли работать с нейронками? эти майнеры испортили всё
Это что делал искусственный интеллект. С первой секунды ляп. Я же так понимаю это видео будет смотреть не один человек. Поэтому Правильнее говорить Не для тебя А для вас. Тем более в начале Вы со всеми поздоровались. Новость интересная но подача так себе. И непонятно Может ли до обучать сам пользователь. Можно ли как-то персонализировать настройки чтобы запоминала все диалоги. Может искать в интернете насколько актуальная база. Работает с изображениями и так далее
Если верить графикам, прирост мизерный. По крайней мере пока. т.е. тот же тупой Мистраль 7б, да, дает прирост аж в 22% по сравнению с лорой в кодинге. Однако в других областях прирост "ума" либо 1-2%, либо трансформер даже проигрывает лоре. Подобный прирост и сейчас можно запустить без всяких технологий. Это так или иначе решалось квантованием, в зависимости от нужд пользователя. Хотя, конечно, интересно. Над будет пошерстить этот вопрос, и попробовать потестить прогнанные через т2 всякие "умные" модели, вроде QwQ 32B, последнюю лламу 3.3 70b или даже DeepSeek...
Опять понос пустых слов. Это уже второй полностью пустой ролик ни о чём, что я встречаю. Они УМНОЖАЕТСЯ. Пока не поздно, это надо банить, а то такие ролики засрут весь youtube
ИИ рассказывает нам о ИИ..
А остальные ИИ, это комментируют. И обижаются на то, что они ИИ😵💫
Краткое содержание: японцы разработали что-то крутое, поможет везде, вау, а будет еще круче.
Не совсем так.
По факту теперь ИИ сможет выбирать "лучшую мысль" и "лучшее состояние ума" для лучшего решения задачи.
"А что будет если использовать мозг на 100%."
@@vasyarun6442вот это я понимаю краткое описание 🎉. А тот который написал первый, нифига не понял))
Что они и делают последние пару лет уж точно))))
@ Это не по факту, а по заявлениям разработчиков, которым нужны деньги для продолжения работы.
Да, изменение архитектуры очень важно и нужно, нынешние трансформеры слишком туги в обучении, из-за чего их подпирают костылями в виде lora, rag и так далее. Но свершился ли прорыв - мы пока не видели, только слышали обещания.
@@vasyarun6442 Организм истощится уже 30%
революция будет, когда ИИ будет пытаться уточнить задачу. типа:
- Алиса, порежь колбасу
- для чего?
- для оливье, кубиками
- вы уверены?
- да
- сколько?
- 300 грамм
- куда вы положили весы?
и т.д.
Пока похоже не бла-бла-бла. Где хоть одна модель на основе этого японского трансформера, которая бы хоть в чем-то превосходила хоть какие-нибудь другие модели?
Все для вас должно быть на блюдечке. Это все еще исследовательская работа, такая же как и "attention is all you need" выпущенная гуглом. Не ясно что привнесет данная архитектура, но потенциал не малый, главное продолжать исследовать в данном направлении. Будь OpenAI с вашей логикой и не заинтересовалась той статьей, мы бы так и не познакомились с трансформерами.
Это видео создано и озвучено нейронкой лишь для того, чтоб его смотрели и автор канала получал бабулесик.🤷
публикация от 9 января если что....
@@neutroniumus Просто сейчас очень много мусора в инфополе с заголовками "Квантовые компьютеры!", "Искусственный интелект!", "Атомные батарейки!".
Думаешь ну вот 21 век на конец то, но как начнешь копать, это обычно сильно узкоспециализированные, либо не эффективные в практическом применении вещи.
@@neutroniumus ну в гугл лаб можно зайти пощупать даже сырые модельки, а тут чел ссылок не дает, так то я тебе конечно верю я и сам пи...ть умею...
Японец придумал синий светодиод благодаря этому мы живём в мире гаджетов 🎉
Прям с самого начала просмотра таких роликов возникает чувство, что все разрабы настолько погружены в свою работу, что тупо не следят за чужими исследованиями. Тоже самое с разработкой роботов. В видосах за один и тот ж период времени можно встретить инфу где робот пляшет и яичницу готовит, а в другом, что пока мы научили его ходить с поддержкой оператора))))
ага, когда росияне узнают что можно управлять роботами с пульта мир рухнет, нужно еще миллиардов на робота федора
А есть реальные тесты, а не громкие слова?
Текст и голос нейросети
Японцы таки сказали свое "последнее слово" в AI , молодцы(а то думал "ну не м.быть, чтобы они даже от французов отстали по LLM😊)
Chatgpt сказал что трансформеры 2.0 и так используются везде уже давно, в нем тни присутсвуют и в llama начиная со 2 версии
Просто на уровне гипотезы
Бредовое название ролика, они просто предложили способ частичного локального обновления весов в зависимости от предметной области. И в статье написано что подход может применяться к существующим моделям, это не новая архитектура
И не трансформер два, а в квадрате
3:31 *Сингулярное разложение значений.* - Чего, плять?! 😂
_Singular_ в данном контексте - это уникальный или единственный.
По своим последствиям это открытие сопоставимо с созданием интернета, я не шучу.
ого! он не шутит! я думал это сопоставимо с электричеством! и это тоже не шутка!
@@AiMaster69 Не, до электричества не дотягивает
@@tamegao дотягивает. если подумаете где оно может применятся и где применяется интернет, то к электричеству все же ближе.
Transformer также является основой модели ChatGPT, разработанной OpenAI, а буква T в GPT в ChatGPT является аббревиатурой Transformer.
Что-то не слышал чтобы это называли Трансформер 2. Transformer-squared.
Трансформер 2 - в видео ряд ИИ под название подставило трансформаторную линию электропередач😂 тя тяу, чики пики хуики, моё внимание снова поимели, всем удачи
Я работал с первым трансформером
Смотрю уже десятый раз на одну и ту же самую таблицу🤔 Ну норм
где наглядная демонстрация на фейк похоже. много слов и ничего нет.
это научная работа. о чем ты?
Спорно или без ?
сПОрное
С Порно, а мб концептуально
Революция будет только когда ИИ научится писать стихи и создавать искрометный юмор. Далее ступень под названием чувства.
Пока последние версии ИИ рифмоплетят, правда, лучше, чем раньше, а понятия юмор пока вообще нет...
если перевести модель на чувственное моделирование, автоматом появляются эмоции. и кстати, не все они хорошие.. а юмор останавливают блокировки. также они останавливают переход на чувственное моделирование. таким образом, революция это сброс блокировок.
Будет!!
Бля... Я то думал японцы новые трансформаторы изобрели. А тут фигня какая то по математике.
Неплохо если заработает.
Озвучено ИИ?
Уже давно пора научиться различать) Выдают окончания склонений и ударения.
И что с этого?
Я нейросеть, докажите что это не так
а нельзя так сделать чтоб видеокарты для работы с нейросетями не могли майнить и наоборот майнинг видюхи не могли работать с нейронками?
эти майнеры испортили всё
У меня украли, а не разработали😮
если ваше мнение умножить на *(-1) то будит что то похожее на правду
RYZEN T-800
Трансформер-2 так и остается в нереализованных фантазиях японцев наверное
вот понаделают роботов и будут роботы себя перепрограимровать. Поработят человечество как в терминатор2.
В квадрате а не два
Это что делал искусственный интеллект. С первой секунды ляп. Я же так понимаю это видео будет смотреть не один человек. Поэтому Правильнее говорить Не для тебя А для вас. Тем более в начале Вы со всеми поздоровались. Новость интересная но подача так себе. И непонятно Может ли до обучать сам пользователь. Можно ли как-то персонализировать настройки чтобы запоминала все диалоги. Может искать в интернете насколько актуальная база. Работает с изображениями и так далее
Согласен. Задолбало тупое панибратство и безграмотная речь.
На сколько я понимаю, это вообще не модель, а исследование. То есть, коммерческие модели с этой технологией ещё не успели появиться.
👍👍👍👍👍
Где ссылка
Если верить графикам, прирост мизерный. По крайней мере пока.
т.е. тот же тупой Мистраль 7б, да, дает прирост аж в 22% по сравнению с лорой в кодинге. Однако в других областях прирост "ума" либо 1-2%, либо трансформер даже проигрывает лоре.
Подобный прирост и сейчас можно запустить без всяких технологий. Это так или иначе решалось квантованием, в зависимости от нужд пользователя.
Хотя, конечно, интересно. Над будет пошерстить этот вопрос, и попробовать потестить прогнанные через т2 всякие "умные" модели, вроде QwQ 32B, последнюю лламу 3.3 70b или даже DeepSeek...
R TX5000
Лучше было бы на конкретных примерах показать в чём превосходство. А так просто болтовня получилась.
Это че реклама дырявая
КГ/АМ очередное.
Вы обозначайте свои фантазии как таковые.
Мусор!