Мечта мозгача - переходник с VGA на USB. Не только существует, но и работает!
Вставка
- Опубліковано 15 вер 2024
- В этом видео мы познакомимся с мечтой многих пользователей - перходником с VGA на USB. Протестируем его и немного познакомимся с различными видеопереходниками для ПК
Спасибо за видео!!! Вселило надежду! Мне пришёл такой адаптер вчера...но сидирома нет...5 часов сёрфил по интернету - драйвера не нашёл...зато Вас нашёл!!! ))) Выложите драйвер для Вин10 на гугл-диск, пожалуйста!!! Очень жду - нетерпится подключить!!!!!)))))
Здравствуйте. Диск с переходником на работе, я только в среду буду там. Выложу обязательно.
@@UCService Я тоже очень жду!
@@user-od2oo1nr1y Блин парни совсем забыл. :(( В ПН обязательно выложу
@@user-od2oo1nr1y cloud.mail.ru/public/1JtU/CPwwJQoXk
cloud.mail.ru/public/1JtU/CPwwJQoXk
Возможно Вы подскажете, как подключить дополнительный монитор с помощью адаптера USB3.1(TypeC)-VGA!? К ноуту Асеr Aspire E 15 на Windows 10... Я в спешке его заказал на Али, не разобравшись в его избирательной совместимости...
К сожалению не подскажу, не сталкивался.
Больше интересовало можно ли в USB 3.0 Type-A подключить монитор чтобы работало. А то уже 2 монитора заняли HDMI и Type-C 3.0 (через HDMI перходник). Хочу 3й монитор еще, но не покупая хаб. Похоже ответ найден. Пошел искать нужный переходник.
Я думаю, что эмулируется полноценный видеоадаптер, естественно, послабее даже обычной современной "затычки" (просто для вывода изображения). Загрузку ПК можно настроить так, чтобы он грузился и без видеокарты (не во всех случаях - зависит от материнки), но изображение появляется только после загрузки драйверов, потому, наверное с таким адаптером можно просидеть ровно до первой ошибки. С ним даже в безопасном режиме ничего не будет видно, потому нормально использовать его можно только как вспомогательный.
На мой личный взгляд, видеоадаптер должен использоваться только для вывода изображения (ровно как этот), а не как в современном мире, и для вычислений. Для вычислений должен использоваться только процессор. Многим не понять как так, но уверяю, это возможно уже не раз делал вычисление по проэктированию подобного ЭВМ - вполне возможно, но с другой архитектурой (да и с этой вполне, но смысл не большой).
Ммм, вы понимаете разницу между CPU и GPU?) Наверное, все в мире дураки и ставят видеокарты в устройства, чисто по инерции, потому что все ставят...
И да, процессор вполне способен взять на себя все вычисления: не раз видел такое, на российских системах и в экспериментах по эмуляции GPU чисто из интереса. Но ничего, кроме низчайшей производительности и отвратительной энергоэффективности, я не видел.
Каждой задаче - свой инструмент.
@@AE075G Вы не внимательно читали мой коммент. Я написал ровно то же самое о современной архитектуре, а в общем я имел ввиду совершенно другую архитектуру.
И да, на счёт всех в мире. Большинство не способно мыслить. К примеру, Ваш комментарий, в котором Вы вообще не поняли о чём я и начали мне втирать то, что втёрли Вам, и нисколечки в этом не сомниваясь...
@@horlonangel я внимательно читал и не нужно снижать значимость моего мнения и завышать свое.
Переходить на другую архитектуру и перекорчевывать рынок ради вашего гениального решения: отдать все вычисления процессору -- вдвойне невыгодно и большинству не надо. Без этого момента с архитектурой, часть комментария про замену видеокарты - не имеет смысла.
И бонусом, мне ничего не втирали, я и сам отлично разбираюсь, а в случае чего знаю, где уточнить. А вот вы занимаетесь изобретением колеса или продвижением чьего-то переизобретенного колеса (помню когда то давно ЭВМмам действительно графические юниты нафиг не нужны были ;)...). В крайнем случае, я допускаю применение совмещённых вычислений в общих задачах на краях диапазона производительности:
1. Контроллеры автоматизации с графическими панелями низкого разрешения
2. Любые мощные процессоры (но лучше многоядерные и с быстрой памятью), прикидывающиеся и CPU и GPU.
В остальных случаях - это не популярные исключения в виде экспериментов юзеров, систем с CPU на собственной архитектуре с не доработанной до работы с GPU архитектурой или других специальных вычислителей с повышенной эффективностью к конкретной задаче.
Просвятите меня, пожалуйста, где сами используете ваш CPU на другой архитектуре без дискретного и встроенного графического процессора? Быть может, это поможет мне вас лучше понять.
@@AE075G Вы своим предыдущим комментарием подтвердили свою не внимательность. Нет смысла?Современная архитектура изжила себя, остаётся только распараллеливать вычисления, а она изначально не проектировалась под такие цели. На счёт новой архитектуры. К примеру, современный процессор i7 13700K имеет 11328 млн. транзисторов, i80386 имел всего 250000 транзисторов. Тоесть это в новом процессоре поместится 45312 старых i80386. А теперь представьте, что это процессор с 45312 ядрами. На мой взгляд, i80386 уже избыточен, можно и что-то значительно проще использовать с архитектурой RISC. И представьте, что архитектура ЭВМ имеет возможность практически бесконечно наращивать количество таких вычислительных блоков.
И самое главное: стандартизация инструкций. В математике есть всего несколько основных: суммирование, отнимание, умножение, деление, сравнение. И что бы кто не придумывал, но новые операции будут состоять из этих простых. Так же и в процессоре не должно быть лишнего ничего.
@@horlonangel хватит пытаться меня упрякнуть в чем то. Так у меня появляется только больше желания с вами не согласиться. Разрешите, что бы не тратить свое и ваше время поинтересоваться о вашем образовании и компетенция.
Что касаемо вашего последнего комментария. Что то мы ушли от темы необходимости или отсутствия таковой для наличия видеоускорителя. А в остальном, может, современная архитектура и изжила себя, но корпорации и дальше будут улучшать её, пока она не станет им не выгодной. "Нет смысла", не потому что нет перспектив, а потому что не оправдано. Экспериментов с архитектурой, удалением "лишних" инструкций и создание новых лишних инструкций для впихивания графики в математический вычислитель, я могу ожидать только от Байкала, Эльбруса или от китайцев.
Массовый процессор должен быть универсальным и совместим в широком смысле, поэтому в нем неизбежно будут лишние, для кого, то блоки. И к слову о вашем сравнении процессора 2022г с процессором из 1985г. Что это за бред? То есть по вашему, адекватно на равных сравнивать авиалайнер на 300 человек и 150 двухместных учебных самолётов?
Я надеюсь, вы понимаете, что отношение характиристик процессора не имеет линейной зависимости от количества транзисторов и понимаете насколько современный процессор громадней этого 32 битного старичка?
1) 32 и 64bit, от одного этого уже можно возводить в степень количество транзисторов (как минимум транзисторов ядра);
2) Количество инструкций в 80386 - 150, в i7 - минимум 920.
3) Обилие доп периферийных блоков в i7, в т.ч.: сопроцессоры, блоки декодирования, контроллер новой ОЗУ нескольких поколений, контроллер новой ПЗУ нескольких типов и поколений, контроллер очень разнообразных внешних шин и протоколов для не менее разнообразных разъёмов и устройств, контроллер внутренней межъядерной связи и сама шина межъядерной связи, контроллер ядер и потоков, питания и туева хуча других контроллеров, я вообще не лекцию веду)))
4) В 24 раз больше ядер у i7. При этом всем, они ещё и разного типа, их нужно запихнуть в какую то структуру поддерживающую наращивание, управление и объединение с другими ядрами;
5) На минуточку, встроенный графический ускоритель и несколько типов кеш памяти
И после этого вы ещё сможете сказать что какой то там 80386 избыточен? Избыточен для чего, лол?) Для ЧПУ станка с сенсорным дисплеем?)
Я полностью согласен на счёт элементарных операций в случае с микроконтроллерами. Но в компьютерах, их усложнение до современных инструкций делается для того, что бы файлы программ и систем не весили под тонну, что бы каждый уровень ЭВМ, а так же его разработчик занимался тем, что умеет лучше. Зачем вообще тогда нам инструкции и ещё так много, если есть отличные элементарные операции? Зачем нам C++, PYTHON, давайте на ассемблере все будем кодить... Давайте будем для каждого нового процессора переизобретать архитектуру заново...
Между тем, даже у перспективной и облегченной ARM на десктопах транзисторов не меньше. И тоже есть отдельный видеоускоритель.
Так получается, видяха вообще не участвует? Это получается что-то типа распаянного видеовыхода на материнке?
Не, видяха участвует, переходник этот как дополнительный видеовыход, но изображение формирует видеокарта.
Скажите мне пожалуйста а если я подключу к телефон по otg к монитору будет работать скажите мне пожалуйста я хочу изображение с телефона вывести на монитор
Здравствуйте. Очень сильно сомневаюсь. В вс буду на работе, постараюсь не забыть попробовать
@@UCService Для этого наверное нужно будет драйвера портировать под Андрюху, а так, почему бы и нет...
Скажите как будет если смотреть фильмы с ноутбука на ютубе
Здравствуйте. Как с вами связаться? Под видео не вижу ссылок и контактов. Где можно приобрести именно такой экземпляр переходника который вы проверяете на видео? На озоне посмотрел отзывы на похожие переходники, говорят что изображение размыто, появляются артефакты, 30гц вместо 60 итд, вообщем не юзабельно. Мне необходимо к ноутбуку подключить второй монитор 1920х1080, чтобы работал при 60гц и изображение было качественное. Один моник уже занял порт HDMI, остается только вариант с USB 3.0. Хотелось бы с вами связаться
Здравствуйте. 89213179161 звоните или пишите в мессенджеры.
Добрый день! Уточните пожалуйста - Вы решили свою проблему ? ("к ноутбуку подключить второй монитор"). У меня сейчас такая же проблема ? Тоже ищу что-то подобное. Буду очень благодарен если поможете
Добрый день!
Уточните пожалуйста - будет ли работать этот переходник на Windows 11?
Здравствуйте. Да, работает, проверил
@@UCService Отлично, спасибо большое
Все работает, благодарю)
А со смартфона показывает?
Не проверял, думаю вряд ли..
Если бы знал команду Win+p, лишней суеты со вторым монитором можно было бы избежать.
Cтранно...написал ещё один вопрос...правда в нем была ссылка...сейчас его не вижу... Вы его получили? Или писать заново, но без ссылки?
Не, не получил.
@@UCService скорее всего у Вас настроена автоматическая блокировка сообщений, содержащих ссылки?
Будьте добры выложите ссылочку, где куплен этот преобразователь.
Здравствуйте. К сожалению, ссылка не сохранилась
Вот я сейчас пытаюсь найти в кладовке vga dvi конвертр. Месяц назад он где-то был. А нашел запакованый USB vga конвертр. Батя с работы принес. И я офигел. Что такое может быть. Я даже пробовать не буду. rx 590. Я просто офигел что такое есть. Когда я его откапал я сказал - чтоооо блллл. Так можно было.
Называется defender usr 130 адаптер переходник USB 2.0
А у вас процессор видео поддерживает? Просто у меня нет, а на видюхе нету USB
Не, данный переходник не заменит видеокарту. Он только может выступать, как дополнительный видеовыход не более того
@@UCService спасидо
А есть такой же но на 3 монитора?)😅
О, вот как можно к ноуту с оторванным экраном подключить второй монитор)
Можно было win+P сменить либо только 2монитор, либо дублировать
А так, это очень круто, мечта любого мастера, чтоб не подкидывать видюху. Или всё же не замена?
Не, без видеокарты не обойтись все равно
@@UCService блин, тогда он не для моих целей 😊 я думал при его помощи легко будет определить проблема в видюхе или нет, не подкидывая пост карту или зумер
@@Futuristic88rus не, увы так не получится
а в bios можно зайти через него ?
Не, только по операционкой
Есть один важный вопрос , сможет ли эта хрень выводить изображение в следующей ситации: на диске наката винда с нужными дровами, встройки видео нет ни в проце ни в матери , видюха устанвлена майнерская без видео выходов типа p106-100, p104-100, cmp 50 и т.д.
Не проверял, но думаю, что должно заработать.
@@UCService теоретически да, только чтобы проверить надо купить видюху и переходник).
@@kolianovich :))) я даже не знаю стоит ли оно того, даже, если заработает
"Мечта мозгача - переходник с VGA на USB. Не только существует, но и работает!"
А это ничего, что ты показываешь переходник обратного направления - из USB в VGA ????
Буду краток. Asrock rack m.2 vga
Месье знает толк в извращениях! ))) Спасибо за информацию очень интересный девайс. Пошел искать где купить.
Флешечку и дровину
до 6 мониторов
Да, ну смысла в нём сейчас...ноль
Согласен вещь специфическая. Тоже с трудом могу найти ей применение :)) Разве что пари с кем-нибудь заключать :))))))))
Ну почему же товарищи, например кто работает в бухгалтерии и вдруг видяха отъехала, так вот такой переходник надо иметь всегда в запасе . Как подменный ремонт очень даже .
Я использую много мониторов к ноутбуку 👍
@@romza3774 Скажи пожалуйста как фильмы будут норм на ютубе если подключить до переходника ноут.
Вот тебе практическая задача, есть ноутбук с одним видео выходом и три монитора, которые нужно к нему подключить. Рабочий стол должен расширяться на все мониторы.