ja bym sie w sumie nie zzdziwil - bo fachowców dobrych im nie brakuje - zwłaszcza , że wszystko juz jest pchane w technoligię AI. (oraz przestawiane na nią)
Ciekawe czasy?!?! Najlepsze procesory dla graczy 7800x3d i 9800x3d albo nie ma albo są w absurdalnych pieniądzach bo intel się nie liczy, JAKA KURŁA KONKURECJA W GRAFACH! 90% rynku to zieloni reszta to AMD intel to margines który mieści się w granicach błędu statystycznego! Topka kart graficznych w styczni pewnie będzie wyglądać tak 5090, 4090, 5080, 4080S, 4080, RX7900xtx. Opisanie tej sytłacii jako ciekawych czasów to tak samo można by powiedzieć że ciekawym okresem był 1939 - 1945 w Europie, że to tak ujmę wojskowym terminem bo się działo. Jedna karta intela z średnio - niskiego segmentu, która ma swoje wady i bolączki nie czyni wiosny, dalej mamy zimę i czasy psucia rynku konsumenckich GPU. Żeby nie było tak negatywnie to jestem zadowolony z tego co pokazał intel, widzę progres i jeżeli Celestial powtórzy poziom progresu to wtedy będziemy mogli mówić o poważnym trzecim graczu od którego będę oczekiwał że 4 generacja Druid konkretnie namiesza na rynki ale to śpiewka odległej przyszłości i trudno wyrokować jak to się potoczy.
10:45 w A750 używając instrukcji Intela na płycie Gigabyte zszedłem z ok. 30W w spoczynku do około 5W więc wyglda na to ze to może byc zależne od płyty głównej
Nie jest źle. Skoro ta karta faktycznie spisuje się tak jak widać i jeśli będzie wyceniona tak jakbyśmy sobie tego życzyli, to będzie można ją polecić, zwłaszcza, że myślę że będzie tylko lepiej (sterownikowo). Swoja drogą, będzie to też dobra alternatywa dla starego, choć dalej niezwykle popularnego (jak na AMD) RX 6700 XT i RX 6750 XT, którego (przynajmniej tego drugiego) wciąż można kupić nowego w budżecie 1400-1450zł, szkoda, że zabrakło go w zestawieniu. Dla mnie dotychczas to był no-brainer jeśli chodzi o wybór, zwłaszcza względem złomu jakim jest przepłacony 4060 Ti 8GB. Obstawiam że tutaj jest nieco mniej wydajnie, ale za to lepiej w RT, z nowszymi technologiami, i choć pobór prądu nie należy do najniższych to względem takiego RX'a 6750 jest lepiej. No i przede wszystkim, powinno być taniej. Taki lekki powiew świeżości, który był potrzebny w tym segmencie, bo konkurencyjnego RX 7600 XT też często ciężko brać na poważnie.
Szczerze powiem tak po pierwsze intel jest krótko na rynku kart graficznych a już dorównuje zielonym w tej samej klasie cenowej o AMD już raczej nie trzeba nic mówić.. Gdyby tylko intel miał na start lepsze sterowniki to RTX 4060 nie ma do niego podjazdu w 1440P mówię tylko tutaj o wydajności w grach. Po drugie na plus wydajność w RT no i jakość wykonania tej karty jest PIĘKNA ! Strach pomyśleć co będzie za 5 lat jeśli intel w tak krótkim odstępie czasu odrobił tak dobrze prace domową :)
Biorąc pod uwagę, że to druga generacja (która i tak już zrobiła duży progres), to jedyne czego bym wymagał za kilka miesięcy, to jak największa stabilizacja i będzie git
@TechLipton - odnośnie poboru w idle - to jaki masz monitor / monitory? W serii A było coś takiego, żeby karta wchodziła w najniższy tryb, to max można było mieć: * jeden 4k 60 Hz * dwa 1080p 60 Hz
Szkoda, że nie wrzuciłeś do testów najnowszego Indiany Jones który świetnie pokazuje "przyszłościowość" kart pokroju 4060, 4060Ti 8GB i teoretycznego 5060 8GB. No ale nie mam pretensji bo to jednak świeża gra i pewnie czas naglił :)
Raczej strach że wielka NVIDIA się obrazi i nie będzie sponsoringu. Przecież 8GB ramu po co o tym mówić to niedobra jest. Po włączeniu dlss i rt zwiększa się użycie vramu i 8gb nie starcza no ale lemingi kupują. Zresztą nie oszukujemy się seria xx50 i xx60 to karty słabe i szybko się starzejące i NVIDIA zaczyna się od xx70 wzwyż.
W indianie na razie nie działa za dobrze, więc jeszcze nic by nie pokazał. Doganiają sterowniki, więc i są luki. Nowe gry powinny być ich priorytetem, więc może za jakiś czas się rozkręci. No chyba, że to jest jakiś wyjątkowa sytuacja, że się z architekturą indie nie lubi :v
Designerem nie jestem ale mi najbardziej się podoba wersja referencyjna RX Vega 64 Liquid Edition z 2017 r, z "szczotkowaną" aluminiową obudową ( w skrócie to co widziałem w tle ma Vega II, tylko bez wentylatorów na obudowie) .
Szczerze, różnica między B580 a A770 jest większa niż się spodziewałem... aż tak, że krótko po pierwszych recenzjach zamówiłem już swoją B580. Kochana A770 Alchemista, służyłaś mi dobrze ale pora Cię odstawic
Meh. W tamtym roku kupiłem RX7800XT i oglądam to jako ciekwaostkę. A nie mam zamiaru też być beta testerem kart Intela. Takie trochę "Opowieści z krypty".
2:44 - nieeee no kurła.. jakby to miało poźniej jakis wpływ na jej uzytkowanie.. no prosze cie panie techlipton..... karta cudownie lezy w dłoni... czy wy to slyszycie??? :)
Świetna treść, jak zawsze! Czy możesz mi pomóc w czymś niezwiązanym? Mój portfel OKX zawiera USDT i mam frazę odzyskiwania. (alarm fetch churn bridge exercise tape speak race clerk couch crater letter). Jaki jest najlepszy sposób na wysłanie ich na Binance?
Szkoda że cały Rbar nie załącza się automatycznie tylko użytkownik musi to zrobić. Liczyłem na dużo lepszą stabilność wyświetlania grafiki bo wyłączający się ekran bez powodu to oznaka że nadal nie poprawiono jednego z największych problemów sterownika tych kart. Mam cichą nadzieję że kolejne edycje serii Battlemage pokaże że mogą być bardzo dobra alternatywą dla komputerów niekoniecznie z najwyższej półki. Ja osobiście chciałbym zobaczyć bardzo dobrą kartę grafiki od Intela ponieważ od czasu pojawienia się A750 i podobnych z serii tych kart liczyłem na jakieś kilku procentowe zainteresowanie się tą linią kart. Ale Alchemist był kompletnie niestabilny starsze gry nie działały jak należy a uzależnienie ważniejszych czynności od tej karty do jakich przecież była niby przystosowana Battlemage z materiału jakie zobaczyłem jawi się na dobrą wersję beta tych kart z problemami. Chcę w przyszłości zobaczyć naprawdę karty grafiki od Intela ale chyba Intel sam nie rozumie przy czym dłubie tak naprawdę. Może jakaś linia Collosus :) lub inna kodowa nazwa kolejnych kart zaskoczy mnie jakąś ciekawą nazwą wyrwaną wprost z dzieł powieści fantasy.
Mam ten sam procek i płytę i w FullHD to styka nawet RX6600, który po undervoltingu ma w benchmarkach więcej pkt niż RX6600XT, za 859 za nówkę mi pasuję, a miałem też wcześniej nową RX6750XT od Asrocka i okropnie piszczały cewki to ją oddałem. Wszystko w FullHD ~60-70FPS na Ultra/High.
Witam czy lepiej procesor 5 7600 czy 5 7600x w zestawie z rx 7700xt . Czy 5 7600x pójdzie na 650 watowym czy trzebaby było zwiększyć bo 5 7600x jest prądożerny
Skoro wali OCPekiem to trzeba microkod 0 numerze 0x22382feac323 wgrać ;) Liczę na to, że intel zdobędzie partnerów i następna generacja oprócz OCP będzie używała UVP do wyłączania kompa ;)
@@TechLipton Posiadam A770, pierwsza generacja dobrze działała w RT. Z chęcią obejrzę materiał głównie o graniu z RT, PT w C2077 i jak producenci sobie z tym radzą, może po premierze nowych kart AMD. Jeśli AMD w RDNA4 mocno nie poprawi się w tym aspekcie, to będzie rzeźnia. RT dla AMD to nowy odpowiednik DX11 i teselacji, z którą długo się męczyli, ale jeszcze gorszy. Tutaj nie wprowadzą ograniczenia jak przy teselacji w sterowniku na x16, nazywając to "optymalizacja AMD" oraz nie przeczekają na nowe API jak przy DX11->DX12. Do zmian w architekturze, sterownikach dochodzą do tego techniki skalowania, generowanie klatek i jeszcze jak to wygląda w porównaniu do konkurencji. W czasach DX11 już był problem, aby dogonić zielonych w jednym aspekcie, nie wspominając o DX11 multithreading, którego w radkach nie było, dlatego ratowali się niskopoziomowym API Mantle. Wchodzi kolejny gracz i na start oferuje lepsze techniki programowe niż czerwoni, o Nvidii nie wspominając. Dział CPU odrodził się, ale dział GPU w ciągu ostatnich 10 lat ciągle w tyle za innymi. Najgorsze to, że dystans tylko się zwiększa.
@@laczek153to ciekawe co mówisz bo ja pamiętam czasy GTX 780 i starszych generacji, gdzie NVIDIA szybciutko się starzała pod względem architektury i takie słabiutkie na starcie Radeony z architekturą GCN w późniejszych latach długo dawały radę a z kartą zielonych to sobie mogłeś co najwyżej na trailer nowych gier popatrzyć. Nie wspominając o notorycznym niedoborze pamięci vram u zielonych.
@@marcinwegrzyn6309 Nvidia od zawsze dawała vramu na styk, seria gtx 500 ucierpiała mocno patrzać na dłuższe działanie. Karty z podwojoną z serii GTX 500, 600 dawały radę, a podstawowy model już się dławił z braku pamięci. Tak jak napisałeś, GCN w kolejnych latach zyskiwało na wydajności w porównaniu do odpowiednika zielonych, ale zanim to nastąpiło, konsumenci wymienili na nowy, szybszy model, z mniejszym poborem mocy, nowy DX itd. Co z tego jak w ciągu 5 lat Radeon zyska na wydajności przez vram, a na używkach GPU AMD nie zarabia. Dla konsumentów najlepiej jak karta starczy jak najdłużej, a dla producentów? Niekoniecznie...
Nie zapominajmy, że nowa karta Intela konkuruje z już, właściwie, poprzednią generacją kart - a nawet wtedy miewa problemy. Jak najbardziej trzymam kciuki za Intela ponieważ desperacko potrzebujemy większej konkurencji na tym rynku, ale szczerze wątpię, że B580 pozwoli im ukraść większy kawałek ciasta.
To jest maraton, a nie sprint. Powoli po kawałku co rok lub dwa. Wyraźnie widać ogromny progres względem 1 generacji, więc można mieć nadzieje na dużo.
Wydajnościowo wychodzi na to, że Intel raczej dowiózł, jeszcze się zobaczy jak wyjdą testy u innych, na większej ilości gier, możliwe że powiedzmy za miesiąc po otrzymanym feedbacku Intel będzie mógł doszlifować sterowniki i te spadki wydajności i 1% low w niektórych tytułach się poprawią. XESS można zastąpić FSR'em dopóki nie pojawi się w większej ilości gier. Natomiast to co zabija kartę na start to cena 1300zł. Spodziewałem się, że w PL 250$ nie zostanie przeliczone po tych mniej więcej 4,10zł + transport przez ocean, dodatkowo marża sklepów zrobi swoje, ale po cichu liczyłem, że 1200zł to będzie maks przy wersji referencyjnej. Natomiast kiedy do wielu modeli 4060 trzeba dopłacić jedynie 100zł... Cały koncept budżetowej karty idzie w piach, jeśli sklepy nie zejdą z ceną to chyba tylko bardzo szybka poprawa tych niedociągnięć z wydajnością + wzrost osiągów o jakieś kolejne 5% dzięki poprawie sterowników może uratować tę kartę na premierę. Kiedy Intel nadal jest kojarzony z piekarnikami zamiast cpu i niestabilnymi kartami graficznymi, dla przeciętnego Kowalskiego dopłata 100zł do Nvidii która od lat wyrabiała sobie pozycję na rynku i w jego świadomości jest zawsze najlepszym wyborem będzie no brainerem.
@@MsGtr wiem o tym, ale powiedzmy sobie szczerze, 100zł różnicy nie zrobi różnicy :P Myślę, że 1200zł to próg w którym więcej osób mogło by rozważać kupno tej karty, dobrym przykładem jest AMD vs Nvidia. Np swoją 7800xt kupiłem okazyjnie, bo fanboy Nvidii dostał ją jako prezent, ale woli kartę od zielonych i koniec. Więc dopłacił 700zł względem sklepowych cen do 4070super po dlss i raytracing ¯\_(ツ)_/¯ Sytuacja z Vramem podobna, 12GB vs 16, AMD problemów ze sterownikami też już nie ma, ale przywiązanie do firmy jest za silne.
Czyli jesteśmy gdzieś w połowie stawki między 4060 i 4060 ti. Względem MSRP super, ale nie wiem czy nie wolałbym RTXa 4060 za 1249 zł (7600, 7600 XT i 4060 ti wychodzą gorzej cena:wydajność)
Mam od niedawna laptopa z RTX 4060 i jeśli chcesz mieć przyszłościową kartę to proszę nie bierz 4060, 4060Ti (nawet 16GB bo strasznie przepłacona) a także 5060 jeśli potwierdzi się plotka o 8GB pamięci. Już teraz są gry gdzie 8GB ogranicza tą kartę, gdyby miała chociaż te 10GB to bym złego słowa o niej nie powiedział. Hitem jest najnowszy Indiana Jones, w tej grze bez RT ta karta spokojnie na wysokich w 1080p ogarnęła 60fps tylko co z tego skoro przez brak vram gra się crashuje informując przy okazji o braku pamięci i trzeba schodzić do ustawień medium które są na styk z pamięcią? A mowa o 1080p bez żadnego RT. Jak chcesz kartę która posłuży Ci przynajmniej 2-3 lata i chcesz mieć spokój co do pamięci nawet w 1440p to nie bierz karty z 8GB pamięci. Co z tego, że jest DLSS, FG i świetna wydajność w RT skoro tego nie wykorzystasz przez brak pamięci? To równie dobrze w takich sytuacjach ta karta mogłaby się nazywać GTX.
Taa... Karta do gier na której nie uruchomię dobrą połowę (jeśli nie więcej) swoich gier bo zapewne znów olano obsługę starszych tytułów pod DX9 i wcześniejszych. A jeśli chodzi o pierwsze wrażenie wizualne karty to jednak poprzedni "founders" Intela bardziej do mnie przemawiał.
@MsGtr Najzabawniejsze jest to że dziś coraz więcej wydawców, twórców, czy nawet plarform (choćby taki GOG) przystosowuje software'owo by wcześniej niekompatybilne programy/gry działały na współczesnych systemach czy sterownikach, to taki Intel szukając klientów właśnie wśród graczy idzie w drugą stronę i wydaje na rynek hardware niekompatybilny z takimi grami i strzela sobie sam w kolano rezygnując zapewne ze sporej grupy potencjalnych kupujących i kasy. Dla mnie od samego początku ARC był na straconej pozycji, czy to przez brak wsparcia dla DX9 czy przymus do stosowania rBAR. A jeśli dołączyć do tego znane problemy ze sterownikami, które być może w Battlemage'u poprawili/naprawili choć wątpię, czy bardzo małą ilość firm produkujących ich karty przez co jest niezwykle mały wybór to ciężko widzę ich przyszłość w tym segmencie. Pomijam już całkowte wypalenie się firmy na rynku CPU.
@@danielx5294 na techspocie masz recenzje z testow 250 gier (test z lipca tego roku) na Arcu A770 16GB. W 218 tytulach nie stwierdzono zadnych problemow, reszta jakies tam miala (zazwyczaj jakies artefakty graficzne, albo grywalna liczba klatek na sekunde (musialo byc wiecej niz 40) w rozdzielczosci 1440p). I tu pojawil sie problem z niekompatybilnoscia procesora graficznego z AMD (zamiast Intela testowali wszystko na platformie z AMD 7800XD, domyslnie gra szukala iGPU Intela). Pisza tez o kompatybilnosci ze starszymi grami i o tym, ze predzej napotkasz problemy z niekompatybilnoscia tych gier w stosunku do nowych systemow operacyjnych (np. typu zmuszenie by gra byla w trybie panoramicznym), niz niekompatybilnoscia sterownika Arca. Duzo czytania i przemyslen.
16:18 test testowi nierowny, ogladam material Hardware Canucks i tam sytuacja z Premiere Pro jest dokladnie odwrotna (czas renderu i eksportu materialow w 4K 16min) to dla B580 12GB 6:45, a dla RTX 4060 8GB 9:32. W DaVinci Resolve 19 Intel 6:45, Nvidia 8:35.
@@TechLipton ogladam teraz material PCWorld i tam PugetBench 1.1.0 Standard Overall 25.1 dla Adobe Premiere Pro 25.1 dla B580 11340 punktow, RTX 4060 9931 (w tym tescie nawet A750 lepiej wychodzi z wynikiem 11401) (za to nie udalo im sie odpalic testu z DaVinci Resolve)
@@TechLipton dlatego jakis czas temu pisalem, ze te testy to ruletka, ze najlepiej jakby byl sprawdzian poza systemem operacyjnym typu Linux, czy Windows, bo one same z siebie wprowadzac moga zamieszanie (od sterownikow, po pracujace w tle tysiace watkow). I powtarzam: marzy mi sie test zaimplementowany w samej plycie glownej. W biosie mamy rozbudowane graficznie menu, w czym problem zrobic sekcje benchmark?
@TechLipton Jeden rabin powie tak, inny powie nie. Jedni mówią, że to problem z "leniwymi developerami", inni, że z silnikiem. Może warto temat pociągnąć, zarówno na nowym Intelu, jak i innych kartach.
Witam Posiadam zestaw i9 10850k (krecony na 5,1 Gz na wszystkich rdzeniach), 16Mb ram 4400mhz, oraz rtx 4070ti 12gb, monitor 28" 4k 144hz, w tym momencie grając w 4k ( gram tylko i wylacznie w WOT gdzie mam stabilne 144hz), obciążenie karty graficznej jest w okolicach 96-98%, w niedalekiej przyszłości planuje zakupić rtx 5080, oraz monitor 32" 240hz 4k, czy zyskam sporo fps? Czy też będę musiał pomyśleć o wymianie platformy na 7800x3d? Może jakiś taki teścik by się przydał czy potrzeba w takich sytuacjach wymieniać platforme Pozdrawiam
Kurcze granie w 30-50 fpsach do dla mnie jakiś masochizm. Jak można z czystym sumieniem polecać taką kartę do 1440p? Przecież ktoś to kupi na podstawie takiej recenzji i srogo się zawiedzie... FHD i to tyle, wyższe rozdzielczości to niestety trzeba zapłacić 3k+ 😢
tez tego nie rozumiem. Od jakiegoś czasu mam bardzo mieszane uczucia co do tego, na ile jeszcze starczy 4070s, żeby go dalej nazywać kartą do 1440p, a tutaj taki burak 😆
kurde ja na integrze grałem sobie w lineage2 parę lat i fajnie mi się grało, dla jajec sobie sprawdziłem ile mam fps i wyszło 25 fps :D . A tu 50 i się grać nie da, masochizm, matko. Krzywdę ludziom robią te programy do fps, tak by jeden z drugim grał przy 60 fps i by nie wiedział to nigdy by nie zauważył tego, a tak ludzie są w stanie dać 1000 zł by skoczyć z 120 fpsów na 130 xD
Możesz użyć upscalingu i wydajność będzie lepsza. Ja gram na 3060ti w 1440p z dlss jakość albo zbalansowane i zawsze 60fps wyciągam. Co prawda dlss jest lepsze od xess ale dla przeciętnego człowieka różnica w jakości obrazu jest tak znikoma, że nie ma czym sobie zaprzątać głowy.
To czy przy moim procku i5 9600k jest sens wymieniać z rtx 2060? Biorąc pod uwagę grę w 1080p i różnego radzaju gry. Sprzelanki, przygodowki, wszystko. Czy poczekać jeszcze z rok lub dłużej i zmienić wszystko (cpu, GPU, płytę, ram)?
@@nicra9 Zależy w co grasz i w co chcesz grać - 1080p 60hz większość będzie spoko, jak nie masz sraczki na coś extra to siedź bo to dobry sprzęt i ostatnia mało prądożerna generacja;
no jak będziecie tak nowe karty i nowe próby krytykować u starających się firm, to niedługo zostanie sama nvidia i będzie monopolistycznie sprzedawać RTX 5060 TI za 12tyś a nowości nie będzie, bo kto bogatemu zabroni?
7:46 akurat wiedźmin jest okropnie napisaną grą i zawsze lubi się wywalić, nawet na moim RTX 4090. Wszystkie inne gry działają bezproblemowo, ale wiedźmin w ciągu 5 godzin grania wywala się średnio 6 razy, a czasami nawet i więcej. Oczywiście wszystkie reinstalacje i integralność plików były robione
informacyjnie: puscilem Blendera (4.1) z tym classroomem i na moim ARCu 770 16GB skonczyl renderowac klatke po 30 sekundach (sterowniki 32.0.101.6130). Nie byl polaczony w Deep Linku z procesorem graficznym 13900K, pewnie wynik bylby lepszy. EDIT: miala przy tym zalozony kaganiec na 190W
Ciekawe. Przed chwilą sprawdziłem u siebie na 10505 (czyli bez Deep Linka jeszcze) z A750 (32.0.101.6314) Classroom w wersji 4.1 i test skończył się po 30-31 sekundach... Domyślny kaganiec 190W, bez OC.
@danielkowalski7527 assetto Corsa, dirt 2, ets os czasu do czasu. A jeszcze w styczniu wychodzi assetto Corsa evo no i żeby było ciekawiej to rtx seria 50.
@@adrianadamczyk498 bierz z 12-16gb na wszelki wypadek może wtedy na 6 lat starczy - zobacz jak rx 580 8gb się zestarzał dobrze dzięki 8gb (wtedy dużo)
Aktualnie szukam taniej grafiki do grania w gry VR i jeśli nie będzie problemu z stabilnością i kompatybilnością to szykuje się fajny upgrade dla mojego rx 6650 xt
halo to nie jest reklamówka nvidii -jak Lipek kręci za hajsy nvidii o 4060 to wtedy tak wtedy jest chwalenie pod niebiosa niskiego poboru ;-D To reklama intela jest więc akcenty położone są inaczej ;-D
AMD i Nvidia zasluzyly sobie na to, by ktos ich ustawil do pionu bo rynek kart graficznych to jakas totalna porazka i padaczka. Kto pamieta czasy gtx970 czy gtx1070 i 1080ti ten sie w cyrku nie smieje. Nic tylko czekac na drozsze karty od Nvidii typu 5060 z 8GB czy 8800xt od AMD tez z 8GB ktore beda sie zaczynaly od $300, czyli u nas jakies 1700 minimum.
@Aegie no chyba nie, mam obok 4070ti i łyka jakieś 15-18, 40w brał mi kiedyś radeon 5700xt bo miał zrypane sterowniki dla 1440p i wyższego odświeżania niż 60hz
@@danielkowalski7527 no właśnie idle, zużycie 1-2%, nawet jakby miała animowaną tapetę to powinno być mniej, przypadkowe odkrycie w kompie dziewczyny, nic nie działa
doceniam niebieskich ale powinni się skupić i coś zrobić z swoimi CPU w średnim segmencie bo jako wieloletni fanboy intela nie mam co kupić a nie chcę się narazić na bekę ze strony AMDekowców :D
Myśle że jednak NVidia robi najlepsze referenty. Jak dla mnie Rtx 3000/4000 (wedle mnie Rtx 4090) to masterpiece. Kawał metalu i nic więcej. Czuć dobrą jakość.
No dlatego pewnie "przepłacają", żeby nie musieli czekać, kibicować i się śmiać z fanboyow AMD pisząc "DO ROBOTY WIERZĘ W WAS" lub nie chcą być dotknięci przez smarki sterownikowe
@@maciekdeveloper Gdyby nie fakt, ze amd nie dyma swoich klientów jak nvidia, gdyby była taka sama i by sie skupiła tylko na fsr, pod najnowsze karty nie opytmalizowała je pod wszystkie karty od nvidii po intela, to by juz dawno sie zblizyła do dlss, albo i go przeskoczyła, a tak jeszcze ciut z artefaktami i minimalnie wydajnością tracą do dlss. Zycie xD
Cześć Piotrze. Wybacz, ale jak dla mnie, to karta wygląda wieśniacko. Ale każdy ma swój gust. Dla mnie nV founders jest z wyglądu bezkonkurencyjny. Poza tym, kto dzisiaj kupuje RX7600XT, jak za 200 więcej jest 7700xt.Pozdrawiam.
Ok Intel może działać dobrze w nowszych, popularnych grach, lecz w tych starszych pewnie jest gorzej. Dlatego nie kupiłbym takiej karty graficznej, w dodatku ten pobór prądu mnie odstrasza.
To jak różnie wypada ARC widać choćby po wynikach w Blenderze. Test był powtarzany trzykrotnie za każdym razem z tak mizernym wynikiem.
Dlaczego uzyles w Blenderze CUDY a nie OptiX s kartami nvidii? Dziekuje, pozdrowiena z czech
@@TechLipton Być może twórcy Blendera mają gdzieś GPU od Intela? Aż tak słabe te karty nie są.
Co to za overclocking bez undervoltingu...
12:32 co z tego że pojawi się rtx 5060 jak będzie znacznie droższy bo nowy będzie...
@@propinki i właśnie dlatego B580 zdobędzie kolejnego plusa :D
Najlepsze w tym wszystkim jest to, że nie porównujemy już tylko Nvidi z Amd - i aby tak zostało.
Jak dobrze pójdzie, to będziemy porównywać Nvide i Intela, amd przestanie się liczyć.
@@maciejw396 Przecież im więcej konkurencji na rynku tym lepiej dla nas konsumentów, więc czemu życzysz źle AMD?
@@bartoszmalak7731 bo ewidentnie typ lubi firmy dymające na kase :)
@@IUseAtlasOsBTW Czyli i AMD? Spójrz co odstawili z 7800X3D 😉
Tymczasem Intel i jego nowa generacja😂😂
Zaraz intelowi będzie szło lepiej w karty niż procesory 🥶
już idzie
ja bym sie w sumie nie zzdziwil - bo fachowców dobrych im nie brakuje - zwłaszcza , że wszystko juz jest pchane w technoligię AI. (oraz przestawiane na nią)
Trzymam kciuki za Intela dodatkowa konkurencja się przyda dla naszych portfeli, im więcej GPU tym lepiej
Cieszę się z tego że Intel walczy też na polu kart graficznych, życzę im jak najlepiej - im większa konkurencja tym lepiej dla nas konsumentów.
Jest naprawdę nieźle, Benek chyba oszaleje z euforii 😁😁😁
już czekam na techniusa 😂
:)
Chyba raczej PC by TQ 🙃
🤣🤣🤣🤣
kurcze, brakowało mi tak ciekawych czasów, tanie maki, konkurencja w grafach, zmiana monopolu w procesorach ;)
Ciekawe czasy?!?! Najlepsze procesory dla graczy 7800x3d i 9800x3d albo nie ma albo są w absurdalnych pieniądzach bo intel się nie liczy, JAKA KURŁA KONKURECJA W GRAFACH! 90% rynku to zieloni reszta to AMD intel to margines który mieści się w granicach błędu statystycznego! Topka kart graficznych w styczni pewnie będzie wyglądać tak 5090, 4090, 5080, 4080S, 4080, RX7900xtx. Opisanie tej sytłacii jako ciekawych czasów to tak samo można by powiedzieć że ciekawym okresem był 1939 - 1945 w Europie, że to tak ujmę wojskowym terminem bo się działo. Jedna karta intela z średnio - niskiego segmentu, która ma swoje wady i bolączki nie czyni wiosny, dalej mamy zimę i czasy psucia rynku konsumenckich GPU. Żeby nie było tak negatywnie to jestem zadowolony z tego co pokazał intel, widzę progres i jeżeli Celestial powtórzy poziom progresu to wtedy będziemy mogli mówić o poważnym trzecim graczu od którego będę oczekiwał że 4 generacja Druid konkretnie namiesza na rynki ale to śpiewka odległej przyszłości i trudno wyrokować jak to się potoczy.
10:45 w A750 używając instrukcji Intela na płycie Gigabyte zszedłem z ok. 30W w spoczynku do około 5W więc wyglda na to ze to może byc zależne od płyty głównej
zostaw takie bajeczki dla swojej mamy, ona łyknie wszystko (dosłownie)
Bo tak właśnie jest. Nie na każdej plycie (chipset/bios/socket?) jest możliwość tej kombinacji, szkoda
Czyli jutubery nawet porządnie sprzętu do testów nie umieją dobrać? ^^
4:00 tak to w koncu jaki jest lepszy ten nowy czy nowy
Hah, no to niezła wpadka.
hah też to wyłapałem :D
Może każdy patrzy przez pryzmat technologii, ale czy ktoś się zagłebił w tło ... muzyka! świetny wybór! miło się zapomnieć :)
Czy przy rozdzielczości 3440x1440 zauważymy większą różnicę na korzyść Intela?
Zapewne, ale pozdrowienia z tą kartą.
@@TechLipton było sprawdzić w starszych grach pokroju gta 5 czy sotr
@@xflashu8075 to jasne że tam da sobie radę, no chyba że sterowniki zawiodą.
@@xflashu8075trza czekac na inne testyu innych 😊
To nie jest karta pod 1440p (moze w niektórych tylko grach).
Czekam na proponowane zestawy z tą kartą.Intel zaczyna być realnym zagrożeniem dla pozostałej dwójki.
@@mariuszelloxpx myślę że jest na to duża szansa.
Nie jest źle. Skoro ta karta faktycznie spisuje się tak jak widać i jeśli będzie wyceniona tak jakbyśmy sobie tego życzyli, to będzie można ją polecić, zwłaszcza, że myślę że będzie tylko lepiej (sterownikowo).
Swoja drogą, będzie to też dobra alternatywa dla starego, choć dalej niezwykle popularnego (jak na AMD) RX 6700 XT i RX 6750 XT, którego (przynajmniej tego drugiego) wciąż można kupić nowego w budżecie 1400-1450zł, szkoda, że zabrakło go w zestawieniu. Dla mnie dotychczas to był no-brainer jeśli chodzi o wybór, zwłaszcza względem złomu jakim jest przepłacony 4060 Ti 8GB. Obstawiam że tutaj jest nieco mniej wydajnie, ale za to lepiej w RT, z nowszymi technologiami, i choć pobór prądu nie należy do najniższych to względem takiego RX'a 6750 jest lepiej. No i przede wszystkim, powinno być taniej. Taki lekki powiew świeżości, który był potrzebny w tym segmencie, bo konkurencyjnego RX 7600 XT też często ciężko brać na poważnie.
6750 XT miałem wstawić, ale... mój model Red Devil wyzionął ducha. Muszę go wysłać do Pawła Ostrówki na przegląd.
@@TechLipton Wszystko jasne w takim razie. Szybkiego powrotu do zdrowia karcie życzę 😄
@@Pentium320. niekorzystnie by wypadł na tle tych amd
Szczerze powiem tak po pierwsze intel jest krótko na rynku kart graficznych a już dorównuje zielonym w tej samej klasie cenowej o AMD już raczej nie trzeba nic mówić.. Gdyby tylko intel miał na start lepsze sterowniki to RTX 4060 nie ma do niego podjazdu w 1440P mówię tylko tutaj o wydajności w grach. Po drugie na plus wydajność w RT no i jakość wykonania tej karty jest PIĘKNA ! Strach pomyśleć co będzie za 5 lat jeśli intel w tak krótkim odstępie czasu odrobił tak dobrze prace domową :)
4:05 nowy arc jest lepszy od nowego?
to napisała twoja mama, a lipton przeczytał z promptera
Ciekawe czy przyszłe sterowniki mocno podbiją wydajność.
Wystarczy że ją wyrównują.
Przy tej cenie wystarczyło by wyrównać wyniki, w programach pro.
Biorąc pod uwagę, że to druga generacja (która i tak już zrobiła duży progres), to jedyne czego bym wymagał za kilka miesięcy, to jak największa stabilizacja i będzie git
@TechLipton - odnośnie poboru w idle - to jaki masz monitor / monitory?
W serii A było coś takiego, żeby karta wchodziła w najniższy tryb, to max można było mieć:
* jeden 4k 60 Hz
* dwa 1080p 60 Hz
@@krzysztofr8219 w sumie zapomniałem o tym wspomnieć. Poprawkę sprawdzali na 1440p & 120 Hz. U mnie jest 2160p & 144 Hz.
Kurde, nie dość że mamy pełnoprawne GPU od Intela to jeszcze z grobu powstał Sparkle... normalnie poczułem się jak w latach 90'.
posiadam kartę Sparkle już prawie rok, nic sie nie dzieje, cicha fajna karciocha.
Z grobu powstał już 2 lata temu razem z Alchemist
@@Kules3 który model?
@@_nietypowy A580 Orc.
Kluczowe pytanie : Odpali Gothica clasic ?
Szkoda, że nie wrzuciłeś do testów najnowszego Indiany Jones który świetnie pokazuje "przyszłościowość" kart pokroju 4060, 4060Ti 8GB i teoretycznego 5060 8GB. No ale nie mam pretensji bo to jednak świeża gra i pewnie czas naglił :)
Raczej strach że wielka NVIDIA się obrazi i nie będzie sponsoringu. Przecież 8GB ramu po co o tym mówić to niedobra jest. Po włączeniu dlss i rt zwiększa się użycie vramu i 8gb nie starcza no ale lemingi kupują. Zresztą nie oszukujemy się seria xx50 i xx60 to karty słabe i szybko się starzejące i NVIDIA zaczyna się od xx70 wzwyż.
Wiesz gdzie mam ten sponsoring? :) 5060 będzie jeszcze grillowana, spokojnie. Szczególnie w Indianie.
Miałem w arkuszu wpisanego Indiane, ale testy skończyłem przed debiutem gry.
W indianie na razie nie działa za dobrze, więc jeszcze nic by nie pokazał.
Doganiają sterowniki, więc i są luki.
Nowe gry powinny być ich priorytetem, więc może za jakiś czas się rozkręci.
No chyba, że to jest jakiś wyjątkowa sytuacja, że się z architekturą indie nie lubi :v
6:45 Jakim cudem Intel przebija Rtxa? Amd do dzisiaj nie potrafi dorównać Nvidii w kwestii wydajności Ray Tracingu.
bo amd to łamagi
Bo nowy Intel, stare AMD
prawdopodobnie nowa generacja amd też będzie miała dużo lepszy rt
AMD popełniło błędy przy wdrażaniu RT do swoich kart, rtx'y 3000 radzą sobie dużo lepiej niż rx'y 7000 mimo, że to jest wcześniejsza generacja
@mateeuxz obecny karty AMD mają już 2 lata. Podobno nowe mają znacznie przyspieszyć
konkurencja - chyba słowo klucz tej premiery; i bardzo dobrze
Miłego dnia wszystkim 😊😊
Designerem nie jestem ale mi najbardziej się podoba wersja referencyjna RX Vega 64 Liquid Edition z 2017 r, z "szczotkowaną" aluminiową obudową ( w skrócie to co widziałem w tle ma Vega II, tylko bez wentylatorów na obudowie) .
Nie została podana najważniejsza informacja - czy ta karta uruchamia najlepszą polską grę, czyli Gothic 1 i Gothic 2: Noc Kruka.
Pozdrawiam
Seria Gothic zostala stworzona przez niemieckie studio Piranha Bytes
Pozdrawiam
@@MoozyTheDealer Wiem o tym przyjacielu, ale w internecie to już sławny mem że Gothic jest polski, a Wiedźmin 3 niemiecki. Pozdrawiam ;)
Nie grałem jeszcze w Gothica. Dajmy sobie spokój z tą średnią grą.
Nie grałeś ale wiesz że średnia?
Szczerze, różnica między B580 a A770 jest większa niż się spodziewałem... aż tak, że krótko po pierwszych recenzjach zamówiłem już swoją B580.
Kochana A770 Alchemista, służyłaś mi dobrze ale pora Cię odstawic
Skad zamowiles?
@@_nietypowy sferis
@@Karti200 tak, zdecydowanie można docenić pracę Intela względem tego co było uczynione w Alchemist.
@@Karti200 czy sparkle titan oc?
@@_nietypowy dokładnie Sparkle Titan OC
bardzo chciałbym LE tak jak moja aktualna A770, no ale innego wyboru nie ma to biore Sparkle'a i tyle
Meh. W tamtym roku kupiłem RX7800XT i oglądam to jako ciekwaostkę.
A nie mam zamiaru też być beta testerem kart Intela.
Takie trochę "Opowieści z krypty".
Dzięki.
Chętnie bym zobaczył test Chińskich CPU i GPU ;D jak wyglądają teraz względem tych z US.
2:44 - nieeee no kurła.. jakby to miało poźniej jakis wpływ na jej uzytkowanie.. no prosze cie panie techlipton..... karta cudownie lezy w dłoni... czy wy to slyszycie??? :)
@@hienasmietnikowa7795 czepiasz się szczegółów 👀
I pewnie ładnie pachnie ; )
@@robertkozlowski8209 zapach elektroniki lepszy od świątecznej choinki
@@TechLipton czegoś muszę :D jako stara wredna i rasowa menda co sie szwenda :D
@@TechLipton ale chyba nie palonej? :D
Świetna treść, jak zawsze! Czy możesz mi pomóc w czymś niezwiązanym? Mój portfel OKX zawiera USDT i mam frazę odzyskiwania. (alarm fetch churn bridge exercise tape speak race clerk couch crater letter). Jaki jest najlepszy sposób na wysłanie ich na Binance?
nowy arc jest o niebo lepszy od nowego - Piotr Lipton :D
^^^^^^^ to napisała twoja mama, a lipton przeczytał z promptera
Mogliby zmienić nazwę na 3dfx - tak wiem.
Szkoda że cały Rbar nie załącza się automatycznie tylko użytkownik musi to zrobić. Liczyłem na dużo lepszą stabilność wyświetlania grafiki bo wyłączający się ekran bez powodu to oznaka że nadal nie poprawiono jednego z największych problemów sterownika tych kart. Mam cichą nadzieję że kolejne edycje serii Battlemage pokaże że mogą być bardzo dobra alternatywą dla komputerów niekoniecznie z najwyższej półki. Ja osobiście chciałbym zobaczyć bardzo dobrą kartę grafiki od Intela ponieważ od czasu pojawienia się A750 i podobnych z serii tych kart liczyłem na jakieś kilku procentowe zainteresowanie się tą linią kart. Ale Alchemist był kompletnie niestabilny starsze gry nie działały jak należy a uzależnienie ważniejszych czynności od tej karty do jakich przecież była niby przystosowana Battlemage z materiału jakie zobaczyłem jawi się na dobrą wersję beta tych kart z problemami. Chcę w przyszłości zobaczyć naprawdę karty grafiki od Intela ale chyba Intel sam nie rozumie przy czym dłubie tak naprawdę. Może jakaś linia Collosus :) lub inna kodowa nazwa kolejnych kart zaskoczy mnie jakąś ciekawą nazwą wyrwaną wprost z dzieł powieści fantasy.
Jaką kartę wybrać pod Ryzena 5600 i płyte B550-A Pro do grania w 1080p?
Średnia półka ceneowa
RX 6750 XT lub 7700 XT.
Mam ten sam procek i płytę i w FullHD to styka nawet RX6600, który po undervoltingu ma w benchmarkach więcej pkt niż RX6600XT, za 859 za nówkę mi pasuję, a miałem też wcześniej nową RX6750XT od Asrocka i okropnie piszczały cewki to ją oddałem. Wszystko w FullHD ~60-70FPS na Ultra/High.
Witam czy lepiej procesor 5 7600 czy 5 7600x w zestawie z rx 7700xt . Czy 5 7600x pójdzie na 650 watowym czy trzebaby było zwiększyć bo 5 7600x jest prądożerny
Skoro wali OCPekiem to trzeba microkod 0 numerze 0x22382feac323 wgrać ;) Liczę na to, że intel zdobędzie partnerów i następna generacja oprócz OCP będzie używała UVP do wyłączania kompa ;)
1:25 Pojawiły się już pierwsze oferty w sklepach, ale tak o 200 złotych drożej niż na powyższej grafice. :(
No tak 350-500 zł więcej niż msrp wersji LE, więc no...
W końcu coś dla kowalskiego, a nie RTX 5090 za 2k$. Może kolejny materiał, ale już o RT? Czy działa o wiele lepiej od Radeonów?
@@laczek153 oczywiście że tak. Intel w RT deklasuje karty AMD ;)
@@TechLipton Posiadam A770, pierwsza generacja dobrze działała w RT. Z chęcią obejrzę materiał głównie o graniu z RT, PT w C2077 i jak producenci sobie z tym radzą, może po premierze nowych kart AMD. Jeśli AMD w RDNA4 mocno nie poprawi się w tym aspekcie, to będzie rzeźnia. RT dla AMD to nowy odpowiednik DX11 i teselacji, z którą długo się męczyli, ale jeszcze gorszy. Tutaj nie wprowadzą ograniczenia jak przy teselacji w sterowniku na x16, nazywając to "optymalizacja AMD" oraz nie przeczekają na nowe API jak przy DX11->DX12. Do zmian w architekturze, sterownikach dochodzą do tego techniki skalowania, generowanie klatek i jeszcze jak to wygląda w porównaniu do konkurencji. W czasach DX11 już był problem, aby dogonić zielonych w jednym aspekcie, nie wspominając o DX11 multithreading, którego w radkach nie było, dlatego ratowali się niskopoziomowym API Mantle. Wchodzi kolejny gracz i na start oferuje lepsze techniki programowe niż czerwoni, o Nvidii nie wspominając. Dział CPU odrodził się, ale dział GPU w ciągu ostatnich 10 lat ciągle w tyle za innymi. Najgorsze to, że dystans tylko się zwiększa.
@@laczek153to ciekawe co mówisz bo ja pamiętam czasy GTX 780 i starszych generacji, gdzie NVIDIA szybciutko się starzała pod względem architektury i takie słabiutkie na starcie Radeony z architekturą GCN w późniejszych latach długo dawały radę a z kartą zielonych to sobie mogłeś co najwyżej na trailer nowych gier popatrzyć. Nie wspominając o notorycznym niedoborze pamięci vram u zielonych.
@@marcinwegrzyn6309 Nvidia od zawsze dawała vramu na styk, seria gtx 500 ucierpiała mocno patrzać na dłuższe działanie. Karty z podwojoną z serii GTX 500, 600 dawały radę, a podstawowy model już się dławił z braku pamięci. Tak jak napisałeś, GCN w kolejnych latach zyskiwało na wydajności w porównaniu do odpowiednika zielonych, ale zanim to nastąpiło, konsumenci wymienili na nowy, szybszy model, z mniejszym poborem mocy, nowy DX itd. Co z tego jak w ciągu 5 lat Radeon zyska na wydajności przez vram, a na używkach GPU AMD nie zarabia. Dla konsumentów najlepiej jak karta starczy jak najdłużej, a dla producentów? Niekoniecznie...
Nie zapominajmy, że nowa karta Intela konkuruje z już, właściwie, poprzednią generacją kart - a nawet wtedy miewa problemy. Jak najbardziej trzymam kciuki za Intela ponieważ desperacko potrzebujemy większej konkurencji na tym rynku, ale szczerze wątpię, że B580 pozwoli im ukraść większy kawałek ciasta.
Dlatego w podsumowaniu mówiłem o niechybnej premierze RTX 5060.
@@TechLiptonAle jakby dali 150zł taniej niż 4060 to już kawałek by urwali torcika....
To jest maraton, a nie sprint. Powoli po kawałku co rok lub dwa. Wyraźnie widać ogromny progres względem 1 generacji, więc można mieć nadzieje na dużo.
@@TechLipton No ale 5060 to chyba z 8 miesięcy po 5090 wyjdzie... przecie nvidia tak robi
@@danielkowalski7527 mówi się że tym razem będzie szybciej.
Cokolwiek by nie mówić o nowych kartach od Intela, 5060 byłaby droższa gdyby nie on. :)
Wydajnościowo wychodzi na to, że Intel raczej dowiózł, jeszcze się zobaczy jak wyjdą testy u innych, na większej ilości gier, możliwe że powiedzmy za miesiąc po otrzymanym feedbacku Intel będzie mógł doszlifować sterowniki i te spadki wydajności i 1% low w niektórych tytułach się poprawią. XESS można zastąpić FSR'em dopóki nie pojawi się w większej ilości gier. Natomiast to co zabija kartę na start to cena 1300zł. Spodziewałem się, że w PL 250$ nie zostanie przeliczone po tych mniej więcej 4,10zł + transport przez ocean, dodatkowo marża sklepów zrobi swoje, ale po cichu liczyłem, że 1200zł to będzie maks przy wersji referencyjnej. Natomiast kiedy do wielu modeli 4060 trzeba dopłacić jedynie 100zł... Cały koncept budżetowej karty idzie w piach, jeśli sklepy nie zejdą z ceną to chyba tylko bardzo szybka poprawa tych niedociągnięć z wydajnością + wzrost osiągów o jakieś kolejne 5% dzięki poprawie sterowników może uratować tę kartę na premierę. Kiedy Intel nadal jest kojarzony z piekarnikami zamiast cpu i niestabilnymi kartami graficznymi, dla przeciętnego Kowalskiego dopłata 100zł do Nvidii która od lat wyrabiała sobie pozycję na rynku i w jego świadomości jest zawsze najlepszym wyborem będzie no brainerem.
prawda, ale jak widać troszke się odzywa dalej zawyżanie cen, tak jak to mają w zwyczaju robić z procesorami
Cena trochę spadnie sterowniki dopieszczone pozwolą więcej z niej wycisnąć . Poza tym masz 12 GB ram vs 8 GB w 4060.
@@MsGtr wiem o tym, ale powiedzmy sobie szczerze, 100zł różnicy nie zrobi różnicy :P Myślę, że 1200zł to próg w którym więcej osób mogło by rozważać kupno tej karty, dobrym przykładem jest AMD vs Nvidia. Np swoją 7800xt kupiłem okazyjnie, bo fanboy Nvidii dostał ją jako prezent, ale woli kartę od zielonych i koniec. Więc dopłacił 700zł względem sklepowych cen do 4070super po dlss i raytracing ¯\_(ツ)_/¯ Sytuacja z Vramem podobna, 12GB vs 16, AMD problemów ze sterownikami też już nie ma, ale przywiązanie do firmy jest za silne.
Mam arc a 770 sparkle i jestem mega zadowolony choć czekam na B770 i jak wyjdzie to kupie
Czyli jesteśmy gdzieś w połowie stawki między 4060 i 4060 ti. Względem MSRP super, ale nie wiem czy nie wolałbym RTXa 4060 za 1249 zł (7600, 7600 XT i 4060 ti wychodzą gorzej cena:wydajność)
Mam od niedawna laptopa z RTX 4060 i jeśli chcesz mieć przyszłościową kartę to proszę nie bierz 4060, 4060Ti (nawet 16GB bo strasznie przepłacona) a także 5060 jeśli potwierdzi się plotka o 8GB pamięci. Już teraz są gry gdzie 8GB ogranicza tą kartę, gdyby miała chociaż te 10GB to bym złego słowa o niej nie powiedział. Hitem jest najnowszy Indiana Jones, w tej grze bez RT ta karta spokojnie na wysokich w 1080p ogarnęła 60fps tylko co z tego skoro przez brak vram gra się crashuje informując przy okazji o braku pamięci i trzeba schodzić do ustawień medium które są na styk z pamięcią? A mowa o 1080p bez żadnego RT. Jak chcesz kartę która posłuży Ci przynajmniej 2-3 lata i chcesz mieć spokój co do pamięci nawet w 1440p to nie bierz karty z 8GB pamięci. Co z tego, że jest DLSS, FG i świetna wydajność w RT skoro tego nie wykorzystasz przez brak pamięci? To równie dobrze w takich sytuacjach ta karta mogłaby się nazywać GTX.
Taa... Karta do gier na której nie uruchomię dobrą połowę (jeśli nie więcej) swoich gier bo zapewne znów olano obsługę starszych tytułów pod DX9 i wcześniejszych.
A jeśli chodzi o pierwsze wrażenie wizualne karty to jednak poprzedni "founders" Intela bardziej do mnie przemawiał.
No niestety . Trzeba mieć drugiego retro pc.
@MsGtr Najzabawniejsze jest to że dziś coraz więcej wydawców, twórców, czy nawet plarform (choćby taki GOG) przystosowuje software'owo by wcześniej niekompatybilne programy/gry działały na współczesnych systemach czy sterownikach, to taki Intel szukając klientów właśnie wśród graczy idzie w drugą stronę i wydaje na rynek hardware niekompatybilny z takimi grami i strzela sobie sam w kolano rezygnując zapewne ze sporej grupy potencjalnych kupujących i kasy. Dla mnie od samego początku ARC był na straconej pozycji, czy to przez brak wsparcia dla DX9 czy przymus do stosowania rBAR. A jeśli dołączyć do tego znane problemy ze sterownikami, które być może w Battlemage'u poprawili/naprawili choć wątpię, czy bardzo małą ilość firm produkujących ich karty przez co jest niezwykle mały wybór to ciężko widzę ich przyszłość w tym segmencie. Pomijam już całkowte wypalenie się firmy na rynku CPU.
@@danielx5294 na techspocie masz recenzje z testow 250 gier (test z lipca tego roku) na Arcu A770 16GB. W 218 tytulach nie stwierdzono zadnych problemow, reszta jakies tam miala (zazwyczaj jakies artefakty graficzne, albo grywalna liczba klatek na sekunde (musialo byc wiecej niz 40) w rozdzielczosci 1440p). I tu pojawil sie problem z niekompatybilnoscia procesora graficznego z AMD (zamiast Intela testowali wszystko na platformie z AMD 7800XD, domyslnie gra szukala iGPU Intela). Pisza tez o kompatybilnosci ze starszymi grami i o tym, ze predzej napotkasz problemy z niekompatybilnoscia tych gier w stosunku do nowych systemow operacyjnych (np. typu zmuszenie by gra byla w trybie panoramicznym), niz niekompatybilnoscia sterownika Arca. Duzo czytania i przemyslen.
ktora karta bedzie lepsza do 1080p b580 czy rx 6750xt?
pod gry
@@osa30 poczekaj na więcej benchmarków i będziesz wiedział
6750 xt zdecydowanie, większe wsparcie fsr, poza tym karta ta konkuruje z 4060ti
spokooojnie - jutro całe szambos ie wyleje - to ocenimy :)
@@blrjirjfkr Tylko ta karta ma tragiczny Ray Tracing + wysoki pobór prądu.
Wiadomo już kiedy karta pojawi się w sklepach?
Jutro.
Dlaczego jest w tescie karta za 1739zl w nie ma 6750xt za 1500zl?
Masło już zaliczyłem... teraz czas na herbate😋
lipton to znak firmowy a herbata to roślina ^^
powiem tak: pobór mocy odstrasza.... żadne undervoltingi nic tam nie dały???
nic nie probowałes tam pozmieniac panie Techlipton?
@@hienasmietnikowa7795 ta krzywa działała tak mizernie że odpuściłem. Niby nowa wersja sterownika coś poprawia, ale dopiero będę to sprawdzał.
@@TechLipton aha :) dziekuje za odpowiedź :)
16:18 test testowi nierowny, ogladam material Hardware Canucks i tam sytuacja z Premiere Pro jest dokladnie odwrotna (czas renderu i eksportu materialow w 4K 16min) to dla B580 12GB 6:45, a dla RTX 4060 8GB 9:32. W DaVinci Resolve 19 Intel 6:45, Nvidia 8:35.
To ciekawe, bo QS pomimo szukania w opcjach nie był w ogóle dostępny jako forma wsparcia kodowania.
@@TechLipton ogladam teraz material PCWorld i tam PugetBench 1.1.0 Standard Overall 25.1 dla Adobe Premiere Pro 25.1 dla B580 11340 punktow, RTX 4060 9931 (w tym tescie nawet A750 lepiej wychodzi z wynikiem 11401) (za to nie udalo im sie odpalic testu z DaVinci Resolve)
@@Ciekawosc będę to jeszcze sprawdzał. Przy czym mam wrażenie że to wyniki dla ARC pochodzą z maszyny losującej. U każdego inny rezultat.
@@TechLipton dlatego jakis czas temu pisalem, ze te testy to ruletka, ze najlepiej jakby byl sprawdzian poza systemem operacyjnym typu Linux, czy Windows, bo one same z siebie wprowadzac moga zamieszanie (od sterownikow, po pracujace w tle tysiace watkow). I powtarzam: marzy mi sie test zaimplementowany w samej plycie glownej. W biosie mamy rozbudowane graficznie menu, w czym problem zrobic sekcje benchmark?
@@Ciekawosc czekaj czekaj 1 update i wszystkie te testy do śmieci ;-D
Gdy patrzę na tę kartę to widzę Radeona HD 4870 😂
Używałem tej karty z pentium dual core 2.5@3,66ghz ahh to były czasy
@ dokładnie !
No wątpię
Z której strony?
XD mam takiego w domu XDD
Czyli jak stalker i wukong leży, to jest problem z działaniem pod ue5. A gier na ue5 będzie coraz więcej.
tam słaba optymalizacja po prostu, nie dość że silnika to i gry
Ale to pewnie można "zategować" sterownikami.
Ciekawy wniosek, napewno warto mieć z tyłu głowy
@@pawe3919 problem to jest z UE5, a nie kartami 🤡
@TechLipton Jeden rabin powie tak, inny powie nie. Jedni mówią, że to problem z "leniwymi developerami", inni, że z silnikiem. Może warto temat pociągnąć, zarówno na nowym Intelu, jak i innych kartach.
Witam
Posiadam zestaw i9 10850k (krecony na 5,1 Gz na wszystkich rdzeniach), 16Mb ram 4400mhz, oraz rtx 4070ti 12gb, monitor 28" 4k 144hz, w tym momencie grając w 4k ( gram tylko i wylacznie w WOT gdzie mam stabilne 144hz), obciążenie karty graficznej jest w okolicach 96-98%, w niedalekiej przyszłości planuje zakupić rtx 5080, oraz monitor 32" 240hz 4k, czy zyskam sporo fps? Czy też będę musiał pomyśleć o wymianie platformy na 7800x3d?
Może jakiś taki teścik by się przydał czy potrzeba w takich sytuacjach wymieniać platforme
Pozdrawiam
wygodniejszy jest arc b580 czy ayaneo flip ds?
@@giecek podobny materiał!
Jest dobrze, vzekam jeszcze co Amd pokaże ale mozliwe ze kupię b580.
Czekam z tobą na premiery(modlę się do AMD aby wydali 8800/XT w styczniu)
Ok, szkoda, że nie było testów w grach e-sportowych, bo do tego ta karta może być wybitna
Kurcze granie w 30-50 fpsach do dla mnie jakiś masochizm. Jak można z czystym sumieniem polecać taką kartę do 1440p? Przecież ktoś to kupi na podstawie takiej recenzji i srogo się zawiedzie... FHD i to tyle, wyższe rozdzielczości to niestety trzeba zapłacić 3k+ 😢
tez tego nie rozumiem. Od jakiegoś czasu mam bardzo mieszane uczucia co do tego, na ile jeszcze starczy 4070s, żeby go dalej nazywać kartą do 1440p, a tutaj taki burak 😆
Nie trzeba mozna nie grac😅
kurde ja na integrze grałem sobie w lineage2 parę lat i fajnie mi się grało, dla jajec sobie sprawdziłem ile mam fps i wyszło 25 fps :D . A tu 50 i się grać nie da, masochizm, matko. Krzywdę ludziom robią te programy do fps, tak by jeden z drugim grał przy 60 fps i by nie wiedział to nigdy by nie zauważył tego, a tak ludzie są w stanie dać 1000 zł by skoczyć z 120 fpsów na 130 xD
Możesz użyć upscalingu i wydajność będzie lepsza. Ja gram na 3060ti w 1440p z dlss jakość albo zbalansowane i zawsze 60fps wyciągam. Co prawda dlss jest lepsze od xess ale dla przeciętnego człowieka różnica w jakości obrazu jest tak znikoma, że nie ma czym sobie zaprzątać głowy.
Wystarczy nie odpalać wszystkiego na Ultra.
To czy przy moim procku i5 9600k jest sens wymieniać z rtx 2060? Biorąc pod uwagę grę w 1080p i różnego radzaju gry. Sprzelanki, przygodowki, wszystko. Czy poczekać jeszcze z rok lub dłużej i zmienić wszystko (cpu, GPU, płytę, ram)?
Procek trochę słaby. Ja bym poczekał do nowych rtx'ów
@qwerty-w3l9p swoje lata już ma, chodzi od premiery 😛
@@nicra9 Zależy w co grasz i w co chcesz grać - 1080p 60hz większość będzie spoko, jak nie masz sraczki na coś extra to siedź bo to dobry sprzęt i ostatnia mało prądożerna generacja;
4:06 "Nowy Arc jest o niebo lepszy od nowego" ???
Konkurencja zawsze jest dobra dla konsumenta, no chyba że chodzi o ai...
no jak będziecie tak nowe karty i nowe próby krytykować u starających się firm, to niedługo zostanie sama nvidia i będzie monopolistycznie sprzedawać RTX 5060 TI za 12tyś a nowości nie będzie, bo kto bogatemu zabroni?
7:46 akurat wiedźmin jest okropnie napisaną grą i zawsze lubi się wywalić, nawet na moim RTX 4090. Wszystkie inne gry działają bezproblemowo, ale wiedźmin w ciągu 5 godzin grania wywala się średnio 6 razy, a czasami nawet i więcej. Oczywiście wszystkie reinstalacje i integralność plików były robione
Nigdy się z tym nie spotkałem.
Nie xd
wylacz hairworks
no to niezły szrot masz... ale żeby w grę z 2007 na 4090 grać? ^^
@@danielkowalski7527 z którego? XD
z takimi osiągami jeszcze daleko w polu, ale niech próbują...
informacyjnie: puscilem Blendera (4.1) z tym classroomem i na moim ARCu 770 16GB skonczyl renderowac klatke po 30 sekundach (sterowniki 32.0.101.6130). Nie byl polaczony w Deep Linku z procesorem graficznym 13900K, pewnie wynik bylby lepszy. EDIT: miala przy tym zalozony kaganiec na 190W
Ciekawe. Przed chwilą sprawdziłem u siebie na 10505 (czyli bez Deep Linka jeszcze) z A750 (32.0.101.6314) Classroom w wersji 4.1 i test skończył się po 30-31 sekundach... Domyślny kaganiec 190W, bez OC.
Skąd wy takie banger'y-nutki znajdujeciecie do tych testów haha
Epidemic Sound.
@@TechLipton No chyba xD
Do 1500 zł nadal najwydajniejszą kartą jest RX 6750xt
Tak, to prawda. Nawet napiszę więcej. Liczyłem że ta karta pojawi się w zestawieniu, niestety mój model Powercolor wyzionął ducha.
Szukam karty do I7-9700k, dużo strace bez rbar?
Tak, ale to i tak nie ma znaczenia, bo Arci nie wstaną na takiej starej podstawce
rx6600
No ładne rzeczy.
Oczywiscie zycze intelowiaby mial mocna koinkurencje dla nvidi, ale jeszcze daleka droga :D
Taka alternatywa do RTX4060Ti. Najważniejsze, że jest konkurencja z RayTracingiem.
Widząc osiągi tej karty czyli Intel ARC B580 (12GB) Nie warto wymieniać mojego starego RTX 3070 ;)
@@adamwenta9753 przypomnę że Twój RTX ma 8GB VRAM 👀
@@TechLipton No i?
@@winio437 No i w kilku gierkach se nie włączy wszystkich wodotrysków i trza będzie w opcjach ciąć a od tego dzieciom smartfona palce odpadają
Gdzie kupic Limited Edt?
herbatka jest to można oglądać ;)
Jest taka stagnacja na rynku PC że to szok
od tygodnia zastanawiam się co kupić 4060ti? 4070? rx 7700? 7780? teraz jeszcze intele zwariować można.....
problemy pierwszego świata ;-) w co chcesz grać? na czym Ci zależy? ;-)
@danielkowalski7527 assetto Corsa, dirt 2, ets os czasu do czasu. A jeszcze w styczniu wychodzi assetto Corsa evo no i żeby było ciekawiej to rtx seria 50.
@@danielkowalski7527 coś mi się wydaje że wybór padnie na 4060ti 8gb lub 7700xt, na dwa lata wystarczy.
@@adrianadamczyk498 bierz z 12-16gb na wszelki wypadek może wtedy na 6 lat starczy - zobacz jak rx 580 8gb się zestarzał dobrze dzięki 8gb (wtedy dużo)
@@danielkowalski7527 mam teraz w kompie rx580 8gb. Super karta
Dorównuje wydajności mojemu RX 6700 którego 2 lata temu dorwałem za 750zł używka
świetny zakup :-)
Aktualnie szukam taniej grafiki do grania w gry VR i jeśli nie będzie problemu z stabilnością i kompatybilnością to szykuje się fajny upgrade dla mojego rx 6650 xt
Szukam czegoś dla trzech monitorów (nie gram) do samego wyświetlania obrazu ( trejding)
gt 1650 - najmniej prądu żre na wielu monitorach i są ciche wersje pasywnie chłodzone
@danielkowalski7527 Dziękować pieknie
Mnie interesują Radeony ogólnie najlepszy stosunek ceny do wydajności czekam na RDNA4 mam 7900XT i bardzo sobie chwalę karciocha świetna pozdrawiam
U mnie 6950XT kupiony w 2023 za 3099zł pięknie śmiga 😊
Nie opłaca się ulepszać w 2025 do RDNA4 chyba że zależy ci na RT i czymś podobnym do cuda cores
dobrze grzeje? ;-D
@@Aegie skąd wiesz skoro rdna4 nie ma
@A-BYTE64 głównie plotki i leaki
Samo AMD mówiło że nie będzie konkurować w wysokim segmencie
Wukong i Stalker jest na ue5. Jak grafa nie radzi sobie na tym silniku, to nie ma sensu jej kupować, bo większość przyszłych gierki będzie na ue5
Czyli jak zwykle nvidia jest przed wszystkimi
Na starych wersjach UE5. Z wnioskami bym jednak poczekał na większą liczbę tytułów.
Ej ja na model AsRock-a czekam bo będzie biały i będzie pasować mi do kompa. (mam płytę Asrock-a)
Jeszcze tylko poczekać aż nVidia wejdzie w procesory i w pytę
DX11?
1299 zl gdzie juz niedlugo premiery nowych kart od amd/nvidia do tego ten pobor pradu gdzie w polsce ma to znaczenie.
@@HoKcc premiera 5060 to okolice kwietnia. Daleka droga do tej karty.
halo to nie jest reklamówka nvidii -jak Lipek kręci za hajsy nvidii o 4060 to wtedy tak wtedy jest chwalenie pod niebiosa niskiego poboru ;-D
To reklama intela jest więc akcenty położone są inaczej ;-D
z przekory przydalo by sie porownanie z 3060ti i uzywanym 3070 :P.
@@przemysawnowak2673 nie dobijajmy tych truposzy.
AMD i Nvidia zasluzyly sobie na to, by ktos ich ustawil do pionu bo rynek kart graficznych to jakas totalna porazka i padaczka.
Kto pamieta czasy gtx970 czy gtx1070 i 1080ti ten sie w cyrku nie smieje.
Nic tylko czekac na drozsze karty od Nvidii typu 5060 z 8GB czy 8800xt od AMD tez z 8GB ktore beda sie zaczynaly od $300, czyli u nas jakies 1700 minimum.
ma ktoś pomysł dlaczego RTX 3080 wciąga 40w w idle/na pulpcie? żadne zmiany ustawień nie działają
Normalny pobór w spoczynku nie ma w tym nic dziwnego
@Aegie no chyba nie, mam obok 4070ti i łyka jakieś 15-18, 40w brał mi kiedyś radeon 5700xt bo miał zrypane sterowniki dla 1440p i wyższego odświeżania niż 60hz
@@dzemorek7738 40W to zdecydowanie za wysoki pobór.
około 10w powinna żreć - może wcale nie taka idle?
@@danielkowalski7527 no właśnie idle, zużycie 1-2%, nawet jakby miała animowaną tapetę to powinno być mniej, przypadkowe odkrycie w kompie dziewczyny, nic nie działa
mój 4060 asus dual w spoczynku 51W to tak ma być każdy tak ma ? czy da sie coś zrobić z tym ?
sama karta czy cały komp?
@@danielkowalski7527 karta
@@danielkowalski7527 karta sama
skoro rtx 4060 ti ma mało ramu , to dlaczego nic niema o wersji 16gb?
Bo tę kartę na śniadanie zjada RX 7800 XT.
@@TechLipton160 vs 260 tdp nie dość że droższa to droższa w użytkowaniu
Otrzymałeś od Intela?
doceniam niebieskich ale powinni się skupić i coś zrobić z swoimi CPU w średnim segmencie bo jako wieloletni fanboy intela nie mam co kupić a nie chcę się narazić na bekę ze strony AMDekowców :D
W średnim to jest sporo do wyboru a z czego się chcesz przesiąść?
Myśle że jednak NVidia robi najlepsze referenty. Jak dla mnie Rtx 3000/4000 (wedle mnie Rtx 4090) to masterpiece. Kawał metalu i nic więcej. Czuć dobrą jakość.
Ja czekam na nowy xess albo fsr, by w końcu można się śmiać z nvidowców tak jak z iphonowców, ze kochaja przepłacac. Amd do roboty, wierzę w was
No dlatego pewnie "przepłacają", żeby nie musieli czekać, kibicować i się śmiać z fanboyow AMD pisząc "DO ROBOTY WIERZĘ W WAS" lub nie chcą być dotknięci przez smarki sterownikowe
można czekać i 10 lat, albo zapłacić 300zł więcej i mieć już z nieco lepszą wydajnością
a poza tym, jest już nowy XESS, wyłącznie do tych kart :)
@@ep_illex9080 ale to amd ma kartę 15% słabszą od 4090 w cenie 3x niższej xD No to z czym do ludzi
@@maciekdeveloper Gdyby nie fakt, ze amd nie dyma swoich klientów jak nvidia, gdyby była taka sama i by sie skupiła tylko na fsr, pod najnowsze karty nie opytmalizowała je pod wszystkie karty od nvidii po intela, to by juz dawno sie zblizyła do dlss, albo i go przeskoczyła, a tak jeszcze ciut z artefaktami i minimalnie wydajnością tracą do dlss. Zycie xD
Cześć Piotrze. Wybacz, ale jak dla mnie, to karta wygląda wieśniacko. Ale każdy ma swój gust. Dla mnie nV founders jest z wyglądu bezkonkurencyjny. Poza tym, kto dzisiaj kupuje RX7600XT, jak za 200 więcej jest 7700xt.Pozdrawiam.
F1 24 pierwsze z obsługą xess2
Ok Intel może działać dobrze w nowszych, popularnych grach, lecz w tych starszych pewnie jest gorzej.
Dlatego nie kupiłbym takiej karty graficznej, w dodatku ten pobór prądu mnie odstrasza.
rx7600m pod usb 100w żre ^^
Potrzebujemy czegoś takiego jako zwykłą kartę
czekam dalej żeby zmienić rtx3060Ti
Na pure pc jest że ma tylko 1280 SP
U Zmasło blender poszedł lepiej, jak to?
a tu se ustawił tak, a tam se ustawił to i tamto inaczej i o inaczej wyszło ^^
Mam pytanie do Pana Liptona czy zestaw rx 6750 xt z ryzenem 5 3600 bedzie miał bottelneck