Jump to content

Estrax

Members
  • Content Count

    1394
  • Joined

  • Last visited

  • Days Won

    47

Everything posted by Estrax

  1. Kelpery są już na wylocie, więc nie ma co o nich myśleć. Jeśli chodzi o GPU pod macOS to nie ma specjalnie w czym wybierać - w grę wchodzą tylko kompatybilne Radeony. Przede wszystkim, należy pamiętać, by unikać modeli od XFX - są najbardziej upierdliwe przy odpalaniu i nie zawsze reflash załatwia sprawę. Reszta vendorów jest w zasadzie okej, najmniej problematyczne są karty od Sapphire (z tymi od Asusa czy Gigabyte też nie ma większych problemów). @pianista najtańsza opcja to RX560, jeśli celujesz w max dwa monitory (max 1440p), przy czym trzeba sprawdzić, którym wariantem jest dana karta - w przypadku tego modelu, są 3 opcje: pełny RX560 (16 CU), RX560 (14 CU) - będący rebrandem RX460, jak i RX560D (14 CU) - sprzedający bardzo często nie umieszczają tej informacji. Model z 16 CU ma 1024 shadery, 64 TMU i 16 ROP, a model z 14 CU (zarówno 560 jak i 560D) ma 896 shaderów, 56 TMU i 16 ROP. Modele RX560D bywają upierdliwe i wymagają patchowania framebuffera, stąd najlepiej kierować się w stronę układów z 16 CU - odpada wtedy możliwość nacięcia się na model z D w nazwie. Pod 3 monitory - zdecydowanie RX570, RX580 lub RX5500XT - ostatnio, wszystkie trzy trafić można w podobnych cenach. Egzemplarze z outletów, czy zwrotów 14-dniowych, które są w zasadzie jak nowe (są na normalnej gwarancji producenta, dostaniesz na nie spokojnie fakturę vat) z popularnych sklepów (x-kom, morele, komputronik, etc.) wyrwiesz za około 600 pln.
  2. @pianista to w takim razie rzuć okiem na używane egzemplarze RX570, opcjonalnie RX560, jeśli nie planujesz wyświetlać nic wyżej niż 1080p/1440p. Byle nie od XFX, gdyż te bywają upierdliwe.
  3. @Ian Półpasywne chłodzenie w tym przypadku oznacza, że do określonego poziomu obciążenia (zazwyczaj 40-50%) i temperatury wentylatory są wyłączone i chłodzenie odbywa się całkowicie pasywnie, tj. wyłącznie z wykorzystaniem radiatora.
  4. Poradzi sobie z nimi, ale wydajność będzie kiepska - jeśli chcesz sprawdzić, jak to będzie działać w przypadku M1 i niewspieranych kodeków, wystarczy, że odpalisz dekodowanie VP9 12-bit lub AV1 12-bit na swoim MacBooku z Haswellem. Sęk w tym, że to nie do końca jest RAM w rozumieniu takim, jaki był do tej pory. To, co Apple nazywa "unified memory" to nic innego jak coś w stylu cache L4 - pamięta ktoś eDRAM, który Intel wrzucał do Broadwelli desktop i embedded jako L4? Tutaj działa to w zasadzie tak samo, tyle, że zamiast 128 MB jest tego 8 GB lub 16 GB. Ponadto, poza tym, że wszystkie koprocesory mają dostęp do tej głównej pamięci, mają też własne, podręczne rejestry, które mogą być adresowane z poziomu dowolnego innego układu w obrębie SoC - rozwiązanie bardzo podobne do resizable BAR aka Smart Access Memory. Zaczyna się znowu dziać ciekawie na rynku hardware - AMD zdecydowanie nie powiedziało jeszcze ostatniego słowa, a i inne firmy nie próżnują - np. Micro Magic jakiś miesiąc temu chwaliło się swoimi układami, które osiągają 5 GHz przy napięciu jedynie 1.1V https://www.eetimes.com/micro-magic-risc-v-core-claims-to-beat-apple-m1-and-arm-cortex-a9
  5. @wujek_bogdan tam akurat jest pod pewnym względem błąd, gdyż dla iMaca z Haswellem i wyłącznie iGPU, właściwym SMBIOSem jest iMac14,1 - czyli ten od modelu 21.5 late 2013. iMac14,2 to model 27", który już miał dGPU (mobilne keplery), zaś iMac15,1 to identyfikator iMaca 27 late 2014 i mid 2015 z wyświetlaczem 5k i CPU z rodziny Haswell Refresh (oraz dGPU w postaci mobilnych Radeonów serii M2x0X). Prawda jest taka, że zarówno SMBIOSy iMac 14,x jak i 15,x działają poprawnie na platformach z CPU z rodziny Haswell - a skoro iMac14,x wyleciał już ze wspieranych przy macOS Big Sur, to warto przeskoczyć o oczko wyżej i korzystać z najnowszej wersji systemu.
  6. To odradzanie dysków Samsunga nie ma aktualnie żadnej sensownej podstawy technicznej. W tym konkretnym przypadku, dłuższy czas bootowania spowodowany jest przez bootloader - czas bootowania systemu z OC 0.6.3 na Samsungach 970 Evo Plus i 980 Pro, jest bardzo zbliżony do np. SiliconPower A80 na Phisonie E12. Ta sama platforma bootowana przez Clovera (a nawet i przez niektóre starsze wydania OC) wstaje zauważalnie szybciej.
  7. Zgadza się, są w zasadzie takie same, jak modeli poprzedniej generacji (chyba tylko MBP13 poszedł w górę o $100). Również nie uważam tych cen za wysokie, gdyż podobne modele konkurencji (np. ThinkPad X13, ThinkPad T14) kosztują w zasadzie tyle samo. W zasadzie wszystko, co wymieniłeś, Apple pokazało na banerze podsumowującym dany produkt - ale i nie masz do końca racji. Przypominam, że samych MBP13 są dwa modele - ten z 2xTB3 i ten z 4xTB3. Model z M1 SoC jest następcą tego z 2x TB3 i ma w zasadzie taką samą specyfikację co poprzednik - tamten też miał max 16 GB RAM i jedynie dwa porty TB3. Nie mamy tu następcy modelu nieco bardziej wydajnego z 4x TB3, gdyż pojawi się on pewnie przy premierze wydajniejszych układów ARM wraz z premierą nowych MBP16. W przypadku Maca Mini, jest on bardziej następcą tego modelu "entry-level" aka late 2014 z i5 4260U (2/4x 1.4-2.7 GHz) na pokładzie, nie zaś tego z 2018 roku z Coffee Lake. Fakt, nie zostało to odpowiednio zakomunikowane i jest to fuckup ze strony Apple. Kwestia ilości obsługiwanych zewnętrznych monitorów to już temat dotyczący zastosowanego SoC i tutaj nie ma co bronić Apple. Ciekawe, czy fizycznie mamy do czynienia z limitem na poziomie 2 wyświetlaczy, czy może takiego limitu nie ma, a Apple na etapie designu PCB podciągnęli jeden sygnał video do obu portów TB3. Możliwe jest także to, że mamy tu do czynienia z błędem w specyfikacji i sprzęt będzie obsługiwał 1x 6k60 lub 2x 4k60 - trzeba to będzie sprawdzić na fizycznym egzemplarzu. Brak wsparcia dla eGPU jest zrozumiały od strony biznesowej, gdyż w jakimś stopniu kanibalizuje to sprzedaż innych urządzeń - do tej pory wystarczał taki Mac Mini + eGPU lub MBP13 + eGPU, a teraz konsument będzie musiał rozważyć albo droższy model MBP16, albo zakup drugiego urządzenia w postaci iMaca lub MacaPro. Ot tzw. upselling. Takim komputerem "do prostych zadań, do włączenia go w parku i łóżku przed snem" był po prostu MBA. Mogli zrobić dwa warianty Aira - jeden z touchbarem a drugi bez, zamiast nazywać jeden z tych modeli "Pro". Tak, mam to za złe Apple już od ponad dwóch lat, odkąd wypuścili MBP13 z 2x TB3. Nikt nie mówi o 128 GB RAMu w laptopie z 13" wyświetlaczem, aczkolwiek krytyka pod adresem Apple nie pojawia się bez powodu - to oni spowodowali, że linia produktowa MBP13 zawiera dwa modele o różnej specyfikacji i różnej możliwości upgrade (np. tańszy model może mieć max 16 GB RAM, droższy już 32 GB). Wprowadzając następcę tego tańszego wariantu MBP13, nie zakomunikowali prawidłowo, że to tylko o ten wariant chodzi. Co do podpinania więcej niż jednego monitora zewnętrznego - dwa monitory są bardzo wygodne do pracy - nie tylko na stanowiskach w branży IT. Nie zawsze wygodnie się korzysta z 13" wyświetlacza i jednego monitora zewnętrznego o przekątnej np. 27" czy 32" - czasami dużo lepszą opcją jest podpięcie laptopa do docka (np. HengeDocks/Brydge Vertical) i korzystanie z dwóch monitorów zewnętrznych o identycznej przekątnej. Monitory ultrawide 32:9/32:10 nie zawsze się sprawdzają, chociażby ze względu na to, że wiele z nich jest zakrzywionych (co czasami nie jest pożądanym efektem), a te, które nie są, są zbyt szerokie, by komfortowo na nich pracować - przy dwóch monitorach, można jeden z nich postawić na wprost, a drugi na boku, pod kątem w stosunku do użytkownika.
  8. Ogłoszono: - SoC: Apple M1 (ARM64v8, proces 5nm; 8 rdzeni w konfiguracji 4x high power - 640 KB L1, współdzielone 12 MB L2; oraz 4x high efficiency/low power -512 KB L1, współdzielone 4 MB L2; w zestawie też iGPU z 8 rdzeniami i 128 EU) - będzie też dostępna konfiguracja z odblokowanymi jedynie 7 rdzeniami GPU (112 EU), która trafi do najtańszego MacBooka Air. Wersja z 7 EU ma sobie radzić z odtwarzaniem kilku klipów ProRes 4k60 w full res w Davinci Resolve w jednym momencie bez gubienia klatek, wersja z 8 EU ma obsłużyć do 8k60 w ProRes 422. Zaprezentowane urządzenia: - MacBook Air (M1 SoC, GPU 7c w podstawce, 8c w konfiguracji bardziej wypasionej, 16c NPU, 2x TB3/USB4 + minijack, 8 GB RAM - max 16 GB LPDDR4, max 2 TB SSD M.2 NVMe PCIe4, WiFi6, fan-less design, kamera 720p, 15h pracy na baterii lub 18h odtwarzania video - $899 edu, od $999 normalnie lub $1249 za model z 8c GPU) - od 5199 pln / 6449 pln w Polsce, najbardziej wypasiony konfig (16 GB RAM, 2 TB SSD) - 10449 pln - Mac Mini (M1 SoC, max 16 GB RAM LPDDR4, max 2 TB SSD M.2 NVMe PCIe4, 2x USB-A, 2x TB3/USB4 + minijack, HDMI, 1 GbE, WiFi6 - od $699, wszystkie konfiguracje z 8c GPU) - od 3699 pln / 4699 pln w Polsce, najbardziej wypasiony konfig (16 GB RAM, 2 TB SSD) - 8699 pln - MacBook Pro 13 (M1 SoC, 17h pracy na baterii lub 20h video playback, 8 GB RAM - max 16 GB, max 2 TB SSD, 2x TB3/USB4, WiFi6, kamera 720p - od $1299 normalnie,, od $1199 edu - wszystkie konfiguracje z 8c GPU) - 6699 pln / 7699 pln w Polsce, najbardziej wypasiony konfig (16 GB RAM, 2 TB SSD) - 11699 pln Dostępne już dziś, dostawy od przyszłego tygodnia (4-6 dni roboczych). Co sądzicie? Jakie są Wasze oczekiwania od nadchodzących urządzeń z Apple Silicon, takich jak np. MBP16 i iMac, które powinniśmy poznać w maju?
  9. @reyder RAM w Macu Mini 2018 jest wymienny - 2x SO-DIMM DDR4 2666 MHz.
  10. Moim zdaniem, chcąc po prostu mieć komputer z TB3, nie opłaca się brać Maca Mini 2018. NUC z i7 10710U jest od niego szybszy i się zauważalnie mniej grzeje. Ponadto, duży plus NUCa to brak wlutowanego dysku. I co najważniejsze - NUC jest znacznie tańszy. Odnośnie adaptera, tu niestety nie pomogę, gdyż tego modelu nie testowałem.
  11. @wujek_bogdan jest okej. Ot taki zasilacz może być ciut mniej efektywny prądowo (wyższe straty na energii) od tego z certyfikatem gold - różnica na poziomie około 7%. To znaczy, aby dostarczyć 300W do komputera, ten zasilacz będzie pobierał jakieś 350-360W (dla porównania, 80 PLUS Gold pobierze około 320-330W). Poza tym, jeśli tylko 2x 8pin i 3x 6pin wystarczy Ci do zasilenia dysków na SATA (o ile takowe planujesz) oraz GPU - to nie ma się do czego przyczepić i możesz śmiało brać taki zestaw.
  12. @bogdanh: 2.5 GT/s oznacza PCIe w standardzie 1.x. Z tego co pamiętam, czytnik kart jest w praktyce podpięty pod single-lane PCIe 2.0 x1, jednakże sam czytnik działa w trybie PCIe 1.1 x1, więc maksymalna (szczytowa) przepustowość to jakieś 250 MB/s - zarówno odczyt, jak i zapis. Z podanych portów, najszybszy jest TB, na którym szczytowo, w pracy ciągłej, wyciągniesz około 1-1.1 GB/s w obie strony. Po USB 3.0 będzie to około 470-500 MB/s, a po SATA3 jakieś 550-570 MB/s. Jedyna szybsza alternatywa to wykorzystanie zewnętrznej obudowy na TB1/TB2 pod eGPU - ma ona w środku slot PCIe, pod który podpinasz adapter na dyski M.2 NVMe i stosowne dyski. Opłacalność całej inwestycji zależy od tego, za ile wyrwiesz wspomnianą obudowę na eGPU pod TB1/TB2, a max co osiągniesz, to 1-1.1 GB/s w obie strony. Mimo wszystko, zdecydowanie lepsze efekty osiągnąć możesz przez przesiadkę na sprzęt, który natywnie wspiera M.2 NVMe - dyski M.2 2280 z kontrolerem PCIe 3.0 x4, które mają max przepustowość na poziomie około 3-3.5 GB/s w obie strony, są dość atrakcyjne cenowo. Wystarczy spojrzeć np. na następujące modele: - SiliconPower A80 512 GB - 3400 MB/s odczyt, 3000 MB/s zapis - około 330 pln a w przypadku wyższej pojemności: - PNY XLR8 CS3030 1 TB - SiliconPower A80 1 TB - Adata XPG SX8200 Pro 1 TB które to wyciągają max 3500 MB/s odczyt i 3000 MB/s zapis, a są do wyrwania za około 600 pln. Ponadto, nowszy sprzęt to m.in. obecność USB 3.1 gen 2, które zapewnia przepustowość taką samą jak TB1 (10 Gb/s), a obudowy na dyski M.2 NVMe na USB-C są dość tanie i powszechnie dostępne. Co do kart SD, coś mi tu nie pasuje w tym, co piszesz, ale po kolei: 1. Nie spotkałem jeszcze przyzwoitej karty 500 GB w przedziale cenowym 80-150 pln - to, co można znaleźć na allegro, to w dużej mierze chińskie no-name'y, co do których parametrów można mieć poważne wątpliwości. Najtańsza przyzwoita karta SD (lub microSD z adapterem na SD) to Samsung Evo Plus - 256 GB w cenie około 160 pln, ale i karta ta jest w zasadzie pod każdym względem gorsza, niż SSD na SATA3 w tej samej cenie. 2. Klasa karty SD mówi sporo o jej wydajności - C10/U1/V10 to minimum 10 MB/s w zapisie, U3 i V30 to minimum 30 MB/s, V90 powinno zapewniać minimum 90 MB/s. Zazwyczaj producenci kart U3 podają wartości na poziomie 90-100 MB/s w obie strony, ale trzeba pamiętać, że są to po prostu wartości szczytowe. Dla porównania, większość przyzwoitych dysków SSD na SATA3 oferuje ponad 500 MB/s w obie strony (osiągalne zarówno via SATA3, jak i USB3.0). Oczywiście, są i porządne karty UHS-II V90, które potrafią osiągnąć szczytowo jakieś 300 MB/s odczyt i 250 MB/s zapis, ale wydanie 450-500 pln za kartę 128 GB (Kingston Canvas React Plus), 700-750 pln za kartę 256 GB (Adata Premier One) lub nawet i 1000-1100 pln za 128 GB (Sandisk Extreme Pro UHS-II), to moim zdaniem całkowicie nietrafiona inwestycja - szczególnie, że inwestując te 450-500 pln w przyzwoity dysk SSD, dostajesz np. Samsunga 870 QVO o pojemności 1 TB , który spokojnie przekracza przepustowość 500 MB/s w obie strony, ma znacznie wyższą pojemność (1 TB vs 128/256 GB) i w pracy ciągłej pożyje zdecydowanie dłużej, niż taka karta SD.
  13. Uwagi z mojej strony: - ten model CPU jest bez iGPU, więc będziesz musiał dołożyć jakąś dGPU - czy w takim razie przekładasz coś ze starego komputera? Jeśli nie, to musisz pomyśleć o modelu bez F w nazwie. - pod webdev i grafikę bardziej liczy się pojemność RAMu niż jego taktowanie, stąd taktowanie na poziomie 3000 MHz jest okej. Różnica między 3000 CL15 a 3600 CL16 nie jest jakoś specjalnie odczuwalna w takich zastosowaniach. Polecam jednak poszukać innych modeli, są przede wszystkim tańsze - taki Patriot Viper Steel 2x16 GB 3200 CL16 jest do wyrwania blisko stówkę taniej. - SSD - jeśli już, to 970 EVO PLUS a nie sam EVO. Model z plusem w nazwie jest ciut szybszy przy zapisie. Opcjonalnie, możesz wziąć zamiast niego SiliconPower A80 512 GB - wprawdzie żywotność komórek ciut niższa, ale i tak wystarczająca na kilka lat normalnej pracy. Pod względem osiągów nie można temu modelowi niczego zarzucić. - cooler - spartan pewnej części ciała nie urywa, polecałbym celować w coś pokroju Fera 3 lub Fortis 3 - niewiele drożej, za to temperatury w stresie o jakieś 10 stopni w dół, jak i znacznie lepsza kultura pracy.
  14. W podanym wyżej temacie jest nie Z490-P, a B460M-A - ale i tutaj również nie powinno być problemów. W kwestii audio, ze względu na to, że jest kilka wersji ALC887 na płytach z LGA1200, pewnie zejdzie Ci chwila na dobraniu layoutu, który działa u Ciebie. Poza tym - brak problemów.
  15. Asus Z490-P jest okej, jedyne zastrzeżenie co do tej mobo, to nienajlepsze audio (ALC887). Poza tym, model jak najbardziej poprawny. Z Gigabyte, osobiście mam dobre doświadczenia z Z490 GAMING X - stąd i mogę ten model polecić (a przy okazji, jeśli ma się ochotę na działający TB3, to można pokusić się o dołożenie karty typu Gigabyte GC-Titan-Ridge). Większość pozostałych płyt, które przeszły mi przez ręce, to już trochę droższy sprzęt (Asus - Z490-E/F/G/H, Maximus XII Formula; Gigabyte - Z490 Vision D, Z490 Aorus Ultra, Z490 Aorus Master), ale nie zawsze godny polecenia (np. MSI Z490 Unify, czy AsRock Z490 Phantom Gaming Velocita - na obu tych modelach są problemy z poprawnym odpaleniem iGPU, co powoduje, że Sidecar nie działa poprawnie, nie działa także AppleTV+).
  16. Na ten moment, osobiście nie pchałbym się w dziewiątą generację Core od Intela - różnica cenowa między tymi generacjami nie jest duża, a nowsza z nich potrafi być (choć nie zawsze, ale o tym poniżej) sporym krokiem naprzód, szczególnie pod względem termalnym. Różnica w wydajności - jaka jest, każdy widzi - w stosunku do i7 4790k, taki i5 9600k to jakieś +15% w single core i +25% w multi core (niestety, jedynie taka różnica, ze względu na zablokowany HT w większości CPU dziewiątej generacji), za to najtańszy model i5 dziesiątej generacji (która znów posiada HT), czyli i5 10400/10400F, oferuje na starcie +50% w multi core (single core podobny do i7 4790k, ze względu na niskie zegary na i5 10400; wybierając wyżej taktowanego i5 10600k dostajesz z automatu jakieś +20% w single core i +75% w multi core). CPU z obu tych generacji spokojnie radzą sobie w zastosowaniach pokroju webdev czy grafika. Co najważniejsze, dziesiąta generacja to powrót HT, większa ilość cache (2 MB/rdzeń, w stosunku do wcześniejszego 1.5 MB/rdzeń, co przekłada się na różnicę 12 MB vs 9 MB w przypadku sześciordzeniowych i5). Standardowo, jest też glut pod IHSem - z wyłączeniem wszystkich egzemplarzy i5 10600K, i5 10600KF oraz wybranych i5 10400 (SRH78) oraz i5 10400F (SRH79) - te mają lutowany IHS. Powodem takiego stanu rzeczy jest to, że część egzemplarzy to po prostu produkcyjne i5, z 6 rdzeniami pod IHSem - te mają "gluta" - a konkretnie: - i5 10400F SRH3D - i5 10400 SRH3C - i5 10500 SRH3A (czyli w zasadzie wszystkie modele, gdyż to jedyny stepping dla tego modelu) - i5 10600 SRH37 (czyli w zasadzie wszystkie modele, gdyż to jedyny stepping dla tego modelu) a pozostała część, to odrzuty z produkcji i9 10900k (10 rdzeni pod lutowanym IHSem, z czego 4 rdzenie wyłączone): - i5 10400F SRH79 - i5 10400 SRH78 - i5 10600K SRH6R (czyli w zasadzie wszystkie modele, gdyż to jedyny stepping dla tego modelu) - i5 10600KF SRH6S (czyli w zasadzie wszystkie modele, gdyż to jedyny stepping dla tego modelu) Ponadto, zazwyczaj mobo na LGA1200 są ciut lepiej wyposażone, niż ich odpowiedniki na LGA1151 - m.in. dzięki obecności LANu 2.5 GbE, czy WiFi 6 (ax) - niektóre z tych układów są do ruszenia pod macOS (np. 2.5 GbE LAN - RTL8125; i225-V po spoofingu ID też rusza). Jeśli chodzi o vendorów mobo z chipsetem Z490, najlepszymi opcjami są Asus i Gigabyte - MSI i AsRock są zazwyczaj ciut bardziej problematyczne, ale i ciężko mi też mówić o ogóle rynku, gdyż przerobiłem jeszcze niewystarczającą ilość mobo na Z490.
  17. Nie mam niestety zbyt dużego doświadczenia z płytami na B460, ale prawda jest taka, że dopóki nie ma tam jakiejś egzotyki, to wszystko jest, mniejszym lub większym wysiłkiem, do odpalenia. Osobiście wolę Z490, m.in. przez możliwość OC i działające XMP - RAM na B460 przy i3/i5 działa maksymalnie na 2666 MHz, a na i7/i9 max na 2933 MHz; na Z490 takich problemów nie ma, bo po ustawieniu profilu XMP RAM wskakuje od razu na taktowanie podane przez producenta - na dzień dzisiejszy kości 3200 CL16 lub 3600 MHz CL18 są dość tanie, a różnica wydajnościowa (w stosunku do 2666, które zazwyczaj występują z opóźnieniami CL16 lub CL19) jest zauważalna - konkurencyjne są w zasadzie wyłącznie 2666 CL10 (ale i też drogie). Jeśli chodzi o wybór mobo, osobiście celowałbym w jakiegoś Asusa na Z490, ostatecznie Gigabyte - z MSI i AsRockami na Z490 jest trochę więcej zabawy, niektóre modele mają spartolone UEFI (problemy z USB, RTC/AWAC, losowo zdychającym ethernetem, oraz KASLR). Z tego co widzę, podałeś tylko płyty główne w formacie mATX, czy serio potrzebujesz takiej mobo, a nie wystarczy Ci zwykły ATX? Co do odpalania iGPU w headless mode, chipset na to nie ma większego wpływu, liczy się poprawny dobór ig-platform-id.
  18. Vega 64 to poziom RTX2060S (RTX 2060 super), jednakże bywa problematyczna po aktualizacjach - a to problemy z bootscreenem, a to brak akceleracji przy kodowaniu video, a to niepoprawnie działający PM i wentylatory kręcące się na 100%. Ponadto, wiele tych kart (dotyczy: RX570, RX580, RX590, Vega56, Vega64) było zaprzęganych do kopania kryptowalut (niekoniecznie w koparkach, często też w domowych PC do kopania na małą skalę) - stąd polecam sprawdzać dokładnie kupowane karty. Z cenami RX5700XT też nie jest tak źle - za 1400-1500 pln to można wyrwać nówkę, a będzie jeszcze lepiej, gdyż seria RX6000 powinna za miesiąc pojawić się w sklepach - ponadto, nVidia miała nie tak dawno premierę kart serii 30 (RTX3000), które spowodują duże spadki cen kart poprzednich generacji (szczególnie, że RTX3070 founders edition został wyceniony na 2359 pln, a jest blisko o połowę szybszy, niż RTX2080Ti). Jeśli chodzi o SilentiumPC, to owszem, jest to w zasadzie budżetowy segment, ale trzeba przyznać, że całkiem przyzwoicie wykonany. Co do zasilacza - to, że spełnia pewne normy w zasadzie implikuje, że posiada pewne zabezpieczenia - tylko w praktyce, nie chodzi o to, czy je posiada, a o to, czy one są w stanie poprawnie zadziałać w razie w - w wielu tanich modelach często to loteria. W temacie poboru mocy - te 125W przy i9 to jedynie TDP (PL1), a nie faktyczny pobór mocy - PL2 dla i9 10850k/i9 10900k to 250W, a w praktyce, pod długotrwałym obciążeniem potrafi on zjeść między 270 a 330W (tzw. efekt 14+++, dla porównania, tyle samo pobiera wykonany w 7nm Ryzen TR3970X pod pełnym obciążeniem na wszystkich 32c/64t). Dokładając do tego kolejne 300W pobierane przez Vega64, wychodzi, że najmniejszy sensowny zasilacz przy i9 10900k to jakieś 850W. Jeśli chodzi o producentów zasilaczy, beQuiet jest ok, podobnie Seasonic. W przypadku Corsaira brałbym pod uwagę modele RM/AX/HX, ostatecznie TX.
  19. Zamiast Vega64, wrzuć RX5700XT - jest po prostu szybsza i wcina mniej prądu. W temacie zasilacza, zamiast brać najtańszy model w ofercie Corsaira czyli CV650 (czyli refresh VS650), lepiej już wziąć chociażby SilentiumPC Supremo M2 650W lub FM2 650W (pierwszy jest półmodularny, drugi już w pełni modularny) - zjadają jakością tego Corsaira na śniadanie, w szczególności pod względem efektywności energetycznej. Co do SSD, pamiętaj, że wsadzenie dysku SSD na M.2 w slot M.2 podciągnięty do chipsetu (zazwyczaj M.2_0 podpięte jest pod CPU, a M.2_1 pod chipset) powoduje ubicie 2x SATA3 - jeśli nie planujesz używać dysków na SATA, to nie ma tu większego problemu.
  20. Z tego co mi wiadomo, to zdecydowana większość płyt to wspiera (czasami nie na wszystkich portach, bardzo często na max 1-2 w danym momencie). Nie pamiętam, czy pierwszą platformą, która to implementowała na poważnie, był Nehalem-C (Westmere), czy dopiero Sandy Bridge (w przypadku USB3.0 wstępną implementację miały niektóre mobo pod Ivy Bridge na Z77, a pełne wsparcie USB-BC 1.2 miał dopiero Haskell), ale tak czy tak, oba urządzenia podane w Twojej sygnaturze powinny ten standard obsługiwać. W temacie samego działania pod macOS, powinno to działać OOTB, ale dobrze byłoby sprawdzić ustawienia w UEFI, jak i to, czy działa to poprawnie pod innymi systemami (win, jakiś linux - może być i ubuntu).
  21. @man_of_the_oak o ile samo zasilanie przez interfejs USB 2.0 to 5V/0.5A, a w przypadku USB 3.0 5V/0.9A, o tyle wielu vendorów dorzuca też wsparcie dla USB-BC (USB battery charging) w tych portach. USB-BC daje dodatkowe 5V/1A w przypadku standardu USB 2.0 z transferem danych, lub 5V/1.5A przy samym ładowaniu. W przypadku USB 3.0 jest to 5V/1.5A przy transferze danych i maksymalnie 5V/5A przy samym ładowaniu baterii. W rezultacie, można osiągnąć następujące wyniki poboru prądu z gniazda: - USB 2.0 z transferem danych - 5V/1.5A - USB 2.0 z samym ładowaniem - 5V/2A - USB 3.0 z transferem danych - 5V/2.4A - USB 3.0 z samym ładowaniem - 5V/5.9A (w teorii; w praktyce jednak maksymalnie 5V/3A)
  22. @reyder zwróć uwagę na to, że ten CPU ma też iGPU, na którym macOS działa całkiem dobrze.
  23. Czy ja wiem, czy ta cena aż tak bardzo wgniata w podłogę... owszem, RTX3090 tani nie jest (35-40% droższy od RTX2080Ti), ale pozostałe modele są już całkiem znośne cenowo, oferując przy tym wyraźny skok wydajnościowy, w stosunku do poprzedniej generacji - wydajność leci x2 w stosunku do odpowiednich modeli z poprzedniej generacji (RTX2070super -> RTX3070, RTX2080Ti -> RTX3080), czyli praktycznie tak samo, jak przy przeskokach co dwie generacje. RTX3070 to ~35% więcej rdzeni CUDA niż RTX2080Ti za jedynie 40% ceny starszego, topowego modelu, a RTX3080 to w zasadzie 2x RTX2080Ti za 1/3 ceny tego duo. Karty RTX3070 i RTX3080 produkowane przez zewnętrznych dostawców powinny wyjść również z podwójną ilością VRAMu w stosunku do Founders Edition (czyli odpowiednio 16 GB i 20 GB), co powinno w zupełności wystarczyć aż do czasu popularyzacji monitorów 8k.
  24. Oficjalnie zaprezentowane zostały karty graficzne NVidia z generacji Ampere - póki co, jedynie trzy topowe modele - RTX3070, RTX3080 i RTX3090. Wygląda na to, że RTX3070 w cenie $499 (2359 pln) wbije w podłogę RTX2080Ti oferując jakieś 35% rdzeni CUDA więcej. Widać, że te GPU celują w 4k z wysokim fps (120/144/240 fps), a w przypadku dual RTX3090 - nawet w 8k w 60fps. Przeskok w zasadzie tak samo duży, jak między Maxwellem a Pascalem. Zaprezentowane modele (podane ceny za Founders Edition): - RTX3070 - 5888 rdzeni CUDA, boost clock 1.73 GHz, VRAM - 8 GB GDDR6 256-bit, TDP 220W. Cena: $499 (2359 pln) - RTX3080 - 8704 rdzeni CUDA, boost clock 1.71 GHz, VRAM - 10 GB GDDR6X 320-bit, TDP 320W. Cena: $699 (3279 pln) - RTX3090 - 10496 rdzeni CUDA, boost clock 1.7 GHz, VRAM - 24 GB GDDR6X 384-bit, TDP 350W. Jedyna karta ze wsparciem dla SLI/NVLINK. Cena: $1499 (7029 pln) Domyślnie dla Ampere, do zestawu również rdzenie RT gen2 i rdzenie tensor gen3 (wobec odpowiednio RT gen1 i tensor gen2 w kartach z rodziny Turing) i nowszy dekoder NVDEC (gen5). Więcej informacji na stronie producenta: https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/ Szkoda tylko, że te układy nie otrzymają sterowników pod macOS. Niemniej, skoro NVidia się tak zbroi, to i AMD musi mieć coś solidnego w zanadrzu na ten rok - ciekawe, co pokaże RDNA2 aka Big Navi.
  25. Z przyzwoitych modeli, całkiem dobrym wyborem jest RX5500XT OC produkcji Gigabyte (GV-R55XTOC-8GD - 8 GB GDDR6 128-bit) - dostajesz wydajność RX580 w połączeniu z dość niskim zużyciem energii (TDP 25% niższe od RX580, a faktyczne zużycie prądu mniejsze o połowę), a i można ustawić na niej chłodzenie w tryb półpasywny (jeden z VBIOSów jest skonfigurowany w trybie Quiet, kwestia przełączenia) - wtedy do 40% obciążenia jest całkowicie niesłyszalna. Inny sensowny model to Sapphire Pulse RX5500XT 8 GB. Oba działają bezproblemowo. Jedynym problemem jest tylko dostępność bloków wodnych do RX5500XT, ale zawsze można odezwać się do EKWB - nie wiem jak teraz, ale jeszcze w ubiegłym roku prowadzili akcję, w której wysyłało się do nich GPU, którego nie mieli w bazie, a oni robili skan 3D PCB, następnie projektowali blok i wysyłali jedną sztukę za fatygę za darmo. Co do modeli, do których bloki dostępne są od ręki, polecić mogę zdecydowanie RX5700XT od Asusa, konkretnie ROG-STRIX-RX5700XT-O8G-GAMING - blok od EKWB do tego modelu kosztuje jakieś €140-150.
×
×
  • Create New...

Important Information

By using this site, you agree to our Terms of Use.