Jump to content

Estrax

Members
  • Content Count

    1365
  • Joined

  • Last visited

  • Days Won

    45

Posts posted by Estrax


  1. Pojawiły się odświeżone iMac 27", zwane też iMac 27-inch (2020). Jeśli chodzi o nowości:

    - CPU dziesiątej generacji Intela, kolejno: i5 10500, i5 10600, i7 10700KA, i9 10850KA - modele KA to po prostu gorszej jakości krzem niż w modelach K i KF, kierowane będą głównie do OEMów. Taktowania bazowe na tym samym poziomie, co modele K, jednakże turbo boost już ma mniejszy maksymalny mnożnik (i7 10700KA: 8/16x 3.8-5.0 GHz, gdzie i7 10700K ma 8/16x 3.8-5.1 GHz; w przypadku i9 10850KA jest 10/20x 3.6-5.0 GHz, zaś i9 10850K ma 10/20x 3.6-5.2 GHz). Wszystkie CPU wykorzystane w tych iMacach mają identyczne iGPU (UHD630, 0.35-1.2 GHz).

    - możliwość konfiguracji ze szkłem standardowym i nanostrukturalnym

    - 10 GbE jako opcja

    - w końcu jako GPU wjeżdża RDNA - odpowiednio Radeon Pro 5300 (4 GB GDDR6), Radeon Pro 5500XT (8 GB GDDR6, 24 CU), Radeon Pro 5700 (8 GB GDDR6, 36 CU) i Radeon Pro 5700XT (16 GB GDDR6, 40 CU)

    - cała konstrukcja schudła o 600 gram (8.92 kg aktualnie, wobec 9.54 kg w modelu 2019)

    - kamera 1080p zamiast 720p

    - SSD w podstawie - 256 GB w najtańszym modelu i 512 GB w konfiguracjach powyżej, możliwa konfiguracja z odpowiednio max 2 TB, bądź 8 TB w najwyższym modelu) brak konfiguracji z Fusion Drive

     

    Z minusów, RAM wprawdzie w konfiguracji do 128 GB (4x 32 GB SO-DIMM DDR4), jednak wciąż 2666 MHz.


  2. 2 godziny temu, piker napisał:

    Wydaje mi się, że jeżeli Apple zaproponuje naprawdę tanie komputery (np. Mac Mini za 299 usd) to mogą przekonać sporo niezdecydowanych. Kota w worku, w obecnych cenach, mało kto kupi. 

    Na $299 bym nie liczył - przedział $250-400 to półka cenowa Chromebooków i komputerów z W10S - Apple wciąż stara się pozycjonować jako marka "premium", więc z ich perspektywy bardziej adekwatnym byłoby $499, co przy aktualnej cenie Maca Mini ($799) i kilku cięciach budżetowych (spowodowanych np. wsadzeniem taniego w produkcji ARMowego APU) jest do osiągnięcia.


  3. 35 minut temu, Maidenman napisał:

    No dobra, wszystko pięknie, ale czy dobrze rozumiem że nowy system już nie wspiera platformy Z-97? Bo skoro Z-97 to late 2013 a Big Sur wspiera 2014, to chyba czas na przesiadkę ewentualnie?

    Z97 jest wciąż wspierane - do odpalenia jest zarówno Haswell, jak i Broadwell - ot kwestia posiadania SMBIOSu iMac14,4 lub iMac15,x.


  4. 2 godziny temu, piker napisał:

    Tym, co uważają, że będą masy kart rozszerzeń przypominam, że Apple nie lubi zbytnio otwartej architektury.

    A kto powiedział, że otwartej... wystarczy, że wypuszczą kolejną kartę a'la Afterburner (do której w zasadzie też nie będzie dokumentacji) za jedyne $2000, pod nazwą "akcelerator obliczeniowy Jabłko TimKuk 123abcxyz", która to karta będzie określana jako "karta akceleracyjna PCIe, która odciąża procesor włączając kalkulator" - i po sprawie.


  5. 15 minut temu, 314TeR napisał:

    Ja ogłądałem Kaynote - a czy Wy też oglądaliście uważnie? Ani słowem NIE padło nigdzie określenie architektury ARM - tak jak wcześniej było z Motorolli na PPC a potem na Intela, tak teraz jest tylko określenie "Apple Silicon".

    Owszem, bo nie od dziś wiadomo, że Apple próbuje uciec od ARMów, głównie z racji wysokich opłat licencyjnych. Od 2014 w Apple są co najmniej dwa zespoły R&D pracujące nad ich własną architekturą, nijak niezwiązaną z ARM - z własnego doświadczenia powiem, że zejdzie im co najmniej drugie tyle, zanim efekty ich prac zobaczymy gdziekolwiek.

    17 minut temu, 314TeR napisał:

    @Estrax Ja mam na myśli, że czysty ARM jako sam NIE sprawdzi się w takim Mac Pro jak obecnie, ale też NIE zdziwił bym się, jak procesor X86 np - AMD Threadripper stał się "kooprocesorem" systemu działającego na Applowskim Chipie.

    Owszem, bo do tego to zmierza - "podstawa" będzie na ARM, a reszta to po prostu masa kart rozszerzeń. Takie CPU x86 czy inne FPGA czy ASIC będą po prostu kartami na PCIe (czy pod inny interfejs), tak jak np. karta Afterburner, czy Xeony Phi.


  6. Godzinę temu, wujek_bogdan napisał:

    Nie sądzę, żeby inwestowali nadal w x86. Skoro na konferencji powiedzieli, że migracja ma potrwać 2 lata, to sądzę, że po tym czasie nie będą produkować żadnego sprzętu na x86. Nie wiemy nad czym Apple pracowało przez ostatnie lata. Być może mają już opracowane CPU na ARM, które wydajnością nie odbiegają od x86 i właśnie te CPU będą montować w Makach Pro i Macbookach Pro.

    Nie wiem, co rozumiesz przez:

    31 minut temu, wujek_bogdan napisał:

    CPU na ARM, które wydajnością nie odbiegają od x86 i właśnie te CPU będą montować w Makach Pro i Macbookach Pro.

    jeśli mówisz o szczytowej, chwilowej, iście "benchmarkowej" wydajności, to takowe już mają, w obrębie ograniczonej liczby API systemowych - ale i benchmarki między platformami się różnią, więc wynik np. 5000 pkt na ARM nie jest wynikiem nadającym się do porównania z 5000 pkt na x86, bo to nie te same punkty i nie ta sama skala.

    Jeśli jednak mówisz o wydajności rzeczywistej, to i tak porównujemy tu jabłka (;)) z gruszkami, a wyjaśnienie znajdziesz w mojej poprzedniej odpowiedzi w tym temacie.

     

    19 minut temu, wujek_bogdan napisał:

    Bez możliwości instalacji Windowsa - to na pewno, ale nie ze względu na politykę Apple, ale ze względu na inną architekturę CPU. Jeśli chodzi natomiast o brak możliwości instalacji aplikacji spoza App Store to jestem przekonany, że tego nie zrobią. Nie widzę powodu dla którego zmiana architektury miałaby pociągać za sobą taką decyzję. Taka decyzja spotkałaby się z bardzo ostrą krytyką zaawansowanych użytkowników (sys adminów, programistów, etc), którzy od lat przyzwyczajeni są do instalacji oprogramowania przez Homebrew.

    Przecież rynek takich osób to nawet nie promil użytkowników sprzętu z jabłkiem - stąd Apple nie musi o nich dbać, bo to się po prostu fiskalnie nie opłaca ;) niemniej, Apple od dawna zarabia konkretne pieniądze przez AppStore, stąd tak czy tak będą musieli zapewnić dostępność środowisk programistycznych na ich platformy, a to w zasadzie od razu implikuje możliwość instalacji zewnętrznych bibliotek, aplikacji i skryptów, więc o to bym się nie martwił. Po prostu menedżery paczek takie, jak homebrew zostaną zastąpione przez ich ARMowe odpowiedniki ("homebrew-arm" ;) ). Instalacja Windowsa wciąż będzie możliwa, w końcu istnieje Win10 ARM - po prostu będzie on wyraźnie odstawał wydajnościowo macOSowi, głównie z racji optymalizacji architektury CPU pod jeden konkretny OS.


  7. 5 godzin temu, bogdanh napisał:

    i9000 jest i będzie poza moimi preferencjami. Szczytem będzie _kiedyś_ i7, a obecnie i3 lub i5 + sporo RAM.

    Ale tu nikt nie mówi o i9  na Z370; po prostu aby ruszyć CPU (i3, i5, i7, i9) dziewiątej generacji (tj. modele z numerkiem 9000, np. i3 9100, i5 9400, i7 9700), potrzebujesz zaktualizować UEFI. Z370 domyślnie wspierały i3, i5 i i7 ósmej generacji, tj. modele z numerkiem 8000 (takie, jak i3 8100, i5 8400, i7 8700, etc.).


  8. @314TeR Nie do końca się z Tobą zgodzę. ARMów od lat używa się z powodzeniem w serwerowniach, przy czym zazwyczaj nie jest to sprzęt do wysokowydajnych obliczeń bazujących na CPU, a bardzo często trafiają one do macierzy dyskowych i do akceleratorów korzystających głównie z GPU. Apple nie wprowadza na tym polu rewolucji.

    Przeskok między PPC i x86 to zupełnie inny problem niż przeskok z x86 do ARM, gdyż zarówno x86 jak i PPC projektowane były do tych samych celów (głównie desktopy i długotrwałe obciążenie), a do tej pory nie pojawiły się ARMy projektowane stricte w tym celu - wciąż ich głównym celem jest energooszczędność w środowisku wielu krótkotrwałych obciążeń - stąd taka a nie inna architektura rdzeni, ich ilość, jak i ich aranżacja (m.in. big.LITTLE). Długotrwałe, stałe 100% obciążenie na ARMach aktualnej konstrukcji się kompletnie nie sprawdza - zawodzi cache, w sytuacjach, gdy aplikacja musi korzystać z wielu wątków jednocześnie i każdy jest maksymalnie obciążony, a jest to wciąż codzienność komputerów w zastosowaniach profesjonalnych (w szczególności przy obliczeniach, kodowaniu audio lub video, czy trenowaniu sekwencyjnych modeli NN, przy których GPU na niewiele się zdaje).

    Pełen przeskok z x86 na ARM to co najmniej 2-3 lata, gdyż Apple potrzebuje trochę czasu na przygotowanie nowej architektury ich CPU - ARMy produkowane przez Apple optymalizowane są na poziomie architektury pod ograniczoną ilość mobilnych API systemowych, w przypadku systemów desktopowych nie jest to takie proste, gdyż ilość dostępnych API jest znacznie większa, a nie sądzę, że Apple zacznie produkować układy o fizycznym rozmiarze na poziomie dwukrotnych rozmiarów Threadripperów na TRX40, czy też że Apple magicznie odetnie kompatybilność z aplikacjami z macOS 10 i pozostanie na aplikacjach z iOS. Potrzebne im będzie też kilka nowych ASICów w stylu Afterburner card, by zapewnić odpowiednią wydajność wszędzie tam, gdzie ARM się po prostu nie nadaje. Ponadto, developerzy będą musieli przepisać znaczną część kodu ich aplikacji - tu nie wystarczy kompilacja pod inny target OS - aby cieszyć się przyzwoitą wydajnością na ARMach potrzebne będzie w wielu przypadkach ugryzienie na nowo tematu wielowątkowości.

    Największa szansa na większą ilość montowanych ARMowych chipów i ASICów jest w MacBookach, Macu Mini, oraz w tym budżetowym iMacu - głównie będą zaprzęgane do prostych, specyficznych zadań, tak jak teraz. Nie zgodzę się też z Tobą, że jest to koniec sceny OSx86 - x86 w Macach będzie wciąż istniał, i to będzie mieć się dobrze jeszcze przez lata. Na rynku za to pojawi się więcej dostępnych platform wykorzystujących na jednej mobo zarówno x86, ARMowe CPU, jak i inne ASIC. Ba, w dobie wirtualizacji hardware (w tym ARMów na x86), jestem w stanie powiedzieć, że scena hackintoshowa będzie mieć się nawet lepiej, niż do tej pory.


  9. Jeśli nie jest to bardzo paląca sprawa, to na ten moment bym się wstrzymał, gdyż dużo zależy od tego, czy (a w zasadzie to kiedy) nowe Maczki dostaną Comet Lake - HT mimo wszystko trochę daje (jakieś 40%).

     

    Generalnie, do 2000 pln to na nic mniejszego niż mATX bym się nie napalał, gdyż zarówno budy mITX jak i mobo mITX są drogie. Kolejny minus płyt mITX to jedynie dwa sloty na RAM.

    Niemniej, na ten moment do 2k pln spokojnie wyrwiesz na nówkach coś w stylu i3 9100 (lub i5 9400) + mobo B360 mATX + 16 GB RAM + SSD 256 GB M.2 NVMe + zasilacz 500W 80 Plus Gold (modularny, jakiś beQuiet, SPC czy tani Seasonic) + jakaś obudowa. Ba, może nawet jakąś mobo na Z390 uda Ci się trafić. Max, do czego zrobisz tu upgrade to i9 9900k, RAM spokojnie wrzucisz i 64 GB (a nawet i 128 GB, jeśli tylko poszperasz za kościami 32 GB), a i zmieści się też normalna GPU, jeśli tylko potrzeba Ci coś więcej, niż iGPU.


  10. Miałem ten sprzęt w rękach - jako mały komputer do pracy pod linuxem czy windowsem jest okej, o tyle pod macOS jest to kompletnie nietrafiony zakup - pokładowe WiFi jest nie do ruszenia, a i o wspomnianej "rozbudowie" to można tu tylko pomarzyć. Wymienić możesz w porywach dysk (M.2 NVMe 2280) i RAM (2x SO-DIMM DDR4). Max, jakie tu wsadzisz, to 64 GB. CPU jak i WiFi to wlutowane BGA, więc w zasadzie o wymianie możesz zapomnieć, bo nie będzie ani łatwa, ani tania (o dostępności innych CPU na FCBGA1528 nie wspominając). dGPU do NUCa nie wsadzisz, pozostaje jedynie eGPU na TB3.


  11. 15 godzin temu, NX44 napisał:

    @Estrax Wykorzystanie zagnieżdżonej wirtualizacji jest mi niezbędne głównie nauki i testów. Na początek do Hyper-V, bo zaczynam kurs 70-740. Później planowałem vSphere i teraz wiem, że jeszcze dołożę wymieniony wyżej Proxmox.

    No to nie ma co bawić się w macOS, szczególnie, że na dłuższą metę pewnie przyda Ci się też pcie passthrough, a bez wsparcia dla VT-d możesz o tym zapomnieć. Skoro to ma być do nauki, to zakup poleasingowego desktopa na Ivy Bridge czy Haswellu będzie strzałem w dziesiątkę - coś pokroju HP 8300, Dell 7010, czy Lenovo M92/M92p w dobrym stanie wyrwiesz za góra 300 pln, dołożenie do tego RAMu (DDR3) do 16 GB to grosze, podobnie z SSD. W efekcie, poniżej 500 pln dostajesz konfigurację, na której Hyper-V, Proxmox czy ESXi działać będą znacznie sprawniej, niż pod macOS - w końcu jeden poziom bliżej do bare metal.

    15 godzin temu, NX44 napisał:

    Obecnie z różnych powodów (nie chodzi tylko o wirtualizację) skaczę między Windows i Linux. Tak sobie wymyśliłem, że dzięki Apple nie będę już miał dual boot. Wszytko mam już obczajone, pozostała tylko kwestia nested VT-x.

    Jeśli na hoście macOS chcesz wirtualizować cokolwiek innego niż macOS, to o nested VT-x nie masz co myśleć. Częściowy support dla fake-nested-VT-x był w virtualboxie przez chwilę, ale został wycięty w wersji 6.1. Są w zasadzie też checkboxy w Parallels i VMWare, ale nie działa to w pełni (spróbuj wewnątrz zwirtualizowanego środowiska postawić kolejny hypervisor, to zobaczysz co z tą opcją jest nie tak ;)).

    15 godzin temu, NX44 napisał:

    Co konkretnie masz na myśli mówiąc o wadach?

    Soft do wirtualizacji jest mocno okrojony (w stosunku do linuxowych odpowiedników), a i wiele funkcji nie działa jak trzeba (EPT, MMU, problemy z zarządzaniem pamięcią, sypiące się VMki z error code informującym o nieprawidłowo działającej wirtualizacji).

    4 minuty temu, NX44 napisał:

    Z kolei tu https://kb.parallels.com/116239 piszą, że wirtualizacja zagnieżdżona jest obsługiwana :o więc już trochę zgłupiałem.

    Opcja fizycznie w Parallels jest, ale to, jak ona w praktyce działa (a w zasadzie to dlaczego nie działa), to wręcz temat na całą książkę.


  12. @NX44 Podstawowa kwestia, do czego ma to służyć? Nauka podstaw wirtualizacji, jakieś małe konfiguracje, czy coś na większą skalę? W jakim celu jest Ci potrzebny akurat nested VT-x? Ktoś w video tutorialu tak Ci zasugerował, czy masz faktyczną potrzebę posiadania jego i wiesz konkretnie dlaczego jest Ci on potrzebny?

     

    Nie zrozum mnie źle, ale po prostu na ten moment wygląda mi to na sytuację, którą można by było opisać wyrażeniem "zamienił stryjek siekierkę na kijek". Prawda jest taka, że macOS i wirtualizacja to nie jest najlepsze połączenie, jeśli myślisz o tym na poważnie. Ogromny procent narzędzi pod macOS, które służą do wirtualizacji i tematów wokół jest okrojonych (w stosunku do ich linuxowych odpowiedników). macOS do pracy jako SRE/DevOps/SysOp nadaje się tylko jako terminal z ssh. Reszta to po prostu masa użerania się z czymś, co na dowolnym linuxie działa bez jakichkolwiek problemów. W przypadku nested VT-x, pełne jego wsparcie masz tylko, gdy odpalasz macOS jako zwirtualizowany OS na hoście macOS. Wirtualizując jakikolwiek inny OS pod macOS, o wsparciu dla nested VT-x możesz zapomnieć.

     

    A co do Parallels vs VMware, jeśli Twoje zastosowanie to ot odpalenie sobie Windowsa, bo brakuje Ci jakiejś aplikacji pod macOS, to Parallels się sprawdzi - ba, będzie on ciut sprawniej działać od Fusion czy innej konkurencji (np. w postaci virtualboxa). Do czegokolwiek bardziej zaawansowanego oba będą jednakowo beznadziejne, gdyż współdzielą znakomitą większość wad w temacie wirtualizacji.


  13. Godzinę temu, v-on napisał:

    W VMware jest takie ustawienie, ale nie testowałem czy działa. Natomiast jak przez mgłę przypominam sobie, że w biosie musiałem wyłączyć VT-x bo inaczej mi nie startował macOS. Ale nie mogę sprawdzić, bo mam tylko klawiaturę aplowską i nie wejdę do BIOSu :(

    Problematyczne mogło być raczej VT-d (virtualization for directed I/O), a nie VT-x, czyli zwykła wirtualizacja.

     

    Co do nested VT-x, na macOS nie działa to w pełni (w pełni działa wyłącznie, gdy wirtualizujesz macOS), za to na windowsie działa normalnie, tylko trzeba mieć Win10 Pro, Edu lub Enterprise.


  14. 4 godziny temu, arnon napisał:

    Nie o to mi chodziło. Microsoft wydał Windows 10 i nie aktualizuje go do "nowszych numerków" - 11, 12 itp.

    Nie mogę się z Tobą zgodzić - polityka Microsoftu w kwestii aktualizacji jest taka sama, jak w przypadku Apple - dlatego w przypadku Win10 masz kolejne wydania/wersje:

    - 1507 i 1511 (Threshold 1-2, buildy 10240 i 10586),

    - 1607,  1703, 1709, 1803, 1809 (Redstone 1-5, buildy 14393, 15063, 16299, 17134, 17763),

    - 1903 (19H1, build 18362),

    - 1909 (19H2, build 18363),

    - 2004 (20H1, build 19041).

     

    Sam fakt, że w przypadku Windowsa mniej jest aż tak bezpośrednio widocznych zmian na poziomie UI (bądź też są one znacznie mniej promowane przez Microsoft, szczególnie w stosunku do tego, co robi Apple ze swoimi systemami) nic nie zmienia. Tak samo jak przy kolejnych wersjach macOS, przy pewnych buildach Windowsa wylatuje wspierany sprzęt i nie otrzymuje on już później wszystkich aktualizacji.


  15. Właśnie Apple wprowadziło do oferty odświeżone MacBooki Pro 13. Z ważniejszych zmian, tak jak przy MBP16:

    - powrót do klawiatury nożycowej,

    - fizyczny przycisk escape,

    - oddzielony przycisk włączania.

     

    Droższe modele MBP13 (te od $1799/9899 PLN w górę) mają na pokładzie nowe CPU Intela (10 generacja; odpowiednio i5 4/8x 2.0-3.8 GHz, 6 MB L3 lub i7 4/8x 2.3-4.1 GHz, 8 MB L3; oba z Iris Plus z 64 CU) i 16 GB RAM w standardzie, z opcją wpakowania 32 GB (LPDDR4X 3733). Niestety brak jeszcze tych modeli CPU w Intelowym ARKu.

     

    Zapowiada się całkiem nieźle, chociaż z drugiej strony szkoda, że nie pojawiła się opcja z 6c/12t ULV. Co sądzicie o tym odświeżonym asortymencie?

×
×
  • Create New...

Important Information

By using this site, you agree to our Terms of Use.