wtorek, 26 stycznia 2010

Dlaczego ekran Apple iMac jest taki śliczny?

Marketingowe podejście do komputera osobistego Apple nurtuje mnie od dawna. Ostatnio zastanawiałem się, co sprawia, że ekrany z MacOS w sklepach iSpot tak przyciągają wzrok. Zerknąłem w specyfikację techniczną i zauważyłem, że obok doskonałego wzornictwa przemysłowego, ergonomii i design samego GUI, iMac posiada zintegrowany wyświetlacz o następujących charakterystykach:
· 21,5" lub 27" LCD z podświetleniem LED i błyszczącą powłoką (eksponującą kolory)
· matryce S-IPS
· rozdzielczość natywną 1920x1080 lub 2560x1440
· jasność 250 lub 275 nitów
Dla porównania wyposażenie PCta w podobny monitor to koszt rzędu:
· 23" IPS 1920x1200: NEC MultiSync EA231WMi, ok. 1400 zł brutto
· 30" S-IPS 2560x1600: Dell 3008WFP, ok. 6000 zł brutto
Kto ma taki monitor podłączony do komputera PC w domu?
Nic dziwnego, że obraz Apple iMac to zupełnie inna jakość w porównaniu z powszechnie używanymi monitorami LCD TFT CCFL z matrycami typu TN.

[UDPATE]
Jak donosi DailyTech tutaj, opisane powyżej komputery miewają wady w postaci zżółkniętego ekranu. Apple jak dotąd nie znalazł remedium...

[UPDATE 2010-02-28]
DailiTech pisze, że Apple oznajmił właśnie Klientom  znalezienie remedium na zżółknięte ekrany oraz program ich wymiany. 

Test odczytu i zapisu w warstwie systemu plików

Zastanawialiście się kiedyś jak rzetelnie przetestować wydajność serwer plików SMB/CIFS z poziomu klienta sieciowego? Albo czy nurtował Was kiedyś problem narzutów związanych z obsługa systemu plików oraz buforów systemowych? .. bo mnie owszem.
Napotkałem w sieci narzedzie IOzone, które dało mi odpowiedź na dręczące mnie pytania.
Zdecydowanie je polecam inżynierom, ale radzę zapoznać się z instrukcją przygotowaną przez autorów.
Proponuję zacząć testy od składni: "iozone.exe -a -f c:\test -g 16384"
Warto pamiętać, że test nie omija mechanizmów cache'owania ani opóźnionego zapisu - jest do bólu realistyczny, co utrudnia interpretację wyników.

niedziela, 24 stycznia 2010

Problemy w sieci HAN (Home Area Network)

Jestem szczęśliwym użytkownikiem dysku Western Digital My Book World Edition 1TB, podłączonego kablem UTP do przełącznika w urządzeniu sieciowym EDIMAX 3G-6200Wg. Zazwyczaj sięgam do niego poprzez kartę sieciową Intel 5100 AGN, zintegrowaną w moim laptopie, działającą w 802.11g, w trybie 54Mbps przy maksymalnym zasięgu (3 metry w lini widzenia).
Ostatnio zauważyłem, że kopiowanie pomiędzy laptopem a dyskiem sieciowym nawet kilkugigowych obrazów ISO jest ograniczone do 2,7MBps (~22Mbps). Postanowiłem rozpoznać problem.
Podłączenie laptopa kablem UTP do przełącznika szybko pokazała ograniczenie do ~12MBps (~100Mbps) - czyli zgodnie z maksymalnymi możliwościami FastEthernet.
Trudno powiedzieć, czy problemem jest przełączanie pakietów LAN-WLAN w urządzeniu sieciowym, czy też słaba implementacja 802.11g w nim. Wiem jedno - kopiowanie ISO DVD 4,3GB trwa ok. 30 minut...

Wyczytałem w sieci tutaj, że mój dysk twardy "wyciąga" 11-17MBps tak więc w obecnej rzeczywistości WiFi 802.11n oraz GigabitEthernet mają znaczenie nawet w domowym HAN :-)

Kupujemy laptopa

Na co należy zwrócić uwagę w przypadku kupowania nowego laptopa?
Rzecz jasna wszystko zależy od indywidualnych potrzeb, jakie ma użytkownik. Są jednak takie charakterystyki, które są standardowe i te, które są wyznacznikiem postępu technologicznego, a można je zwykle postrzegać w kategoriach zwiększonej funkcjonalności. Postaram się opisać kilka aspetków technicznych na tle obecnie dostępnych cech oraz tych, które mają niebawem zagościć na półkach sklepowych.

0. Cena
Postrzegam laptopy w następujacych przedziałach cenowych w zł brutto:
· do 1800 - netbooki, laptopy poniżej "poziomu higieny"
· 1800-2800 - rozsądne maszyny o ograniczonych możliwościach (kompromisy)
· 2800-4000 - w tych pieniądzach zazwyczaj można kupić dobrą maszynę, ale trzeba uważać
· 4000-6500 - drogie, ale posiadające unikalne cechy (np. matryce S-IPS, dyski SSD i inne)
· od 6500 - tylko do zastosowań specjalnych i luksusowe
Podkreślam, że to tylko mój punkt widzenia - można kupić laptopy płacąc za nie więcej, niż w/w. Jednak upieram się przy swoim punkcie widzenia - tyle to powinno kosztować.

1. Wymiary i masa
Subiektywnie rozpoznaję następujące przedziały gabarytowe:
· 11-12", do 1,5kg - netbooki i ultramobilne [trudne w użytkowaniu, łatwe w noszeniu]
· 13-14,1", do 2,5kg - mobilne laptopy [balans pomiędzy ergonomią a mobilnością]
· 14,4-15,6", do 3kg - laptopy uniwersalne [komfortowe i nieco uciążliwe w noszeniu]
· 15,6-19", od 2,5kg - laptopy stacjonarne (hic!) [powinny zostać w domu]
Warto uświadomić sobie czego potrzebujemy i jak często będziemy przemieszczać się z komputerem.

2. Procesor, pamięć, układy grafiki
Przed zakupem warto obejrzeć przegląd wydajności procesorów. Obecnie procesory Intel Core i5 Mobile to złoty strzał, a bardziej wymagający użytkownicy sięgną zapewne po procesory z rodziny Intel Core i7 Mobile. Jednak pamiętajcie o starych dobrych Intel Core2 Duo z serii 8xxx i 9xxx. Ze stajni AMD warto się zainteresować tylko platformami opartymi na procesorach z serii Turion II.
W zakresie pamięci RAM czas przesiąść się na co najmniej 2GB pamięci DDR3 (ze względu na oszczędność energii). Trzeba się upewnić, że pamięci pracują w trybie dwukanałowym.
Zintegrowany układ graficzny w procesorach Intela - HD graphics sprawił, że nie warto kupować laptopów o dedykowanych kartach graficznych o wydajności niższej niż:
- AMD Mobility Radeon 3470/4330/5430
- nVidia GeForce 8400M/9300M/105M/305M
(przejrzyj tutaj pełne zestawienie)
Warto upewnić się, że system operacyjny i sterowniki będą pozwalały na przełączenie się z karty graficznej AMD/nVidia na wbudowaną kartę na czas normalnej pracy bez akcelaracji 3D.

3. Wyświetlacz i złącza grafiki
Mimo zmniejszonego gamutu kolorów, polecam matryce z podświetleniem LED zamiast CCFL, ze względu na podwyższoną trwałość, mniejsze wymiary oraz zmniejszony pobór energii. Matryca powinna być pokryta matową powłoką.
Złącze HDMI staje się standardem w multimedialnych modelach laptopów. Jednak biznesowi odbiorcy powinni zwrócić uwagę na obecność VGA DE-15 (producenci rzutników wciąż są odporni na DVI, DisplayPort, a nawet HDMI).
Warto zwrócić uwagę na gęstość matrycy, aby nie przekraczała 120ppi (np. 1366x768 przy 13,3 cali daje 118ppi), aby uniknąć problemów z czytelnością tych elementów, które są odporne na regulowanie bazowej rozdzielczości ekranowej (polecam przewodnik tutaj). Nie dotyczy to osób celowo szukających wysokich gęstości.

4. Dyski twarde i napędy optyczne
Niestety dyski SSD o pojemnościach przekraczających 100GB są wciąż drogie i sytuacja ta raczej nie zmieni się w najbliższych miesiącach. Tylko osoby oszczędnie korzystające z pamięci masowej mogą pozwolić sobie na 50-64GB w rozsądnej cenie.
Tak więc pozostają nam dyski tradycyjne - tutaj polecam z własnych doświadczeń pojemności >250GB przy 5400 obr./min.
Proponuję rozważyć rezygnację z napędu wbudowanego na rzecz czytnika typu slim na USB (np. GP8LU10). Obecnie napędy umożliwiające odczyt płyt BlueRay i zapis płyt DVD (tzw. combo) są względnie drogie, więc w najbliższym czasie nalezy spodziewać się utrzymania standardowych napędów DVDRW.

5. Komunikacja
Korzyści płynące z zastosowania kart WiFi 802.11n są odczuwalne nawet przy pracy tylko w paśmie 2,4GHz (patrz tutaj) - już czas kupować laptopy tylko z 802.11n.
Interfejs Bluetooth v2.x+EDR jest już standardem i nie należy decydować się na urządzenia bez tego interfejsu.
Proponuję też zapomnieć już o kartach sieciowych FastEthernet na rzecz 1000BaseT (GigabitEthernet).
Przy zakupie nowego laptopa warto rozważyć zakup karty WWAN ze zintegrowanym modemem GPRS/EDGE/UMTS/HSPA (czasem również z GPS) zamiast używać modemów w postaci kart ExpressCard lub USB (łatwo uszkodzić) - współczesne urządzenia mają już odpowienie anteny GSM zintegrowane w obudowie.

6. Interfejsy
W komputerach osobistych królują akcesoria podłączane do portów USB. Z punktu widzenia użyteczności namawiam na co najmniej: 2*USB3 + 2*USB2 lub 1*eSATA + 3*USB2.
Niestety zarówno Intel, jak i AMD ociągają się z implementacją USB3, więc do celów korzystania z zewnętrznych dysków twardych warto mieć na zewnąrz obudowy złącze eSATA.
Użytkownicy sprzętu audio-wideo powinni także wymagać portu FireWire 800.

7. Multimedia
Czytnik kart SD/SDHC to podstawa, jednak warto rozejrzeć się za wsparciem SDXC.
Złącza mini-jack dla słuchawek i mikrofonu również są obowiązkowe, jednak audiofile powinni pytać o wyjście SPDIF, aby cieszyć się zewnętrznym dekoderem dźwięku.
Warto zaznaczyć, że obecnie zintegrowana kamera i mikrofon to konieczność, ale należy zapytać o rozdzielczości HD (720p), bo już teraz można to wykorzystać w Skype.
Warto też rozejrzeć za kompletem okularów i oprogramowania do wizualizacji 3D (stereoskopia naprzemienna) - zwykle dołączane do karty graficznej.

8. System operacyjny
Większość użytkowników domowych powinna decydować się na MS Windows 7 Home Premium PL 64bit, a Ci biznesowi na wersję Professional. Macowcy nie muszą wybierać - dostają gotowy produkt - laptop z jedynym słusznym systemem. Poszukiwacze OpenSource zapewne posmakują aktuanego Ubuntu 9.10, Fedora 12 lub inną ulubioną dystrybucję.
Podsumowując nadszedł już czas na 64bitowe wersje systemów operacyjnych oraz pożegnanie zarówno Windows XP, jak i Vista.

9. Akcesoria
Laptopy nie nadają się do ergonomicznej pracy z racji swych wymiarów. Stąd też zalecam stosowanie podstawek pod laptop, klawiaturę i mysz w miejscu, gdzie najczęściej laptop jest używany. Osobiście polecam SWEEX DS023, której używam na codzień.
Gracze i "rysownicy" na pewno chcieliby korzystać z myszy również poza biurem/domem. Polecam optyczne lub laserowe myszy bezprzewodowe, wspierające Bluetooth (any nie zajmować portów USB). Dobrym przykładem są myszy Microsoft.

czwartek, 21 stycznia 2010

Sieciowa konwergencja w obudowach blade

Miło jest mi zakomunikować, że w IBM BladeCenter H jest już możliwe wirtualizowanie połączeń sieciowych z wykorzystaniem konwergencji 10GE. Taka konfiguracja wymaga zastostosowania dwuportowych kart sieciowych QLogic 2-port 10 Gb Converged Network Adapter (CFFh) oraz dwóch przełączników: BNT Virtual Fabric 10 Gb Switch Module dla połączeń ethernet oraz QLogic Virtual Fabric Extension Module dla połączeń Fibre Channel. Wewnętrznie obudowa korzysta z połączeń 10GBase-KR.

Stwarza to możliwość korzystania jednocześnie z dobrodziejstw integracji okablowania w obudowie kasetowej i ze zunifikowanego okablowania 10GE. Teraz do szczęścia brakuje nam tylko sześcio- i ośmio-rdzeniowych procesorów Intel Nahalem.

wtorek, 19 stycznia 2010

Atrakcyjny materiał nt. projektowania interfejsu użytkownika

Dzisiaj kolega (Dziękuję Pawle) wskazał mi książkę dostępną w Internecie, traktującą o procesie projektowania interfejsu użytkownika aplikacji na przykładzie stron web.
Gorąco polecam - już z niej korzystam, a dostępna jest tutaj: Web Style Guide Edycja Trzecia

Ile prądu zużywa dysk twardy 2,5"?

Postanowiłem sprawdzić na przykładzie 2,5" dysków, na ile różni się zużycie energii pomiędzy następującymi, przykładowymi rodzinami produktów:
Seagate Momentus 5400.6 SATA - 0,7W idle, 1,4W odczyt, 1,8W zapis, 160GB(~165zł)-500GB,
Seagate Momentus 7200.4 SATA - 0,2W idle, 2,1W odczyt, 2,2W zapis, 120GB(~210zł)-500GB,
Kingston SSDNow vSeries SATA - 0,5W idle, 2,5W odczyt, 2,5W zapis, 64GB-128GB(~765zł).
Oto wnioski z tego krótkiego przeglądu w umownie dostępnym zasięgu cenowym (<1000zł): a) dyski magnetyczne i SSD mają podobne zużycie energii b) średnia cena GB jest w przypadku SSD 6x droższa niż dla dysku 5400obr/min i 3x niż dla 7200obr/min c) przewaga dysków SSD w zakresie czasu dostępu i odporności na przeciążenia jest b.duża Uważam, że z wyjątkiem sytuacji, w których aspekt z pkt. c) ma decydujące znaczenie - tradycyjne magnetyczne dyski twarde pozostają najlepszym wyborem. Sytuację tę mogą zmienić innowacje w zakresie procesów produkcyjnych Flash oraz rozwój kontrolerów.

[UPDATE 2012-04-12]
XbitLabs donosi, że WD wprowadza do sprzedaży oszczędne jedno-talerzowe dyski 2,5" o wysokości 7mm WD Scorpio Blue LPVT (250/320/500GB), których pobór mocy wynosi: 0,55W idle, 1,4W odczyt/zapis.
Pomiary najnowszych SSD znajdziecie na AnandTech np. tutaj, gdzie Intel SSD 520 240GB (oparty na SandForce 2xxx) uzyskał wyniki: 0,66W idle, 3,65W zapis.

Efektywność energetyczna serwerów i o platformach słów parę

Anandtech opublikował interesujący artykuł traktujący o zużyciu energii platform serwerowych w odniesieniu do dostępnej mocy obliczeniowej stałoprzecinkowej (2,4,8 wątków). Testy przeprowadzono pod MS Windows Server 2008 R2 x64 przy ustawieniach opcji planów zasilania Performance i Balanced obciążając system aplikacją Fritzmark 4.2.
Oto wnioski dla przetestowanych procesorów:
a) AMD Opteron należy stosować plan "Performace"
b) Intel X34xx (95W) - warto pokusić się o "Balanced" (podobnie, jak W35xx oraz rodzina 55xx)
c) Intel L34xx (45W) nie ma łatwej odpowiedzi
Z niecierpliwością czekam na wynik testu przy użyciu MS SQL Server 2008 R2 (bardziej realny).

Polecam także ciekawy artykuł na ten temat na łamach NetWorld tutaj.

Korzystając z okazji, daję następującą rekomendację platform serwerowych, wychodząc od ich procesorów:
Namawiam na:
- Intel Xeon L/E/X-55xx, L/X-34xx
- AMD Opteron 84xx
Gdy tanio - możnaby kupić:
- Intel Xeon W-35xx, L/E/X-54xx lub 53xx
- AMD Opteron 24xx, 13xx, 23xx, 83xx
Zdecydowanie odradzam:
- Intel Xeon L/E/X-51xx i 50xx, L/E/X-7xxx
- AMD Opteron 12xx, 22xx, 82xx

Podsumowując, obecnie w przedziale 4-8 rdzeni warto kupować platformy z procesorami opartymi o Intel Nahalem, natomiast w przypadku skali 8-24 rdzeni ukłon należy się ostatniej generacji AMD Opteron (6 rdzeni na procesor).
Sytuacja w segmencie serwerów z 4 podstawkami zmieni się jednak gwałtownie po wejściu na rynek procesorów Intel Nahalem EX (a to już w tym roku).

wtorek, 12 stycznia 2010

Dysk 2TB w domu

Miło jest mi donieść, że technologia pozwala już na swobodną eksploatację dysków twardych o pojemności 2TB i prędkości obrotowej 7200 obr./min. z interfejsem SATA w każdy komputerze domowym.
Zgodnie z wynikami testów XbitLabs najatrakcyjniejsze wydają się być dyski Western Digital.

niedziela, 10 stycznia 2010

Wideokonferencje w każdym telewizorze?

Na targach CES 2010 główną nagrodę dla produktu zdobył telewizor Panasonic Viera HD TC-P50 VT25 (PDP) - patrz komunikat prasowy producenta.
Ten "wszystko-mający" telewizor posiada wyróżnia się obsługą stereoskopii naprzemiennej, wysokim kontrastem oraz czymś wdług mnie naprawdę wyjątkowym: na liście opcji obok interfejsu WiFi (via USB) znajduje się kamera ze zintegrowanym mikrofonem. Tak doposażony telewizor jest w stanie zamienić się w wideokonferencyjny węzeł Skype.
Czy wkrótce będziemy rozmawiać ze znajomymi na Wyspach używając telewizora?
Takie rozwiązanie jest potencjalnie tak łatwe w użyciu, że wg mnie jest skazane na sukces.
Kolejnym krokiem powinno być integrowanie kamer i mikrofonów w telewizorach oraz umieszczanie interfejsów WiFi.

piątek, 8 stycznia 2010

Targi CES 2010 w Las Vegas

Jak co roku w Las Vegas, w dniach 7-10 stycznia odbywają się targi elektroniki użytkowej. Główne serwisy technologiczne na siecie relacjonują piętrzące się premiery nowych produktów oraz opisy zapowiadanych nowych technolgii czy rozwiązań. Polecam dedykowany serwis CNET.
Trudno wymienić najważniejsze premiery, ale postaram się wypunktować istotne trendy i wnioski, jawiące się po przeglądzie prezentacji z targów:
1. Branża intensywnie poszukuje idealnej formuły urządzeń przenośnych, tymczasem dotychczas nakreślone segmenty przenikają się. Nic nie wskazuje na to, że rok 2010 przyniesie przełom w tym zakresie, choć zobaczymy wiele interesujących urządzeń (np. urządzenia oparte na Intel Pine Trail czy nVidia Tegra2).
2. Wiele wskazuje na to, że ten rok przyniesie nam rozwiązania z zakresu domowej rozrywki, które zyskają powszechną akceptację, dzięki niskim cenom i odpowiedniej używalności. Podejrzewam, że dekodery / odtwarzacze / multimedialne nettopy wyewoluują do postaci modułów sieciowych telewizorów LCD/PDP lub elementów systemów nagłośnienia.
3. Wbrew wcześniejszym prognozom rynek graczy nadal pozostaje podzielony pomiędzy konsole a komputery osobiste (PC), a rynek kart graficznych z akceleracją 3D (ATI Radeon 5800, nVidia GeForce GT 240, Lucid Hydra) wciąż stymuluje intensywny rozwój technologii wizualizacji w czasie rzeczywistym (DirectX 11, OpenCL, PhysX).
4. Myślę, że wkrótce doczekamy się szerszej akceptacji koncepcji pracy z ekranami dotykowymi (m.in. dzięki MultiTouch w MS Windows 7), a prezentowane alternatywne manipulatory pozwolą nam wyjść poza klawiaturę i mysz czy głaskadełko (np. Microsoft Natal).
5. Trwa ewolucja w magistralach platformy PC, a niezbędnymi interfejsami w najbliższym czasie będą USB 3.0, WiFi 802.11n, HDMI lub DisplayPort i 1000BaseT.
6. Kilka ewolucyjnych zmian w platformach PC daje mi nadzieję na tańsze i wydajne komputery osobiste stacjonarne i przenośne (m.in. procesory ze zintegrowanym układem graficznym, matryce LCD z podświetleniem LED, MS Windows 7 Starter, wprowadzenie pamięci GDDR5 w kartach graficznych, powszechne użycie pamięci DDR3, rozwój kontrolerów SSD, rezygnacja z tradycyjnych interfejsów)

czwartek, 7 stycznia 2010

Jak obsługiwać 10 tys. sesji jednocześnie?

Odpowiedź brzmi - "To zależy jakich sesji", rzecz jasna. Jednak Igor Sysoev postanowił napisać serwer HTTP adresujący kwestie serwowania treści Web oraz poczty elektronicznej w takiej skali obciążenia przy wykorzystaniu minimalnych zasobów serwera. Tak powstał projekt NGINX (czytaj engine x). Polecam dokumentację w języku polskim.
To darmowe rozwiązanie o otwartym kodzie źródłowym jest najczęściej wykorzystywane do budowy dedykowanego węzła zdejmującego obciążenie z właściwych serwerów zawartości (HTTP, POP3, IMAP), czyli:
- HTTP reverse proxy (buforuje treści i podaje je użytkownikom ograniczając ruch na serwerze Web),
- SSL/TLS session termination (stanowi punkt końcowy szyfrowanej sesji z przeglądarki użytkownika, zdejmując obowiązki obsługi szyfrowanego ruchu z serwera Web),
- Load balancer (równomiernie rozkłada obciążenie sesjami użytkowników farmę serwerów treści),
- Lightweight HTTP server (serwuje statyczną zawartość Web).
NGINX cechuje szokująca wręcz efektywność działania oraz bardzo przewidywalna przestrzeń skalowania. Polecam porównanie obciążeń NGiNX vs. Apache.
Warto pamiętać, że jest też dostępna alternatywa w postaci Lighthttpd, który posiada bardzo zbliżone cechy do NGINX, ale posiada szersze wsparcie środowiska twórców.

środa, 6 stycznia 2010

AV na MS Windows Server?

Już za czasów administracji maszynami MS Windows NT Server niejednokrotnie biłem się z myślami, czy zalecać Klientom instalację systemów antywirusowych w środowiskach produkcyjnych. zczególnie kontrowersyjne w owym czasie było koegzystowanie usług skanowaia w czasie rzeczywistym z czułymi na wydłużenie czasu realziacji operacji dyskowych aplikacjami i bazami danych.
Wiele się zmieniło od tamtego czasu zarówno z punkt widzenia samej rodziny produktów MS Windows Server, systemów ochrony przez szkodliwym oprogramowaniem (m.in. wirusami), jak i samych zagrożeń.
Postanowiłem sprawdzić, jak zapatruje się na to producent Windows Server...
Odnalazłem na Technet następujące artykuły:
- Skanowanie w poszukiwaniu wirusów na kontrolerach domeny
- Wskazówki co do wyboru systemu antywiroswego dla maszyn goszczących baz danych SQL Server
- Testowanie współpracy systemów antywirusowych z maszynami goszczącymi usługi replikacji DFS (Distributed File System)
Wniosek:
Tak, należy objąć ochroną antywirusową wszystkie serwery pracujące w ramach jednego środowiska, używając takiego samego silnika ochorny i sygnatur, poprzedzając to wnikliwymi testami oraz wykluczając z operacji skanowania foldery, w których pracują kluczowe usługi serwererowe.
Warto też zauważyć, że Microsoft zaleca używanie tylko tych systemów ochrony przed szkodliwym oprogramowaniem, które przeszły odpowiednią kwalifikację i zostały opublikowane w Windows Server Catalog. (obecnie tylko Kaspersky i TrendMicro)

poniedziałek, 4 stycznia 2010

Procesory Intel i5/i3 ze zintegrowanym układem graficznym

Intel wprowadzi do sprzedaży pierwsze w historii x86 procesory ze zintegrowanym układem graficznym. Oficjalna premiera ma mieć miejsce w czwartek, ale już dzisiaj m.in. serwisy DailyTech, AnandTech, XbitLabs przedstawiły nam szczegóły techniczne.
Są to pierwsze procesory posiadające obok procesora, kontrolera pamięci RAM także układ graficzny na tym samym podkładzie, przeznaczonym do montażu w socket 1156. Do wykorzystania zintegrowanego układu graficznego Intel HD (nieco ulepszona GMA X4500HD), konieczne jest wykorzystanie płyty głównej ze specjalnym zestawem układów.
O ile w zakresie komputerów stacjonarnych prawdopodobnie tylko dolny segment premium je wykorzysta, to w głównym segmencie komputerów przenośnych (laptopy) będzie to przełom w zakresie wydajności. Te rozwiązania zintegrowane są wartą uwagi alternatywą dla rozwiązań Core2 Duo i słabszych Core2 Quad, ale stanowią krok wstecz względem Core i5 i i7.
Ta premiera niestety zawiodła mnie pod kilkoma względami:
1. Ceny tych układów są zaskakująco wysokie
2. Kontroler pamięci trafił do układu z kartą graficzną, co istotnie zwiększyło opóźnienia w dostępie do pamięci RAM (najważniejszy atut procesorów z rodziny i7, i5 - Nahalem i Westmere)
3. Rdzeń graficzny to "tylko" podrasowane GMA (projekt Larabee odłożono w niekreśloną przyszłość)
4. Przez dłuższy czas nie zobaczymy nic innego od Intela w tym segmencie

niedziela, 3 stycznia 2010

Rok 2010 upłynie nam pod znakiem FCoE

Obok powodującego ogromne zamieszanie na rynku konwergentego przełącznika Cisco Nexus 5000 nieuchronnie powstawał jego mocniejszy konkurent w postaci Brocade 8000. W 2009 roku główni gracze na rynku zorientowali się, że alians Cisco i EMC stworzył rozwiązania pozwalające na budowanie tańszych i bardziej wydajnych rozwiązań (w skali powyżej 10 serwerów), dzięki zastosowaniu CEE oraz konwergentnego okablowania światłowodowego.
Dzisiaj zauważyłem, że IBM i HP wprowadziły do swojej oferty OEMowe analogi produktu flagowego Brocade:
- HP StorageWorks Converged Network Switches
- IBM Converged Switch B32
Postaram się sprawdzić, czy po nałożeniu marż HP/IBM konwergencja nadal się opłaca. Dam znać, jak skończę porównanie.
UPDATE
Wykonałem orientacyjną symulację zakupu dwóch przełączników konwergetnych na około 20 portów 10GE i co najmniej 4 porty FC. Oparłem się o ceny orientacyjne z PC Mall. Ceny dla użytkowników końcowych rozwiązań Cisco, Brocade, HP i IBM za taką parę oscylują w okolicach 0,5 mln zł brutto. Potencjalnie para Brocade 8000 może okazać się tańsza o około 30% od konkurencji (tak wynika zmoich szacunków), ale wymaga to jeszcze weryfikacji konkretnej konfiguracji u polskich dystrybutorów.

sobota, 2 stycznia 2010

Idealna płyta główna

Od co najmniej 10 lat śledzę w miarę możliwości pojawiające się coraz to nowe modele płyt głównych (a są ich setki, a może nawet tysiące). Choć wiele się zmieniło, to nadal nie mogę się zdecydować na zakup tej jedynej, płyty wokół której zbudowałbym swój komputer stacjonarny. Ostatnio zdałem sobie sprawę z tego, że pracując od 5 lat na laptopie oczekuję od stacjonarnych płyt głównych - obok dostepnych funkcji - niemożliwego, czyli:
1. Zintegrowanych interfejsów Bluetooth 2+EDR oraz 802.11g+n
2. Zintegrowanego modemu GPRS/EDGE/HSPA+ 900/1800/2100MHz albo złącza mini-PCIe
3. Złącz USB typu B (a nie szpilki) na samej płycie (nie tylko na tylnej ściance)
4. Czytnika kart SD/SDHC/SDXC
5. Zintegrowanego interfejsu sieciowego 1000BaseT z prawdziwego zdarzenia (np. z ToE)
6. Wyprowadzenia dźwięku mono z małego wzmacniacza na mały głośnik wewnątrz obudowy (entuzjaści i tak skorzystają z SPDIF i wyprowadzą sygnał do zewnętrznego dekodera/wzmacniacza)
Dodatkowo nurtuje mnie, dlaczego wciąż nie doczekaliśmy sensowego standardu na fizyczne manipulatory montowane w obudowach typu regulacja głośności, odłączenie wszystkich interfejsów sieciowych itd. Nie mam tu na myśli przycisków obsługiwanych za pomocą oprogramowania, bo te są niezwykle frustrujące (mój laptop pozwala regulować jasność podświetlenia matrycy tylko wtedy, gdy nie ma nic innego do roboty).
Jestem też gotowy zrezygnować z kilku opcji dostępnych we współczesnych płytach głównych, np:
1. Rozmiar microATX lub ITX zupełnie mnie zaspokaja
2. 1*PCIe 16x, 1*PCIe 4x i 1*PCIe 1x zupełnie mnie zaspokaja
3. W zakresie storage 2*SATA wew. + 1*eSATA wystarczy
4. 2*DIMM wystarcza dla LGA1156 czy AM3
5. Proponuję zapomnieć o: PS/2,FDD,IDE,PCI i innych interfejsach LPC
Kto wyprodukuje idealne płyty główne dla takich malkontentów jak ja?

Coś się ruszyło na froncie rozwiązań SSD

Jak donosi Anand w obszernym artykule tutaj, dzięki wysiłkom firmy SandTech pojawiła się nadzieja na dostępność dysków SSD opartych na pamięciach MLC, które będą naprawdę wydajne.
Patrząc na to z boku odnoszę wrażenie, że pomysł - choć kontrowersyjny - ma znamiona przełomu, bo konkurencja (Indilinx lub Intel) może pójść w ich ślady. Możliwość oszczędzenia powierzchni operacji zapisów oraz ograniczenie przesuwania danych w bankach pamięci flash to chyba jedyny rozsądny pomysł, przy obecnej ograniczonej trwałości zamych komórek pamięci. Niestety produkty OCZ Vertex 2 będą nieprzyzwoicie drogie jak na polską kieszeń.

Przy okazji chyba odkyto wreszcie jakieś hipotetyczne zastosowanie dla SATA 3.0 ;-).

Mimo niewątpliwych zalet rozwiązania wciąż uważam, że nie warto wciskać szybkich pamięci flash aż tak głęboko w PeCetowe otmęty zgodności wstecz (chipset -> kontroler SATA -> kontroler dysku -> banki pamięci flash). Znacznie bardziej przemawia do mnie dedykowna implementacja pamięci flash firmy FusionIO (Steve Wozniak wciąż rządzi!) w formie kart PCIe (np. io-eXtreme), które uwalniają nas od pośredników uczepionych południowego mostu płyt głównych. Polecam artykuł dostępny tutaj.

Witaj świecie!

Liczba fascynacji, jakie mnie przejmują w myślowych podróżach bliższych i dalszych przekroczyła już moje możliwości ich spamiętania. Korzystając z fali ekstrawertyzmu jaka przeszła przez Sieć w formie blogów, postanowiłem spróbować napisać własny.
Zamierzam prowadzić tutaj "audit trail" swoich fascynacji, aby odciażyć neurony.
Dziękuję blogspot za hosting!