piątek, 26 lutego 2010

Apdejtować czy nie?

Marcin Marciniak na Technoblogu tutaj wzywa nas do regularnej aktualizacji oprogramowania. Muszę przyznać, że trudno polemizować z jego argumentami. Odnoszę jednak wrażenie, że przyczyną wykrytego przez statystyki stanu rzeczy w mniejszym stopniu jest nieświadomość użytkowników a w większym koszt obsługi oprogramowania.
Dla przykładu ja spędzam średnio około dwóch tygodni rocznie na utrzymanie w ruchu mojego pojazdu. Czas ten wydatkuję na przeglądy okresowe, naprawy, mycie, tankowanie itd. Jestem umiarkowanym użytkownikiem przejeżdżając ~50kkm rocznie. Muszę przyznać - sądzę, że to za dużo czasu (o kosztach nie wspomnę) jak na środek transportu. Mój samochód pochłania ~8% czasu posiadania na utrzymanie, a przez resztę mogę z niego korzystać.
Tymczasem nakład pracy potrzebny do bieżącej aktualizacji oprogramowania (i rozwiązywania problemów, jakie z tego wynikną) w moim laptopie swobodnie przekroczyłby 10% czasu posiadania go. Gdzie jest złoty środek?
Najlepszym rozwiązaniem wydaje się być powierzenie aktualizacji w ręce profesjonalistów (administratorów środowiska), a więc praca w spójnie zarządzanym środowisku (np. domeny MS Windows z systemem instalacji poprawek). Wtedy korzystamy z już przetartej w testach ścieżki aktualizacji oraz automatyzacji procesu. Jednak nie wszędzie administratorzy biorą na siebie ciężar aktualizacji wszystkich powszechnie używanych w środowisku aplikacji (np. Adobe Reader czy Adobe Flash).
Nie bez znaczenia są też przyzwyczajenia użytkowników, co obserwuję u siebie w biurze w postaci objawów pomigracyjnych po kilkudniowej ekspozycji użytkowników na MS Office 2007. Czasem okazuje się, że taniej jest zaakceptować zagrożenia wynikające z używania starej wersji oprogramowania niż ponieść koszty przeszkolenia użytkowników do sprawnej pracy z nową wersją oprogramowania.
Jedna prawda sprawdza się jednak niezwodnie - im prościej, tym taniej. Używając możliwie najmniejszej ilości oprogramowania obniżamy prawdopodobieństwo awarii i nakłady niezbędne na aktualizację oprogramowania. Z tej perspetkywy korzystny jest więc trend włączania wciąż nowych narzędzi do podstawowych dystrybucji systemów operacyjnych oraz obejmowanie ich zintegrowanym procesem autmatycznej aktualizacji.
Podsumowując - stawiam hipotezę, że opracowanie zunifikowanego standardu automatycznej dystrybucji i instalacji poprawek wszelkiego oprogramowania poprzez sieć Internet, a następnie szerokie zastosowanie go istotnie skróci czas niezbędny do aktualizacji oraz zwiększy bezpieczeństwo.

środa, 24 lutego 2010

poniedziałek, 22 lutego 2010

O tanich konfiguracjach PC jeszcze kilka słów

Cyril Kowaliski na swoim blogu na techreport.com tutaj opublikował dodatkową analizę w obszarze naprawde tanich konfiguracji. Bardzo mnie to ucieszyło, bo zwiększa to użyteczność jego wniosków w polskich warunkach budżetowych.
Zwróćcie proszę uwagę, że szczególnie cenne są wykresy w wymiarach wydajności i ceny kompletnego systemu. Gdy odciąć ich część przekraczającą $600, widać od razu racjonalne opcje dla przeciętnego odbiorcy PCta.

niedziela, 21 lutego 2010

Użycie pamięci w Windows 7 ...

PClab.pl zwrócił moją uwagę na doniesienie Computerworld dotyczące rzekomego wysokiego użycia pamięci RAM przez MS Windows 7. Aż mnie zatkało. Wygląda na to, że poważne serwisy potrafią bezkrytycznie i bez komentarza publikować tego typu insynuacje.
Niewątpliwie systemy MS Windows XP SP3 / Vista / 7 żwawo wykorzystują nie zaalokowaną przez procesy pamięć w formie bufora dyskowego. Tak się składa, że zazwyczaj kernel pozostawia około 1% pamięci wolnej, co odpowiada wynikom badań "ekspertów". Chciałbym zaznaczyć, że podobne mechnizmy wykorzystują systemy oparte na Linux, BSD (w tym Mac OS), Solaris, AIX czy HPUX. Co więcej jest to jedyne rozsądne wyjście zważywszy, że (dla intel Core i3/i5 3GHz) czas dostępu przy odczycie to w przybliżeniu dla:
  • pamięci cache L1: 4 takty - 1,3 nanosekundy
  • pamięci cache L2: 20 taktów - 6,7 nanosekundy
  • pamięci cache L3: 40 taktów - 14 nanosekund
  • pamięci RAM: 225 taktów - 75 nanosekund
  • dysku SSD: 195 000 taktów - 65 000 nanosekund
  • dysku magnetycznego: 30 000 000 taktów - 10 000 000 nanosekund (10ms)
Jak widać naprawdę warto mieć tyle pamięci RAM, na ile tylko nas stać oraz używać systemu operacyjnego, który inteligentnie zbuforuje odczyty (np. raczej Vista/7 niż XP) i być może również zapisy, aby oszczędzić nam ponad trzydzieści milionów taktów oczekiwania na dane z magnetycznego dysku twardego.
Jednocześnie chciałbym zwrócić uwagę, że 1,3 GB buforu dyskowego w pamięci RAM w moim laptopie to zaledwie ~1% z używanego przeze mnie obszaru danych. Aby bufor dyskowy wypełniał swoją funkcję powinniśmy zapewniać mu ilość pamięci RAM wprost proporcjonalną do rozmiaru obszaru danych jaki intensywnie używamy na dysku twardym.
Ponieważ ponieważ dyski SSD o tysiąckrotnie krótszym czasie dostępu niż dyski magnetyczne są wciąż relatywnie drogie przy niesatysfakcjonującej pojemności, najlepszą taktyką jest inwestowanie w możliwie największą pojemność pamięci RAM oraz 64bitowe systemy operacyjne (dla rozszerzenia zdolności adresowania ponad 4GB oraz powyżej 64GB w przypadku PAE).

UPDATE [2010-02-23]
Polecam ciekawy komentarz techniczny do tej awantury na arstechnica.com dostępny tutaj.

sobota, 20 lutego 2010

AMD Opteron 6000

Rodzina procesorów AMD o nazwie kodowej Magny-Cours wkrótce oficjalnie wejdzie na rynek. Tym samym prawdopodobnie nasz ulubiony alternatywny producent uprzedzi wprowadzenie na rynek intel Nahalem-EX. Zgodnie z doniesieniami XbitLabs, do wyboru będziemy mieć wersje dwunasto- i ośmio-rdzeniowe, pracujące poprzez cztery kanały nawet z dwunastowa DIMMami DDR3 (a więc nawet 48GB RAM per podstawka). Co prawda procesory AMD nie pozwalają na przetwarzanie więcej niż jednego wątku przez rdzeń obliczeniowy (brak SMT), jednak cechują się dobrą wydajnością jednostkową rdzeni oraz doskonałymi możliwościami skalowania wraz ze wzrostem liczby podstawek, dzięki najnowszej wersji HyperTransport.
Dzięki wejściu na rynek Magny-Cours i Nahalem-EX uzyskamy możliwość budowy serwerów, zdolnych do przetwarzania kilkudziesięciu wątków obliczeniowych jednocześnie, przy obsłudze co najmniej 2GB RAM na każdy wątek (np. 4* Opteron po 12 rdzeni 2,1GHz, 192GB RAM). Możliwość wykorzystania interfejsów 10GigabitEthernet dopełnia ekosystemu idealnego dla środowisk zwirtualizowanych. Tak więc z końcem 2010 roku powinno być możliwe zamknięcie data-center o skali 48-192 serwerów w dwóch do czterech maszynach 4S (cztery podstawki procesorów), pracujących pod kontrolą hypervisorów klasy enterprise.
Tutaj ciekawostka - potrzebujemy rozszerzeń w samych hypervisorach, bo maksymalne wartości obsługiwane przez:
- XenServer 5.5 to RAM: 128GB, CPU: 32,
- vSphere 4.0 to RAM: 512GB, lCPU: 64,
- Hyper-V Server 2008 R2 to RAM: 1024GB, lCPU: 64.
Bez tego serwery >=6S (sześć lub więcej podstawek CPU) nie będą miały zastosowania w wirtualizacji x86.

UPDATE [2010-02-23]
Techreport.com donosi, że pierwsze procesory AMD Opteron 6100 trafiają już do Klientów.

Jeszcze raz - jaką moc pobiera dysk SSD?

Nie dawał mi spokoju wynik poprzedniego przeglądu poboru prądu dysków twardych 2,5".
Zainspirowany ostatnim artykułem Ananda o nowych modelach dysków raz jeszcze zajrzałem w specyfikacje wybranych dysków:
Rodzina Pmax [W] Pmin [W] Odczyt
[MB/s]
Zapis
[MB/s]
Pojemność
[GB]
0,150
0,075
175
35
40
0,150
0,075
250
70
80/160
2,000
0,500
270
250
100/100
2,600
0,060
250
170
32/64
2,900
0,700
150
90
8-192
4,300
0,094
355
215
128/256
Jak widać w tabeli tańsze modele intela (flash MLC) teoretycznie są w stanie pracować przy istotnie niższym poborze prądu w porównaniu z dyskami tradycyjnymi. Nie mogę jednak pozbyć się wrażenia, że to jest tylko sztuczka pomiaru poboru prądu (modele Kingston V-series są oparte na tych samych układach co intel X25-V, a ich specyfikacja wskazuje na maksymalny pobór prądu rzędu 2,2W przy zapisie). 
Mam świadomość, że dyski SSD nie tylko mają przełomowo niski pobór prądu w trybie oczekiwania, ale także same odczyty i zapisy trwają znacznie krócej, prowadząc do niższego ogólnego poboru mocy. Mimo wszystko wciąż trudno mi uchwycić i skwantyfikować realne korzyści energetyczne z wymiany tradycyjnego dysku 2,5" na SSD w laptopie. Korzyści wydajnościowe są jasne z uwagi na druzgocącą przewagę SSD w zakresie czasu dostępu (kilkadziesiąt microsekund) i rosnącą przewagę w zakresie transferów (w okolicach ~200MBps). Na szczęście aktualne ceny dysków SSD umieszczają je poza moim zasięgiem finansowym pozostawiając dylemat realnego poboru prądu teoretycznym.

czwartek, 18 lutego 2010

Jaki CPU do komputera wybrać?

Na ogół artykuły omawiają wielo-aspektowo wydajność najnowszych, zwykle najdroższych procesorów. Trudno jest się odnaleźć w rzeczywistym sklepie ze sprzętem będąc wyposażonym w wiedzę o najlepszcyh podzespołach, bo budżety zazwyczaj mamy słabo korespondujące z apetytem.
Stąd też polecam artykuł na techreport.com opisujący bardziej dostępne cenowo procesory, a w szczególności przedstawiający wyjątkowo rozsądny wykres:

źródło: www.techreport.com
Jak widzimy w dolnym segmencie AMD Athlon II bije rekordy opłacalności, zaś w stajni intela niezmiennie faworytem jest Pentium Dual-Core E6xxx. Ciekawostkę stanowi 32nm nowość - Core i3 ze zintegrowaną grafiką.

środa, 17 lutego 2010

Dlaczego laptopy z czasem tracą na autonomii?

Użytkownicy laptopów z czasem nabierają odruchów mimowolnego poszukiwania gniazdka elektrycznego w pomieszczeniach, w których zamierzają pracować dłuższą chwilę. Wraz z wiekiem używanego laptopa (właściwie jego akumulatora) efekt ten narasta aż do wymiany urządzenia, jego akumulatora lub zaprzestania odrywania go od źródła zasilania.
Z czego to wynika?
Otóż znakomita większość laptopów wyposażona jest w akumulatory litowo-jonowe o pojemności rzędu kilkudziesięciu wato-godzin - np. mój laptop posiada cztero-komórkowy akumulator o pojemności nominalnej 37Wh, na którym pracował początkowo do pięciu godzin (pobierał wtedy średnio 7,4W). Niestety wraz z upływem czasu i kolejnymi cyklami ładowania/rozładowywania maksymalny czas pracy autonomicznej się skraca. Wg Wikipedii wynika to z niedoskonałości samych ogniw, w elektrolicie których tworzą się tzw. depozyty, które wiążą atomy Litu, zmniejszając tym samym liczbę jego jonów, a więc pojemność komórki. Dobra wiadomość jest taka, że wraz ze zmniejszeniem pojemności skraca się czas ładowania. Zła, że czynnikami przyspieszającymi utratę pojemności jest po prostu czas i wysoka temperatura. Ponieważ w temperaturze pokojowej akumulatory przy ładowaniu zawsze do pełna tracą ok. 1/5 pojemności rocznie, to należy je wymieniać w laptopie najpóźniej po 4 latach eksploatacji. Efekt utraty pojemności i wzrastającej oporności wewnętrznej ogniwa (prowadzący do spadku napięcia na biegunach ogniwa) jest tym większy, im większy pobór prądu odbiornika. Stąd też te same akumulatory w telefonach komórkowych możemy wymieniać rzadziej, ale granica rozsądku i tak przebiega w okolicach 8 lat eksploatacji (zapewne wcześniej zmienimy aparat).
Oczywiście można decydować się na akumulatory o elektrodzie LiTi zamiast węglowej, układy poboru prądu z równoważeniem obciążenia pomiędzy ogniwami, pracować w niższych temperaturach (szczególnie podczas ładowania) lub nie ładować akumulatorów do pełna. Trudno jednak oczekiwać tego od zwykłego użytkownika.
Jakie mamy alternatywy?
Obecnie na rynku nie widzę lepszych źródeł energii dla laptopów w rozsądnej cenie. Wciąż czekam na ogniwa paliwowe zasilane alkoholem (patrz prototyp) oraz implementację superkondensatorów (patrz news). Obecnie pozostaje nam tylko w cyklach trzyletnich zmieniać akumulatory Li-ion na nowe, upewniając się, że zamienniki są świeże (a nie przeleżały kilka lat w magazynie).
Na koniec ...
Przypominam, że akumulatory litowo-jonowe wybuchają w przypadku przegrzania lub próby ładowania poniżej wartości progowej naładowania. Nie podgrzewać i nie dopuszczać do całkowitego rozładowania!

wtorek, 16 lutego 2010

Ajfonołwatość dojechała do majkrosoftu

Mobile World Congress przyniósł oficjalną premierę MS Windows Phone 7 (patrz news). Moim zdaniem wprowadzono zmiany tylko na gorsze (a w WM 6.5 nie było za dobrze). Główną zmianą jest interfejs użytkownika nawiązujący koncepcją do Apple iPhone. Deweloperzy aplikacji mobilnych muszą się przesiąść na nowe środowisko tworzenia aplikacji (lub konkurencyjne systemy) a użytkownicy aparatów wykupić atrakcyjne abonamenty na transmisję danych, bo teraz nawet kontakty są online.
Konkurencja również dwoi się i troi aby zabudować ajfołnowatość w swoich systemach, czego dobrym przykładem są Nokia Symbian^3 oraz Google Android 2.1.
Dziwnym trafem nie doszukałem się w tych innowacjach ulepszeń w dzwonieniu i esemesowaniu takim telefonem. Tak więc szanujcie moi drodzy swoje nieajfołnowe telefony, bo ich następcy nie będą już tak chętnie służyć połączeniem telefonicznym, ale do bólu będą animować każde muśnięcie palcem.

sobota, 13 lutego 2010

Nowe procesory w segmencie high-end

Tegoroczna konferencja International Solid State Circuits Conference przyniosła m.in. prezentację nowego produktu IBM POWER7 (patrz news), Intela Itanium 93xx "Tukwila" (patrz news) oraz wstępne specyfikacje SUN UltraSPARC T3 "Niagara3" (patrz artykuł). Polecam następujące artykuły: Power7 vs. Niagara3 oraz Power7 vs. Tukwila, a także dyskusję na forum tutaj.
Jak donosi IDC tutaj maszyny oparte o procesory o architekturach alternatywnych do x86 (AMD Opteron, Intel Xeon), a więc RISC, EPIC i "nie x86" CISC w drugim kwartale 2009 stanowiły wartościowo około 48% wartości rynku serwerów. Zazwyczaj były to duże i drogie instalacje, a więc reprezentują one stosunkowo niewielki udział ilosciowy. Tym niemniej skłoniło mnie to wykonania porównania kros-architekturalnego wybranych modeli procesorów w oparciu o ogólną wydajność stało i zmienno-przecinkową:
Procesor GHz CPU rdzeni wątków SPEC2006
int_rate
SPEC2006
fp_rate
INT na CPU FP na CPU INT na rdzeń FP na rdzeń INT na wątek FP na wątek
IBM POWER7 3,55 4 32 128 1010 825 252,5 206,3 31,6 25,8 7,9 6,4
Intel Xeon X5570 2,93 2 8 16 241 197 120,5 98,5 30,1 24,6 15,1 12,3
AMD Opteron 8439 SE 2,80 4 24 24 420 287 105,0 71,8 17,5 12,0 17,5 12,0
SUN UltraSPARC T2 1,60 4 32 256 360 270 90,0 67,5 11,3 8,4 1,4 1,1
IBM POWER6 5,00 8 16 32 542 544 67,8 68,0 33,9 34,0 16,9 17,0
Intel Itanium 9340 * 1,60 16 64 128 813 813 50,8 50,8 12,7 12,7 6,4 6,4
Intel Itanium 9150M 1,60 16 32 64 407 406 25,4 25,4 12,7 12,7 6,4 6,3
* - Uwaga! Wyniki Itanium 93xx przybliżyłem, zakładając, że średnio wydajność jednego rdzenia pozostanie bez zmian w stosunku do Itanium 9150M.
[wiersze posortowane są malejąco po średniej wydajności SPEC2006_int_rate na procesor]
Jak widzimy IBM postawił w POWER7 na możliwość przetwarzania jak największej liczby wątków przy minimalnych ustępstwach w zakresie średniej wydajności per rdzeń w stosunku do POWER6. Zaskoczyło mnie to, jak dobrze plasują się procesory x86 w tym zestawieniu - Intel Xeon i AMD Opteron. Natomiast szczególne miejsce zajmuje SUN UltraSPARC T2 (Niagara2), która jest maszynką do masowego przetwarzania łatwych obliczeniowo wątków, a nadchodząca Niagara3 również zapowiada takie podejście. Warto przypomnieć, że rozwiązania RISC (POWER, UltraSPARC) oraz EPIC (Itanium) są stosowane w platformach zamkniętych i zazwyczaj pracują pod kontrolą UNIX/mainframe/Linux (z wyjątkiem MS Windows Server dla Itanium).

Takie ujęcie tabelaryczne jest ogromnym uproszczeniem i nie oddaje złożonych aspetków przepustowości, rozszerzonych zestawów instrukcji, czy funkcjonalności platform. Jednak ustawia w miarę obiektywnie postrzeganie tych rodzin procesorów w ujęciu ogólnej wydajności. Uważam, że do czasu pojawienia się Intel Nahalem-EX "Beckton", rynek powyżej ogólnego zastosowania 48 wątków dla jednej maszyny pozostaje domeną procesorów RISC/EPIC.
Należy jednak pamiętać, że zastosowania specjalistyczne, jak przetwarzanie strumieniowe, czy HPC często polegają na specyficznych rozwiązaniach platform i w tych domenach rozwiązania się z pewnością pozostaną najlepszym rozwiązaniem.

piątek, 12 lutego 2010

Pamięci DDR3 1,35V

Ostatnie dwa lata ewolucji na rynku komputerów przechyliły udział w rynku RAM na korzysć pamięci DDR3. Niskonapięciowe moduły (Low Voltage DIMM) nie są nowością, jednak w ostatnich miesiącach stały się realną alternatywą dla układów standardowych, zasilanych napięciem 1,5V. Jak donosi Richard Swinburne na swoim blogu, użytkownicy decydujący się na niskonapięciowy profil pracy pamięci DDR3 z procesorami Core i7, mogą się spodziewać nawet 20% oszczędności w poborze mocy procesora (gdzie znajduje się kontroler pamięci).

Jakie ma to znaczenie praktyczne?
SERWERY
Maszyny pracujące z procesorami opartymi na architekturze Nahalem (Xeon 55xx, W35xx, 34xx), mogą uzyskać kilkuprocentowe obniżenie poboru prądu i emisji cieplnej. Jaskrawym przykładem jest wynik pomiaru poboru prądu konfiguracji 12 pamięci rejestrowanych DDR3 1066MHz ECC, która waha się pomiędzy 35W a 120W przy zasilaniu 1,5V opisany w dokumencie "DDR3 Configuration Recommendations for HP ProLiant G6 Servers". HP deklaruje na str. 22 tego dokumentu do 15% oszczędności przy wybraniu pamięci o obniżonym napięciu zasilania (potencjalnie 30W-102W dla 12*4GB). Najszybciej pozytywne skutki stosowania LV DDR3 (np. Micron Aspen) zobaczymy w serwerach kasetowych, ze względu na ich naturalne ograniczenia TDP.
LAPTOPY
Oszczędności wynikające z przejścia 1,5V->1,35V (np. Micron SODIMM) w przypadku dwóch SO-DIMM przy 1066MHz oceniam na nie więcej niż 0,5W. W kontekście poboru prądu przez matrycę czy też dedykowany układ graficzny to niewiele, jednak może wpłynąć na obniżenie o kilka procent poboru mocy procesora. W podróży każdy Wat się liczy.
DESKTOPY
Dla przeciętnego użytkownika dodatkowy wydatek na niskonapięciowe pamięci nie będzie miał sensu.
Jednak osoby planujące podkręcanie CPU mogą zaobserwować dodatkowe rezerwy procesora po obniżeniu napięcia na pamięciach (np. 1,65V->1,35V).

czwartek, 11 lutego 2010

Pamięć masowa szybsza niż SSD

Markowi producenci rozwiązań klasy Enterprise już po wakacjach 2009 wprowadzili do oficjalnych kanałów sprzedaży karty PCI-E z układami flash (SLC lub MLC) do zastosowań serwerowych:
- IBM High IOPS SSD PCIe Adapters, ok. $7700 za 160GB
- Oracle / Sun Flash Accelerator F20 PCIe Card*, ok. $4700 za 96GB
- DELL 160GB SLC PCIe ioDrive, za $6600 za 160GB
IBM - podobnie, jak DELL - oferuje rebrandowane produkty FusionIO ioDrive, zaś SUN produkt własny.
Do gry włączył się też producent OEM - SuperTalent ze swoją linią RAIDDrive. Za kartę Super Talent RAIDDrive GS 192GB PCI Express x8 Solid State Drive (MLC) trzeba zapłacić ok. $2800. Karty wydają się być równie wydajne jak wcześniej wspomniane, ale niestety używają aktywnego chłodzenia.
Wymienione rozwiązania oferują wydajność rzędu 80kIOpS (rw 4kB) oraz transfery odzytu i zapisu ok. 1GBps. Stwarzają więc możliwość budowy bardzo szybkiego podsystemu pamięci masowej np. dla baz danych o kilkudziesięciokrotnie wyższej wydajności. Czekam z niecierpliowścią na wyniki testów relacyjnej bazy danych na karcie tego typu.

* - Rozwiązanie SUN posiada zintegrowany na karcie kontroler SAS oraz awaryjne podtrzymanie bateryjne za pomocą superkondensatora. Karta ta może stać się elementem firmowego rozwiązania o nazwie Hybrid Storage Pools, automatycznie buforującego najczęściej używane dane z systemu plików ZFS w pamięci flash. Więcej na ten temat znajdziesz tutaj.

Gdzie szukać informacji technicznych o telefonach komórkowych?

Zazwyczaj podstawowym źródłem informacji o moich przyszłych aparatach telefonicznych były strony operatora sieci komórkowej i producenta aparatu. Forma prezentacji tych danych nie ułatwiała mi jednak podejmowania decyzji o wyborze produktu. Tutaj z pomocą przychodzi nam serwis PDAdb.net.
Serdecznie polecam z uwagi na wysoką jakość zestawień i doskonały mechanizm wyszukiwania.

środa, 10 lutego 2010

Sześciordzeniowe procesory Intela jeszcze w tym kwartale

XbitLabs donosi, że wkrótce pojawią się na rynku drogie 6-rdzeniowe procesory oparte na architekturze Nahalem w wykonaniu Westmere 32nm. Wbrew pozorom na rynku konsumenckim ma to znaczenie czysto prasowe z uwagi na zaporowe ceny.
Jednak stwarza to ekscytującą możliwość budowy serwerów klasy entry, opartych o układy X58 z podstawką LGA1136 i trójkanałową pamięcią DDR3, np. na płycie głównej SuperMicro MBD-X8SAX-O.
Potencjalnie pozwoli to na budowę serwera gotowego przetwarzać jednocześnie 12 wątków obliczeniowych (dzięki technologii SMT procesora) oraz obsługę 24GB RAM, a więc po 4GB / rdzeń obliczeniowy. Pewną komplikacją będzie realne TDP procesorów na poziomie 130W (podobnie, jak w przypadku rodziny Xeon W35xx), jednak z pewnością znajdą się odpowiednie konstrukcje na rynku już wkrótce.

Warto też podkreślić, że po wyposażeniu takiego serwera w interfejs SAN w postaci HBA lub CNA, redundantne zasilacze i kartę zarządzającą może stać się on najbardziej efektywnym kosztowo elementem budowy centrum obliczeniowego.
Alternatywnie można rozważyć wyposażenie takiego serwera w lokalne dyski: w obudowie 1U zmieści się na przykład do 8 dysków 2,5" Seagate Savvio 10K.4 600GB, które w konfiguracji RAID 10 mogą zapewnić około 2TB użytecznej przestrzeni dyskowej.

wtorek, 9 lutego 2010

Jaki laptop być nie powinien?

Wczoraj przeżyłem apogeum mych wewnętrznych frustracji współczesnymi laptopami po bliskim kontakcie z kilkoma z nich (mój trafił do serwisu z objawami poinstalacyjnymi pakietu mcafee'iego).
Oto lista głównych, znienawidzonych przeze mnie cech:
1. Błyszczące... wszystko: ekran, pokrywa, powierzchnia pomiędzy klawiszami (!)
2. Kuriozalnie wąskie kąty prawidłowego widzenia kolorów matrycy
3. Intensywnie świecące przyciski funkcyjne zamiast podświetlanej klawiatury
4. Okropnie wolno działające czytniki linii papilarnych (szybciej jest wpisać 12 znakowe hasło!)
5. Ekran otwierający się tylko 120° (nie sposób się wyprostować przed takim lub odnaleźć za nim kubek)
6. Pojemnościowe przyciski regulacji głosności (HP ProBook 4310s) -> nie umiem ściszyć
7. Wiecznie niesprawne "softkeys" do regulacji jasności matrycy, wyjścia wideo itd. ("hardkeys" zawsze działały)
Nieśmiało apeluję do projektantów: Obudźcie się! To zły kierunek - trzeba nam mniejszej dbałości o wygląd zewnętrzny laptopa, a więcej o ergonomię pracy!

A co Ciebie frustruje w nowych laptopach?
Może wspólnie wystosujemy list otwarty do Vendorów laptopów?

[UPDATE 2010-02-12]
Kolega Maniek dodał kilka cennych uwag:
8. Dlaczego wszystkie matryce są szerokie i w dodatku TN? (chcemy 4:3 IPS)
9. Nie chcemy matryc o gęstości poniżej 100ppi
a kolega Węgorz postuluje, by:
10. Czas pracy na bateriach się wydłużał, a nie skracał wraz z kolejnymi innowacjami

poniedziałek, 8 lutego 2010

Przyszłe katalogi tożsamości

Computerworld donosi tutaj o następnej generacji Active Directory, która powstaje w trzewiach Microsoft.
Te nowe funkcjonalności - choć bardzo potrzebne - niestety nie rozwiązują mojego głównego problemu - bezpiecznego zarządzania moją tożsamością w różnych systemach, sieciach i obszarach zastosowań.
Chciałbym, aby pewnego dnia, podejmując pracę w nowym miejscu, moja tożsamość została pobrana z rejestru takiego, jak OpenID lub jego rozszerzonego analoga. Czekam na infrastrukturę publiczną (krajową? a może unijną?), która zapewni niezależną autentyfikację mojej osoby w odniesieniu do mojej pojedynczej tożsamości sieciowej.
Mam nadzieję, że wtedy odzworowanie mojej tożsamości będzie miało przypisane atrybuty i uprawnienia w sposób rozproszony - jak dzisiaj - zachowując jednak spójność w obejmowalnej przeze mnie przestrzeni wirtualnej.

Akceleratory fizyki w wizualizacjach 3D

Już za czasów DirectX 7 w grach obserwowałem z radością pierwsze efekty dynamiki obiektów, które były oparte o obliczenia odwzorowujące oddziaływanie grawitacji, wzajemnych odbić obiektów, czy efekt mgły.
Kolejne wersje DirectX i OpenGL przyciągnęły uwagę deweloperów nowych gier i powstała potrzeba zapewnienia mocy obliczeniowej niezbędnej do symulacji zjawisk fizycznych dla wirtualnych obiektów w wielkiej liczbie i złożonych zależnościach. Rynek wciąż szuka najlepszego sposobu na wykonywanie tego typu obliczeń:
- procesory główne otrzymują nowe zestawy rozkazów, więcej jednostek wykonawczych, więcej rdzeni
- karty graficzne uzyskały zunifikowaną architekturę układów obliczeniowych
- pojawiły się (i zniknęły) dedykowane karty wspomagające obliczenia fizyczne
Największe nadzieje wiążę obecnie z OpenCL (zestandaryzowana i otwarta wersja CUDA czy też DirectCompute), jednak minie jeszcze parę lat nim dopracujemy się skutecznych sposobów wykorzystania tego API w każdym komputerze.
Tymczasem już teraz każda karta graficzna nVidia jest w stanie pracować jako akcelerator obliczeń fizycznych (Physics Processing Unit), udostępniając odpowiednio przygotowanym grom PhysX API do wykorzystania.
Firma E-VGA zaprezentowała właśnie kartę graficzną - EVGA GeForce GTX 275 CO-OP PhysX Edition - posiadającą dwa układy, które nie działają w zintegrowanym trybie SLI, ale właśnie stanowią tandem GPU + PPU. Rozwiązanie faktycznie działa fantastycznie w grach takich jak Batman: Arkham Asylum. Jednak z uwagi na cenę, wysoki pobór prądu i głośność zastosowanie tego rozwiązania to "Pyrrusowe" zwycięstwo.

Stąd też proponuję połączyć koncepcję przełączania pomiędzy zintegrowanym układem graficznym a dyskretnym (np. nVidia Optimus) z używaniem zintegrowanego układu jako akceleratora PPU równolegle z dyskretnym GPU. Dzięki nowemu modelowi sterowników grafiki w MS Windows Vista/7 jest to już możliwe.
Niestety ograniczenia patentowe i licencyjne, powstałe w wyniku przejęcia Ageia przez nVidia wyeliminowały AMD/ATI z rynku akceleratorów PPU, zgodnych z PhysX API. Na polu PPU bardzo przydałoby nam się trochę konkurencji.

Wprowadzenie proponowanego przeze mnie modelu użycia do komputerów stacjonarnych dla graczy przyniosłoby istotne oszczędności energii czy hałasu (w 2D pracujemy tylko na IGP) oraz dodatkowe korzyści w zakresie akceleracji PPU na IGP przy wizualizacjach 3D.
Czekam z niecierpliwością na implementację i pierwsze wyniki testów...

wtorek, 2 lutego 2010

No i gdzie ten WiMAX dla Nowaka i Kowalskiego?

Od pierwszych lat 21 wieku śledzę z wypiekami na twarzy rozwój radiowych technologii transmisji danych, które pozwolą mi na łatwe, tanie i szybkie korzystanie z mobilnego dostępu do Internetu na terenie całej Polski w zasięgu nie gorszym niż tradycyjne GSM. Od paru lat najbardziej zachęcającą technologią wydawał mi się WiMAX. Jeszcze w 2004 roku połączenie dużego zasięgu z potencjalnie, względnie wysokimi przepustowościami wydawało mi się najlepszą opcją w porównaniu z HSCSD/EDGE lub WiFi.
Dzisiaj napotkałem news o nowej generacji WiMAXa, co odnowiło moje zainteresowanie w tym zakresie.
Mimo że UKE rozdysponowało już sporo koncesji na częstotliwości przeznaczone na WiMAX (patrz strona UKE), wciąż operatorzy telekomunikacyjni nie przedstawili nam oferty konsumenckiej (np. Crowley od 2005 dysponuje tą technologią).
Wiele wskazuje na to, że wcześniej zobaczymy usługę powszechnego bezprzewodowego dostępu do Internet w wykonaniu Polsatu Cyfrowego (patrz mapa zasięgu), w oparciu o sieć firmy Aero2, wykorzystującej technologię HSPA+ w paśmie 900MHz.

Czy na tym koniec nadziei na szeroko dostępnych usług opartych na WiMAX?

[UDPATE 2010-02-10]
Zupełnie zapomniałem wspomnieć, że w tym samym segmencie rynkowym Orange intensywnie rozwija usługi transmisji danych w technologii CDMA 450MHz pod marką Freedom Pro, oferując 1Mbps za około 50zł z limitem 3GB mcznie przy ponad 70% pokryciu w Polsce. Mapa zasięgu CDMA450 dostępna jest tutaj. Oferta ta jednak posiada istotne ograniczenia przepustowości, co ustawia ją w dolnej części segmentu.

poniedziałek, 1 lutego 2010

Jak słaby (czytaj "tani") komputer warto kupić?

W trakcie weekendu miałem okazję pracować na komputerze ze sporym stażem - wyposażonym w procesor AMD Duron 1200MHz, 512MB RAM SDR 133MHz, dysk IDE rzędu 20GB 5400obr/min. oraz nVidia GeForce 2MX. Przez ponad 5 lat platformy tego typu napędzały z powodzeniem system operacyjny MS Windows XP na całym świecie. Ostatnie miesiące obcowania z tym egzemplarzem komputera osobistego wskazywały jednak, iż mimo utrzymania wersji OS powoli wykorzystywanie go do zupełnie podstawowych zadań (przeglądanie stron Web, obsługa e-mail, rozmowy z wykorzystaniem Skype) przekracza już granice mojej cierpliwości (czas odpowiedzi w oknach dialogowych przekraczał 5 czasem 10 sekund).
Postanowiłem zbadać wąskie gardła tego systemu za pomocą Performance Monitora oraz odczytów z Task Manager. Okazało się, że głównym ograniczeniem (nawet przy łączu 640kbps "w dół") jest główny procesor. Objawiało się to głównie przy korzystaniu ze stron w MS Internet Explorer 8 oraz Chrome 3, a także przy wielu rozmowach tekstowych Skype. Skłoniło mnie to do refleksji nad względną wydajnością obliczeniową tej platformy w zakresie operacji stałoprzecinkowych (najczęściej wykorzystywanych w tego typu zastosowaniach) w odniesieniu do obecnie popularnych tanich platform typu netbook lub nettop.
Gdzie przebiega granica rozsądku wydajności stałoprzecinkowej procesora?

Zebrałem wyniki kilku arbitralnie wybranych procesorów:
LpProcesorOpisMIPST6670Narzędzie
1Intel Atom N270single core, 1,6GHz396935% SANDRA 2009: CPU
2 AMD Duron 1300 (desktop) single core,1,3GHz 5362 48% Sandra - CPU Dhrystone Version 2004.10.9.89
3 Intel Atom 330 dual core, 1,6GHz 8032 71% SANDRA 2009: CPU
4 Intel Celeron 900 single core, 2,2GHz 9400 84% Sandra ? CPU ALU
5 Intel Pentium Dual Core T2060 dual core, 1,6GHz 10858 96% Sandra ? CPU ALU
6 Intel Core2 Duo T6670 dual core, 2,2GHz 11254 100% Sandra ? CPU ALU
7 Intel Pentium T4200 dual core, 2GHz 12176 108% Sandra ? CPU ALU
8 AMD Athlon X2 QL-60 dual core, 1,9GHz 12969 115% Sandra ? CPU ALU
9 Intel Celeron Dual-Core T3300 single core, 1,8GHz 15600 139% Sandra ? CPU ALU
10 AMD Athlon II X2 250 (desktop) dual core, 3GHz 15860 141% SiSoftware Sandra XI Arithmetic ALU
11 Intel Celeron Dual-Core T1500 single core, 1,8GHz 15900 141% Sandra ? CPU ALU
12 Intel Core2 Duo Mobile T5900 dual core, 2,2GHz 17800 158% SANDRA 2009: CPU
13 Intel Core i7 920XM quad core, 2GHz 48000 427% Sandra ? CPU ALU

Wspomniana platforma plasuje się w drugim wierszu tabeli i praca z nią jest zdecydowanie daleka od akceptowalnej.
Tymczasem w wierszu szóstym umieściłem procesor, jaki używam na codzień w moim laptopie i tutaj jestem zupełnie zadowolony z responsywności platformy pod kontrolą MS Windows Vista SP2, zaś obciążenie procesora (2 rdzenie) przy intensywnej pracy w Google Chrome 3, MS Office, Lotus Notes zwykle utrzymuje się na średnim poziomie około 40%. Kolumna "T6670" odzworowuje wględną wydajność pozostałych procesorów.
Pod zazwyczaj spotykanymi w dolnym segmencie rynku procesorami laptopów i desktopów umieściłem maksymalnie wydajny model dostępny obecnie na rynku - dla zobrazowania "końca skali" wydajności.

Uważam, że w obecnych warunkach granica rozsądku przebiega gdzieś w okolicy 10000 MIPS, co na ogół pozwala na odtwarzanie filmów przeglądarce oraz czas odpowiedzi okienek do 2-3 sekund. Są to jednak tylko moje estymacje i chętnie przyjmę opinie czytelników. Z tego wynika, że nawet platformy oparte o dwurdzeniowe Atomy prawdopodobnie oferują wątpliwy komfort pracy i wymagają czujności w zakresie ustawień GUI oraz obliczeniochłonności doinstalowywanych aplikacji. Z nadzieją czekam więc na nowe generacje Atomów o zwiększonej wydajności, a póki co polecam w ich miejsce tanie Celerony Mobile i Athlony / Turiony Mobile.
W każdym razie zanim kupisz laptopa - sprawdź wydajność procesora tutaj i nie ufaj oznaczeniom producenta.

Jestem świadomy pominięcia aspektu obliczeń zmiennoprzecinkowych, co uniemożliwia uwzględnienie aspektów wykorzystania m.in. kodeków audio i wideo. Tym niemniej codzienna praca z GUI windows angażuje głównie ALU procesorów.