niedziela, 27 czerwca 2010

Czego mi brakuje do szczęścia?

Zważywszy, że obok kalendarzowego lata mamy również właściwe za oknem, to niewiele do szczęścia mi brakuje. Jednak jakby mocno pokombinować, to:
1. Chętnie zobaczyłbym więcej portów popularnych gier pod Linux (obecnie Ubuntu x64).
Niestety jest tego jak na lekarstwo, a zabawa z Wine w celu uzyskania stabilnej emulacji środowiska Windows przypomina walkę z wiatrakami. Jest jednak nadzieja, że wydawcy gier zauważą wreszcie ten rynek, bo to się opłaca - czytaj tu.
2. Podobnie, brakuje mi urządzenia klasy MID. Ostatnio miałem okazję popracować na iPadzie (dzięki Christophe) i przyznam, że jest to tak wygodne jak piszą. Szukam jednak tańszej i bardziej uniwersalnej alternatywy. Zależy mi na multimediach, więc odrzucam modele z wyświetlaczem e-Ink. Idealne byłoby 7-10" w architekturze ARM pod kontrolą Android 2.x. Grzegorz (dziękuję!) pokazał mi SmartQ V7, ale jest on niedostępny w Polsce. Podobnie jest ICD Ultra, czy Notion Ink Adam. W miarę realnie wygląda Asus Eee PC T91MT, ale wciąż ~ 2500zł to dla mnie za dużo. Czekam więc na urządzenie w granicach ~750zł.
Pomarzyć można, ale teraz trzeba trochę poczekać, aż ten rynek dojrzeje i spowszednieje.
[UPDATE] Napotkałem na sieci urządzenie Archos 7, dostępne za 630zł tutaj. Niestety używa własnego systemu opartego o Linux na platformę ARM. Muszę to rozpoznać...
Wygląda na to, że to Android.
[UPDATE 2010-07-01] Obejrzałem też HUAWEI SmaKit S7 - też fajny.

środa, 23 czerwca 2010

Idealny komputer HTPC

Zastanawialiście się kiedyś nad zakupem komputera typu Home Theater PC (używany głównie do odtwarzania filmów)? Ja - owszem. W owym okresie nie znalazłem niczego na tyle małego, wydajnego, cichego i funkcjonalnego, aby się skusić. Chciałem używać w nim Windows Media Center (wtedy w wersji Vista) wraz z pilotem zdalnego sterowania.
Dzisiaj szukając ciekawych platform z nowymi procesorami Intel PineView (Atom D425 i Atom D525 - oba 1.8GHz z obsługą DDR3) natrafiłem na stronach AsRock na mój ideał wcielony: platforma AsRock Core 100HT-BD. Pisze o nim m.in. CHIP tutaj.
To cudo w ślicznej czarnej obudowie Micro-ITX zmieściło płytę główną obsługującą procesory Intel Core i3/5/7 (LGA1156), z obsługą USB 3.0 (!), miejsce na dwa dyski 2,5" (np. po 640GB:) oraz napęd combo BlueRay (odczyt/zapis DVD, odczyt BD)  w rozmiarze slim. Dostajemy do tego zewnętrzny zasilacz 90W (łatwo wymienić, nie hałasuje) oraz pilot zdalnego sterowania zgodny z Windows Media Center.
Niestety komputerek jest nieco drogi - ponad 2500zł, ale myślę, że znajdzie wielu nabywców, bo jest unikalny.
[UPDATE 2010-07-23] AnandTech zamieścił kompleksowy test tej platformy tutaj.

AMD Opteron 4100 ogłoszony

Jeżeli Opterony 6100 (Magny-Cours) wydawały Wam się zbyt rozdmuchane (dwanaście rdzeni) to macie od dzisiaj okazję kupić sobie ich połówkę - Opterona 4100 (Lisbon). Polecam artykuł na ten temat na TechReport tutaj. Procesory mają po 6 rdzeni, taktowane są 1.7-2.8GHz, obsługują dwa kanały pamięci DDR3 (również nisko-napięciowych) i wymagają podstawki C32 (tak, tak - kolejna zmiana). Nie znalazłem dotąd testów wydajności, ale z grubsza będzie to połowa odpowiednich dwunasto-rdzeniowców. Procesory są przeznaczone do konfiguracji jedno- i dwu-podstawkowych. Co ciekawe są tak tanie, jak wydajne, czyli kosztują średnio połowę tego, co Xeony 55xx.
Nie udało mi się jeszcze wymyślić sytuacji, w której chciałbym kupić serwer wyposażony w taki procesor, ale nie ma problemu, bo główni vendorzy nie spieszą się z wprowadzeniem na rynek tych platform.
Obawiam się, że do czasu wprowadzenia przez AMD architektury Bulldozer rozsądniej będzie inwestować w procesory Intela z rodziny Westmere-EP (Xeon 5600) i Nahalem-EX (Xeon 6500 i 7500).

poniedziałek, 21 czerwca 2010

Ubuntu - dziwna sprawa

Miesiąc temu postanowiłem na moim domowym komputerze stacjonarnym (DELL OptiPlex 360) zainstalować Ubuntu zamiast MS Windows. Czasu wolnego mam jak na lekarstwo ostatnio, więc też niewiele uwagi przykładałem do przygotowania tego komputera do pracy. Zaraz po włożeniu płyty CDR (tak, tak <700MB plików instalacyjnych) z Ubuntu 10.04PL w wersji 64bitowej i wystartowaniu instalacji udałem się do kuchni zmyć naczynia. Gdy wróciłem zastałem już okno logowania - jak miło. Po zalogowaniu się odkryłem, że wszystkie urządzenia zostały rozpoznane prawidłowo i instalator ustawił rozdzielczość ekranu na nominalną dla mojego panela LCD. Cóż - pomyślałem - po ponad 15 latach jest to miła odmiana w wydaniu Debiana. Jednak naprawdę mocno uderzyło mnie to, że w ciągu zaledwie 10 (!) kolejnych minut udało mi się uruchomić zintegrowanych klientów poczty Mozilla Thunderbird oraz Empathy (do pracy z GG, GTalk, MSN). Będąc w szoku post-traumatycznym (nie musiałem wykonać żadnej komendy w terminalu!) i niczego nie podejrzewając pobrałem aktualną wersję Skype, który również zadział bez problemu. Tego było za wiele - postanowiłem położyć się spać. Następnego dnia zauważyłem, że zintegrowana Mozilla Firefox działa subiektywnie ociężale i fatalnie wyświetla bitmapy. (Haha! Wiedziałem, że coś będzie nie tak.) Postanowiłem dobić mą instalację pobierając Google Chrome 5. I tutaj kolejny szok - działa jak marzenie! Pastwiąc się dalej pobrałem nawet plug-in Adobe Flash. To też zadziało! Wtedy uwierzyłem w ten system.
Ośmielony pozytywnymi rezultatami postanowiłem podłączyć się domowej składnicy plików podstępnie używającej CIFS. Znowu sukces - a zajęło mi to 2 minuty. W kolejnych tygodniach pisałem maile, edytowałem dokumenty w OpenOffice, edytowałem bitmapy w Gimp oraz w Inkscape wektory i ... nie miałem żadnych problemów!
W pewnym momencie rozbudowałem RAM z 1GB do 2GB, abym mógł swobodnie otwierać kolejne zakładki w Chrome (każda strona w całości przechowywana jest w pamięci operacyjnej wraz z prywatną  kopią silnika renderującego - u mnie średnio 50MB na zakładkę), ale to tylko moje widzi-mi-się.
Spójrzmy prawdzie w oczy: nie mam żadnych zastrzeżeń do tego systemu operacyjnego. Z dowolnie wylosowanym MS Windows miałbym na pewno większe problemy. Po miesiącu użytkowania na co dzień stwierdzam, że system ten jest wydajny, stabilny, łatwy w obsłudze i z łatwością można pobrać oprogramowanie dla niego (od zeszłego tygodnia używam z powodzeniem Google Earth).
Niestety prawdopodobnie nie uruchomię w Ubuntu mojego ulubionego Wiedźmina i to jest jedyna poważna wada, jaką widzę. Pewną niedogodnością jest apetyt Ubuntu na pobieranie aktualizacji (na oko około 300MB na tydzień), ale to tylko problem takich nomadów jak ja, którzy korzystają permanentnie wyłącznie z dostępu mobilnego GSM (HSPA).
Do większości zastosowań mogę polecić aktualną wersję Ubuntu w polskiej edycji!
Dziiiwna sprawa... ;-)

Postęp technologiczny

Artykuły opisujące nowości oraz te, które dają nam przekrój przez rynek w danym okresie, mają zazwyczaj tę wadę, że sięgają niewiele wstecz w porównaniach. O ile łatwo porównać pojemność, częstotliwość czy przepustowość produktów, które dzielą całe lata pod względem dostępności w sklepach, to trudno ocenić, na ile szybsza będzie nowa platforma w porównaniu z tą zakupioną pięć lat temu. Stąd też bardzo lubię przeglądać wszelakiego rodzaju bazy danych pozwalające uchwycić postęp technologiczny w IT w perspektywie kilku lat - a więc cyklu wymiany sprzętu. Na przykład cenię sobie bazę Tom's Hardware, czy rankingi Benchmark.pl.
Dzisiaj moją uwagę przykuł ten wpis na blogu VMware nt. wydajności platform w ciągu ostatnich 5 lat. Zwróćcie uwagę jak wiele się zmieniło od czasów pierwszych procesorów opartej na architekturze Intel Core (51xx) - praktycznie 8 razy więcej maszyn wirtualnych można umieścić na jednej platformie. Z tego trendu wynika, że najbardziej ograniczającym skalowanie w obrębie jednej maszyny będzie pamięć RAM, tym bardziej, że stanowi ona zwykle istotny składnik kosztów (nie zapominam o I/O - tutaj mamy pewne nowe udogodnienia m.in. w postaci 10GE).
Wiele wskazuje na to (np. ten post), że procesory z rodziny Westmere-EX będą posiadały 10 rdzeni (20 wątków) przy zachowaniu poboru prądu na poziomie Nahalem-EX, a więc raczej trend wzrostu wydajności się utrzyma.
Spójrzcie więc na swoje serwery krytycznym okiem. Być może przy użyciu nowych serwerów i wirtualizacji Wasza serwerownia zmieściłaby się już w jednej dużej obudowie kasetowej.

[UPDATE 2010-06-23]
XBitLabs donosi, że Intel potwierdził 10cio-rdzeniowca w linii Westemere-EX (32nm) w 2011.

piątek, 18 czerwca 2010

niedziela, 13 czerwca 2010

Duży i płaski telewizor

Właśnie wyczytałem na gazecie tutaj, że już od lipca można zamawiać 152" telewizory PDP u Panasonic (polecam też post na engadget). Niewątpliwie zbliżamy się stopniowo do koncepcji wysoko-rozdzielczych wyświetlaczy ściennych, znanych mi z powieści sci-fi.

niedziela, 6 czerwca 2010

Ustawienia pamięci RAM

Eh.. wciąż zapominam, jakie parametry DDR są aktualnie na topie. Chyba zbyt wiele jest tych ustawień od czasów SDRAM. Tutaj z pomocą przychodzi nam sympatyczny artykuł na overclock.pl tutaj.
Szczególnie przypadła mi do gustu następująca tabela (konkretnie i na temat - oj przyda się). 
Polecam.

Łatwiej dzięki maszynom wirtualnym

Od lat widzę ewolucję podejścia do dystrybucji oprogramowania. Od skryptów BAT w MS DOS, poprzez procedury w plikach COM, erę InstallShield oraz Microsoft Installer, czy też Java Web Start lub pliki JAR, WAR. Aplikacje oparte na formularzach coraz częściej przybierają formę aplikacji web zupełnie eliminując potrzebę ich instalowania. Tymczasem ostatni rok pokazuje, że produkty świadczące usługi serwerowe i sieciowe w centrach danych dostawcy coraz chętniej udostępniają w formie obrazu maszyny wirtualnej.
Zakładając, że klient posiada już kompatybilną platformę wirtualizacyjną, instalacja modułu na serwerze trwa moment. Ostatnio z pomocą tego typu dystrybucji rozwiązań przychodzi Open Virtualization Format.
Gdy porównać takie podejście do budowy środowiska centrum obliczeniowego z tradycyjnym, to gołym okiem widać, że może okazać się ono bardziej efektywne oraz - o dziwo - bardziej niezawodne.
Takie kontenerowe podejście pozwala na pełną modułowość środowiska, stosowanie skrojonych na miarę systemów operacyjnych, głębokich optymalizacji zwirtualizowanych maszyn oraz łatwość ich przełączania pomiędzy hostami. Obecnie jestem przekonany, że dystrybucja zarówno urządzeń sieciowych operujących w wyższych warstwach OSI oraz infrastrukturalnych usług serwerowych będzie w przyszłości  realizowana głównie w formie OVF lub jego nowocześniejszego analoga.

piątek, 4 czerwca 2010

Wydajność energetyczna serwerów

Muszę przyznać, że testy syntetyczne pokazują, że najnowsze linie produktowe Intel i AMD prezentują zbliżony poziom wydajności, mając porównywalne kategorie poboru mocy per podstawka (TDP w przypadku Intela i ACP dla AMD). Szukałem jednak porównania, które wprost przedstawiałoby znormalizowaną wydajność w stosunku do poboru mocy całej platformy. Przeglądając stronę Standard Performance Evaluation Corporation napotkałem test power_ssj2008, który przedstawia stosunek wydajności do poboru energii platformy, czyli to, czego szukałem.
Oto lista faworytów z bazy danych wyników testu:
platformaprocesorpower_ssj2008
2 * IBM iDataPlex Server dx360 M32 * Intel Xeon L5640 (6 rdzeni, 2.26GHz, 12MB L3 Cache)
4 * HP ProLiant SL2X170z G62 * Intel Xeon X5670 (6 rdzeni, 2.93 GHz, 12 MB L3 cache)
2 * IBM iDataPlex Server dx360 M32 * Intel Xeon X5670 (6 rdzeni, 2.93GHz, 12MB L3 Cache)
4 * HP ProLiant DL170h G62 * Intel Xeon X5670 (6 rdzeni, 2.93 GHz, 12 MB L3 cache)
...
1 * HP ProLiant DL385 G71 * AMD Opteron 6174 (12 rdzeni, 2.20 GHz, 10MB L2 Cache)
Procesory z rodziny Westmere-EP zupełnie opanowały ten benchmark. Dołączyłem też flagowy produkt AMD dla porównania. Muszę przyznać, że obrana przez Intela strategia orientacji na wydajność w stosunku do zużycia energii przyniosła pożądane efekty. Jeżeli chcecie więc zaspokoić kierownictwo owładnięte trendem GreenIT, wiecie już, jakim kryterium możecie się posłużyć.
Pamiętajcie jednak, że test ten bazuje na oprogramowaniu J2EE i ma charakter wybiórczy, ale lepszy taki, niż żaden. :-)