sobota, 23 października 2010

Co zmienia na rynku premiera Ati Barts / Radeon 68x0?

AMD przedstawiło dwie pierwsze karty z grupy Northern Islands, znane pod nazwą kodową Barts: AMD Radeon 6850 i 6870. Polecam Waszej uwadze artykuł na ich temat na AnandTech tutaj.
Pomyślałem, że przyda Wam się odniesienie tych nowych kart na tle dostępnych w polskich warunkach pozycji DirectX11:


nVidia GeForceorient. cenaATI Radeon HD
GTX 480
1600-2100zł
-
-
1310-1820zł
5870
GTX 470
900-1360zł
-
-
900-1250zł
6870/5850
GTX 465
790-1000zł
-
GTX 460 1GB
700-870zł
-
-
~660zł
6850
GTX 460 768MB
610-690zł
5830
GTS 450
440-660zł
5770/5750
-
370-410zł
5670
GT 430
280-370zł
5570

(pomysł zapożyczony z AnandTech, ceny z www.komputronik.pl)
Jeżeli chcecie grać w aktualne tytuły DirectX 10 i 11, to z dużym przybliżeniem można przyjąć, że dla:
- 1280x1024/1366x768 możecie celować w GTS 450/5770/5750 (w wybranych tytułach 5670)
- 1680x1050/1600x900 trzeba już wziąć co najmniej GTX460 768MB [wkrótce 6850]
- 1920x1200/1920x1080 konieczne będzie ograniczenie ustawień i sięgnięcie po 5850 / GTX470 [wkrótce 6870]
- 1920x1200/1920x1080 przy maksymalnych ustawieniach na ogół pozostanie tylko 5870 / GTX480
Mam nadzieję, że to zestawienie pomoże Wam w wyborze nowej karty graficznej bez przedzierania się przez tony testów. Pamiętajcie jednak, że najlepszym rozwiązaniem jest przeanalizowanie testów konkretnego modelu karty graficznej z wybranym przez Was tytułem gry (Google Search pomoże ;).

piątek, 22 października 2010

Cechy, o które warto pytać przy zakupie laptopa

Zbliżają się święta Bożego Narodzenia i widzę już w ofertach sklepów poruszenie na półkach z laptopami. Dostawcy stają na głowie, aby dostarczyć lśniące nowości i przegonić konkurencję. Chciałbym się z Wami podzielić refleksjami z analizy nowych modeli laptopów. Postaram się napisać na tyle szeroko, by objąć różne segmenty tego rynku.
Za podstawę konfiguracji warto obecnie przyjąć rozwiązania oparte o procesory Intel z rodziny Arrandale (najciekawsze to: i5 460M, i3 330M, Celeron M P4600), pamiętając o zastosowaniu dwóch modułów pamięci RAM o łącznej pojemności mnie mniejszej niż 2GB, aby uzyskać pełną przepustowość dostępu do pamięci operacyjnej. Osoby łaknące czterech rdzeni obliczeniowych zapewne same wybiorą sobie procesor. Użytkownicy netbooków powinni szukać dwurdzeniowych procesorów z rodziny Intel Atom (330, D510, D525, N550) i pamięci co najmniej 1GB. W zakresie generalnych zaleceń: pamiętajcie proszę o gwarancji na sprzęt, bo zwykle używamy laptopów pomiędzy 3 a 4 lata. Obecnie są możliwości przedłużenia gwarancji do 3 lat. Ponadto przed zakupem sprawdźcie, czy klawiatura i touchpad nadają się do użycia, bo coraz częściej spotykam okazjonalnie wycenione buble w sklepach. Warto też zwrócić uwagę na masę laptopa wraz z zasilaczem - wszystko powyżej 3,5kg nie nazwałbym mobilnym (potrzebny porządny plecak). 
Poniżej opisuję cechy, których warto poszukiwać lub w które warto laptopa doposażyć wraz z krótkim uzasadnieniem:
  • dysk SSD lub hybrydowy
Dysk mechaniczny to najwolniejszy element naszych PCtów. Płacąc 10x więcej za 1GB pojemności SSD otrzymujemy 10x krótszy czas dostępu oraz nawet 2x wyższy transfer, przy czym eliminujemy kłopotliwą podatność laptopa na wstrząsy. Polecam rozwiązania oparte o układ SanForce SF-1200. Ewentualnie można zastosować rozwiązanie kompromisowe, używając bufora pamięci flash zintegrowanego w dysku twardym - Seagate Momentus XT - lub w napędzie optycznym - HLG Hybrid Drive (nie widziałem jeszcze w sklepach). Pojemności 50-128GB powinny zupełnie wystarczyć do codziennych prac, a większe zbiory danych lepiej przechowywać na zewnętrznym dysku twardym (sieciowym, USB 3.0 lub eSATA). Rozważcie samodzielny zakup dysku SSD i przełożenie dysku mechanicznego do obudowy zewnętrznej 2,5" USB 3.0 lub eSATAp.
  • system operacyjny
Większość zastosowań pozwala na używanie oprogramowania OpenSource - ja wybrałbym Ubuntu 10.10 Desktop. Uważam, że obecnie trzeba mieć konkretne powody, dla których chcielibyśmy zapłacić te 450zł za  MS Windows 7, np.: gry korzystające z akceleracji 3D, posiadane oprogramowanie działające tylko pod Windows lub nieuleczalne przyzwyczajenia. Użytkownicy biznesowi wybiorą "siódemkę" Professional lub Ultimate (z szyfrowaniem BitLocker) - będzie to raczej wybór IT, ale większość użytkowników prywatnych wybierze Home Premium. Cokolwiek wybierzecie rozważcie wybór 64bitowej platformy, ponieważ 32bitowe wersje oprogramowania w znakomitej większości działają tam poprawnie (ewentualne problemy mogą wystąpić ze sterownikami). Użytkownicy netbooków powinni rozważyć Ubuntu 10.10 Netbook, zaś w świecie Windows polecam raczej wybór MS Windows 7 Basic niż MS Windows XP (oba 32bit).
  • napęd optyczny
Jeżeli kupujecie drugi lub kolejny komputer to śmiało możecie zrezygnować z laptopa z napędem optycznym. Kupcie sobie lepiej szybkiego pendrive'a (np. Corsair Flash Voyager 2.0 16GB za ~100zł). Jeśli jednak pasjonuje Was kino wysokiej rozdzielczości, to zapytajcie o napęd combo z odczytem płyt BlueRay i zapisem-odczytem DVD+-RW.
4x wyższa przepustowość interfejsu względem wersji 2.0 (patrz tutaj) oraz zwiększone o połowę maksymalny pobór prądu daje gwarancję współpracy z peryferiami na przyszłość. Ta pozycja jest prawie obowiązkowa.
  • monitor, klawiatura i mysz + opcjonalnie stacja dokująca
Jeśli planujecie pracować na laptopie mniejszym niż 15" dużej niż 4 godziny dziennie to całkiem poważnie radzę Wam rozważenie skompletowania stacjonarnego stanowiska pracy. Ergonomia pracy małych laptopów jest tragiczna i nie pomogą nawet bambusowe podkładki pod nadgarstki. Wielu producentów oferuje stacje dokujące jako opcje (własne standardy), ale można też zakupić uniwersalne, podłączane pod port USB (np. takie). Można również podłączyć monitor, klawiaturę i mysz bezpośrednio do laptopa (tak pracuję w domu). Monitor rzędu 20" można kupić już za ok. 400zł, a mysz i klawiaturę za kolejne ok. 100zł. Zapewniam Was, że leczenie kręgosłupa po pracy na niewygodnym laptopie później będzie droższe niż ta inwestycja.
  • WiFi klasy "n"
Prawie każdy laptop posiada już zintegrowaną kartę sieci bezprzewodowych 802.11g (do 54Mbps), ale tylko część z nich gotowa jest do pracy w trybie 802.11n (do 150Mbps/kanał). Łatwiej jest wymienić router w domu (jest zwykle tańszy) niż kartę sieciową w laptopie, a przepustowość klasy "g", teoretycznie na poziomie 6,5 MB/s, jest już trudna do zaakceptowania (ponad 10min / płytka DVD) dla przeciętnego użytkownika. Już czas kupować tylko "n"-ki.
  • matowe pokrycie ekranu
Obecnie sprzedawane matryce laptopów na ogół są fatalne (z wyjątkiem co droższych produktów Apple i Sony). Są to zazwyczaj matryce TFT TN z krawędziowym podświetleniem LED. Jest to względnie tania, lekka, energooszczędna konstrukcja, więc wyparła z rynku inne. Niestety producenci chcąc zaradzić tragicznie niskiej jakości kolorów i kontrastu używają błyszczącego pokrycia matryc, sprawiając, że da się z nich komfortowo korzystać właściwie tylko mając półmrok za plecami. Nieco ratuje nas wysoka jasność tych matryc, więc czasem możemy "przekrzyczeć" odblaski. Jeśli macie okazję, wybierajcie matowe matryce.
    • port eSATA z zasilaniem - eSATAp
    Jeśli nie macie możliwości nabycia laptopa z portem USB 3.0, to rozglądajcie się za zewnętrznym portem SATA ze zintegrowanym zasilaniem. Świetnie sprawdza się do pracy z zewnętrznymi dyskami mechanicznymi 2.5" i nierzadko pozwala również startować komputer z takiego dysku (np. drugi system operacyjny).
    Możliwość pracy na zewnętrznym monitorze lub odtwarzanie obrazu i dźwięku na telewizorze jest ważna, a posiadanie jednego z tych dwóch interfejsów pozwoli Wam na to. Obecnie bardziej popularne jest HDMI, ale są tez dostępne odpowiednie konwertery. Pamiętajcie, że odtwarzanie zawartości 3D wymaga posiadania wyjścia HDMI w wersji 1.4a (tylko z kartami graficznymi nVidia GeForce 4xxM)
    • matowa obudowa
    Choć błyszczący plastik i metal zadaje szyku laptopom na wystawach, to generuje spore problemy w codziennej eksploatacji. Laptop jest urządzeniem osobistym i nawet największe czyściochy zawsze zostawią na nim ślady dotyku. Jeszcze gorzej wyglądają plastykowe powierzchnie po kilku miesiącach drapania, wycierania i nanoszenia warstw brudu czy tłuszczu. Szukajcie obudów nudnych = matowych. Znajdziecie je w segmencie biznesowym.
    • podświetlana klawiatura
    W ciemnościach nie widać napisów na klawiszach, a nie wszyscy piszą bez-wzrokowo (ja też nie). Wtedy nieodzowne jest podświetlenie klawiatury (patrz tutaj). Funkcja ta dotyczy szczególnie nocnych marków oraz osoby często podróżujące.
    • automatyczna regulacja podświetlenia matrycy
    Wielu znanych mi użytkowników nawet nie wie, że podświetlenie matrycy można regulować. Na co dzień regulują swoje oczy (czy raczej mózg) usiłując się dostosować do panujących warunków oświetleniowych. Tymczasem wiele konstrukcji laptopów (również monitorów i telewizorów) posiada dynamiczną automatyczną regulację jasności podświetlenia, co znacznie poprawia komfort pracy na laptopie.
    • dla graczy i entuzjastów wideo
    Decydując się na laptop do grania trzeba dobrze przemyśleć swój wybór i głęboko sięgnąć do portfela. Nie warto kupować starych i mało wydajnych układów (co najmniej GF 445M lub RM HD5750). Zawczasu sprawdźcie wymagania gier, jakie zamierzacie podbić. Upewnijcie się, że jest wsparcie dla DirectX 11 oraz dedykowana pamięć graficzna (wbrew obiegowym opiniom nie musi być duża, byle byłaby dedykowana i szybka - najlepiej GDDR5, ewentualnie GDDR3).
    Warto zainwestować w układ z rodziny nVidia GeForce 4xxM, aby skorzystać ze sprzętowej akceleracji PhysX, oszczędzania energii dzięki Optimus oraz 3D Vision. Ze stajni AMD polecam rodzinę ATI Radeon Mobility HD 5xxx.
    • Wireless Display
    Intel WiDi używa standardowego WiFi do przesyłania strumienia audio-wideo do odbiorników cyfrowych (np. telewizora). Standard obecnie nie wspiera FullHD - max. 1280x800 (bo korzysta z WiFi "g") i rzadko można spotkać telewizory z odpowiednim odbiornikiem, ale funkcja sama w sobie jest bardzo atrakcyjna i warto ją rozważyć. (nie cierpię kabli ciągnących się po pokoju!)


    Pamiętajcie, że laptop idealny nie istnieje, a nawet jeśli, to nie stać Was na niego. :-) Powyższe wskazówki być może pozwolą Wam na rozsądny wybór przy wybraniu z nich tych cech, na których Wam najbardziej zależy.

    czwartek, 21 października 2010

    Pozbądźmy się złudzeń - to tylko "ajti"

    Przeczytałem w Computerworld nr 36/905 artykuł pt. "Bez apoteozy IT" (patrz: apoteoza), będący wywiadem z dr Michałem Golińskim. Pan doktor dosadnie umieszcza technologie informatyczne w naszej codziennej rzeczywistości, pokazując, że w większości przypadków ma ona charakter jedynie wspomagający działalność podstawową. Rzeczywiście sam przemysł informatyczny jako taki nie dzierży lwiej części światowego rynku obrotu pieniądza, więc nie ulegajmy złudzeniom. 
    Lektura ta skłoniła mnie do refleksji, ponieważ kilkukrotnie już na szlaku mej aktywności zawodowej - nieustannie wypełnionej technologiami informatycznymi - miewałem wrażenie, że dobrze realizowane usługi informatyczne są warunkiem absolutnie koniecznym (choć wciąż nie wystarczającym) dla przetrwania organizacji, którym służyły. Na ogół szybko wracałem do zdrowej oceny sytuacji. O ile jest to prawda w przypadku biznesu on-line (za niedostępne w sieci strony nikt nie zapłaci), to otoczenie pełne jest przykładów zupełnie odwrotnych. Dla przykładu nasze rodzime służby porządkowe, ratownicze czy interwencyjne obywają się (nie bez bólu) bez wszechobecności technologii IT. O ile radiostacje pozostają dobrem niezbędnym, to już łączność pakietowa - niekoniecznie.
    Muszę też przyznać rację dr Golińskiemu w kwestii dodatkowych trudności i barier, jakie wprowadziły twarde rozwiązania informatyczne. Koleżanki i koledzy po fachu znają pojęcie pojedynczego punktu awarii oraz metod kalkulacji MTTF (im więcej elementów niezbędnych do działania, tym bardziej prawdopodobna awaria całości). Systemy IT często stanowią niebanalne (czytaj złożone) dopełnienie systemów dziedzinowych (np. turbiny parowej generującej elektryczność). Gdy sposób wykorzystania technologii IT zakłada jej niezawodność oraz niezbędność do normalnych operacji, każda ich awaria negatywnie wpływa na cały proces. Pracując przy wsparciu technicznym systemów IT widywałem niejednokrotnie sprawne samochody dostawcze, załadowane towarem czekające na wydruk z unieruchomionego systemu logistycznego czy też sprawne autobusy miejskie czekające na "zalogowanie się" na zmianie kierowcy (a pasażerowie marzli na przystankach).
    Tak jak silniki spalinowe nie zawsze są potrzebne i obowiązkowe, tak i technologie informatyczne powinny odnaleźć swoje miejsce w otaczającym nas świecie. Zgadzam się, że jest jeszcze wiele do poprawienia w kwestiach niezawodności, czy integracji systemów IT, ale powinniśmy też zawsze myśleć o tym, czy i jak możemy się bez nich obyć.

    niedziela, 10 października 2010

    Wirtualne miejsce spotkań

    Moja praca w branży IT przez ostatnie 10 lat zawsze wiązała się z dużą ilością kontaktów z dostawcami, użytkownikami, partnerami i współpracownikami. W miarę wzrostu wymagań, jakie przede mną stawiały codzienne obowiązki zwiększała się liczba spotkań, w których brałem udział, a ja orientowałem w coraz większym stopniu jako użytkownik mobilny. Około dwa lata temu przeżyłem apogeum podróży służbowych, które szczelnie wypełniały cały mój tydzień pracy. Wtedy sformułowałem swoje oczekiwania w stosunku do laptopa, smartphone'a i co do codziennych potrzeb komunikacyjnych. Obecnie spotykam się więcej niż wcześniej, ale wykorzystuję do tego głównie telekonferencje (głównie Microsoft Live Meeting), telefon oraz Instant Messaging. Dzięki organizacji spotkań w środowisku wirtualnym (głównie korzystam z laptopa) oszczędzam czas, siły i pieniądze unikając podróży służbowych. Oczywiście nie da się z nich zrezygnować zupełnie, ale udało mi się je ograniczyć do cyklów dwutygodniowych.
    W naturalny sposób rozglądam się za tanimi i dobrymi rozwiązaniami wideo-konferencyjnymi, aby poprawić sobie jakość tychże spotkań wirtualnych. Muszę przyznać, że bardzo trafia do mnie koncepcja teleobecności, ale odnoszę wrażenie, że mógłbym ją zrealizować na co dzień dopiero przy wykorzystaniu odrębnego ekranu i urządzenia połączeniowego tak, aby uniezależnić się od tego, co robię w trakcie spotkania na laptopie (np. uaktywnienie się skanowania antywirusowego unieruchamia przekaz fonii na kilkanaście sekund). 
    Tradycyjne zestawy wideokonferencyjne firm Tandberg (Cisco) czy Polycom występują na ogół w formie rozwiązań urządzeń instalowanych na stałe wraz z wystrojem wnętrza, oświetleniem i dedykowaną instalacją nagłośnieniową (segment cen rodem z Sci-Fi), urządzeń do samodzielnej instalacji w sali konferencyjnej (najczęściej do użycia z wielkoformatowym telewizorem) oraz urządzenia osobiste - na biurko. Tą ostatnią grupą jestem obecnie najbardziej zainteresowany. Niestety główni gracze oferują rozwiązania mocno skastomizowane, co prowadzi do nie akceptowalnie wysokich cen takich zestawów (np. Polycom HDX 4001). Gdyby doszło do rozpowszechnienia terminali wideo na rynku konsumenckim, byłaby szansa na obniżenie cen takich zestawów w segmencie personal tele-presence i być może jeden z nich trafiłby do mnie na biurko.
    Stąd też z uwagą przyglądałem premierze zestawów Logitech Revue oraz Panasonic KX-VC500. Logitech skorzystał ze swojego doświadczenia w zakresie produkcji kamer internetowych i mikrofonów, zaś samo urządzenie wyposażył w możliwość strumieniowania Google TV, co wskazuje na nastawienie na klienta domowego. Tymczasem Panasonic sięgnął po sprawdzone w boju konsumenckie kamery HD i dołącza mikrofony konferencyjne (umieszczane na środku stołu). Za wcześnie jeszcze, by mówić o cenach, ale jest to ważny krok w budowie rynku prawdziwej konferencji w teleobecności. Prawdziwym przełomem jednak byłoby integrowanie kamer web w telewizorach wraz z wysokiej jakości mikrofonami oraz systemem aktywnej kasacji dźwięków tła (jak najbardziej możliwe). Pożyjemy - zobaczymy...
    Przy okazji zwróćcie uwagę, że wokół naszych telewizorów domowych zaroiło się ostatnio od różnych przystawek (set-top box): tunery telewizji satelitarnej, kablowej, DVB-T, odtwarzaczy DVD/Blueray, konsol do gier i wreszcie odtwarzaczy telewizji pakietowej (np. Apple TV). Nadarza się okazja na zestandaryzowanie rozbudowywalnej uniwersalnej przystawki do telewizorów, która mogłaby połączyć wszystkie te funkcje (hmm.. brzmi jak stare dobre HTPC). Upatruję w tym po raz kolejny możliwości zbudowania taniej końcówki wideokonferencyjnej, korzystając z efektów skali na rynku konsumenckim (napędzanym głównie przez odbiorców telewizji). Dobrym początkiem takiej standaryzacji jest inicjatywa DLNA, ale obecnie w niewielkim stopniu przybliża nas to do tanich wideokonferencji. Naturalnym kandydatem na standard połączeń byłby SIP zaś głównym dostawcą serwerów konferencyjnych - nasi operatorzy telekomunikacyjni. Efektem ubocznym byłoby zintegrowanie tradycyjnego telefonu oraz dodanie usług tekstowych (np. Jabber). Z uwagi na tanie układy kodująco-dekodujące (codec) możnaby zastosować H.264 jako standard kompresji transmisji.
    Gdy wyobrażę sobie zestandaryzowane urządzenie współpracujące z telewizorem, wyposażonym w mikrofony i kamerę wideo, niezwłocznie kojarzą mi się nowe możliwości sterowania interfejsem użytkownika w stylu Microsoft Natal. Oczywiście tworzy to ocean nowych możliwości, a rynek konsol pokazał nam, że musiałoby to być urządzenie o w miarę niezmiennych charakterystykach w czasie dla uzyskania możliwości produkcji masowej i integracji modułów rozszerzeń. Jednakże to właśnie konsole są obecnie najbliżej spełnienia powyżej opisanej wizji. Może wystarczy wprowadzić jedynie do DLNA obsługę kamery i mikrofonu, a następnie wprowadzić do produkcji tak wyposażone telewizory, a producenci przystawek - czymkolwiek by one nie były - zadbaliby już o implementację teleobecności? Trudno powiedzieć. W mojej ocenie będzie to kolejny milowy krok w ewolucji cyfrowej w domu i na biurku.

    środa, 6 października 2010

    Idealna pamięć masowa do centrum obliczeniowego

    AnandTech IT opublikował właśnie tutaj artykuł na temat budowy własnego rozwiązania pamięci masowej. Od co najmniej 1,5 roku przewidywałem możliwość budowy taniego rozwiązania SAN/NAS w oparciu o model podwójnego bufora danych, jaki wprowadzono w ZFS. Upatrywałem w produktach rodziny Storage na stronach SuperMicro odpowiedniej obudowy do skonstruowania takiej macierzy. Cieszę się, że Matt sprawdził dla mnie sformułowane wcześniej przeze mnie hipotezy. :-)
    Za ok. 21 tys. zł netto udało im się zbudować macierz dyskową o 18TB surowej pojemności dostępne w formie iSCSI lub CIFS/SMB poprzez dwa interfejsy GE, z wykorzystaniem OpenSolaris i Nexenta, osiągając jednocześnie od 110% do nawet czterokrotnej wydajności rozwiązania Promise M610i. Z doświadczenia wiem, że rozwiązania wielkich dostawców tej klasy są zwykle od dwóch do ośmiu razy droższe, nie licząc wsparcia technicznego. To potencjalne pole do ogromnych korzyści w naszych centrach obliczeniowych (wyższa wydajność niż produkty komercyjne, niższa cena, lepsza kontrola konfiguracji, dowolność rozbudowy, możliwość częstej rozbudowy). Mam nadzieję, że nadarzy mi się okazja do implementacji takiego rozwiązania...

    sobota, 2 października 2010

    Mój komputer - podsumowanie

    Minął już miesiąc odkąd cieszę się moim "nowym-starym" komputerem domowym (szerzej tutaj). Starałem się zdobyć szerokie spojrzenie na jego użyteczność jako urządzenia domowego w minionym czasie. Najpierw może poświęcę parę słów wydajności samej platformy.
    • wydajność zagregowana stało-przecinkowa to: 25,36 GOPS (miliardów operacji na sekundę),
    • wydajność Dhrystone stało-przecinkowa ALU to: 30,85 GIPS (miliardów instrukcji na sekundę),
    • wydajność Whetstone zmienno-przecinkowa SSE3 to: 19,86 GFLOPS (miliardów zmiennoprzecinkowych operacji na sekundę).
    Dla porównania z aktualnie dostępnymi procesorami na rynku jest to średnio około 3/4 wydajności Intel Core i3 530 2,93GHz (~395zł) i około 10% więcej niż da nam AMD Phenom II X2 555 3,2GHz (~325zł) lub Athlon II X2 260 3,2GHz (~250zł).
    Natomiast szeroko używany benchmark DirectX9.0c - FutureMark 3DMark 06 v1.2 w 1280x1024 przy domyślnych ustawieniach wskazuje (karta graficzna pracowała w trybie: @700MHz / 512MB GDDR5 @1150MHz):
    • 3DMark score: 12270
    • CPU score: 2621
    Według rankingu 3Dmark'06 na benchmark.pl tutaj jest to wydajność porównywalna z nVidia GeForce GTS250 (~385zł) / 9600GT / 9800GT(X) / 8800GT lub ATI Radeon 5670 (~360zł) / 4870 / 4850 / 3870. Patrząc szerzej na rynek widzę, że najbardziej atrakcyjną alternatywą byłby nVidia GeForce GTS 450 (~435zł), o czym więcej poczytacie tutaj.
    W tym momencie chciałbym zwrócić Waszą uwagę jeden istotny dla mnie fakt - Gdybym chciał uzyskać tego rzędu wydajność w grach, ale w formie laptopa, to zgodnie z danymi dostępnymi tutaj musiałbym poszukać notebooka wyposażonego co najmniej w ATI Mobility Radeon 5870 lub nVidia GeForce 280M / GT 460M / GT 470M. W zakresie procesora zaś szukałbym urządzenia wyposażonego w Intel Core i3 350M lub Intel Core Extreme X9100, kierując zestawieniem dostępnym tutaj. Przykładem laptopa o podobnej wydajności (brak wsparcia DirectX 11) na "polską kieszeń" może być: Aristo Vision i685-E44L43 (Intel Core2 Duo T9600 4GB 500GB 18,4'' GFGTX280M Blu-ray COMBO NoOS), lecz musimy się liczyć z wydatkiem ok. 8000zł i prawdopodobnie obniżeniem rozdzielczości w grach z natywnych 1920x1080 do ~1366x768, aby nacieszyć się płynną wizualizacją. Dodatkowo według mnie pozyskanie niemal 6kg laptopa pobierającego 220W zupełnie mija się z celem. Wnioski nasuwają się same - możliwość cieszenia się najnowszymi tytułami gier w laptopach jest obecnie drogie i kłopotliwe. Najłatwiejszą drogą jest zakup konsoli do gier, ale komputer stacjonarny wciąż jest rozsądną kosztowo alternatywą.
    Wracając jednak do mojego DELL OptiPlex 360. Zapewne zapytacie, jak się gra. Muszę przyznać, że jestem pozytywnie zaskoczony - MS Windows 7 Home Premium x64 jest stabilny i nie napotkałem jakichkolwiek problemów w dziedzinie kompatybilności.
    Wiedźmin Wersja Rozszerzona z poprawkami 1.5 doskonale czuje się przy maksymalnych ustawieniach w mej natywnej rozdzielczości 1280x1024. Z przyjemnością odbieram efekty pracy grafików z CD Projekt RED, aczkolwiek w porównaniu z aktualnymi tytułami wykorzystane efekty dają odczuć już wiek. Stąd też rozglądnąłem się za demami aktualnie wychodzących tytułów. Cóż - czekam na drugą część przygód Geralta.
    Zapoznałem się z wersjami demonstracyjnymi gier: Metro 2033, Batman Arkham Asylum, ArcaniA Gothic 4Need for Speed ProStreet oraz Lost Planet 2 Benchmark. Z wyjątkiem ostatniego tytułu, operowanie w 1280x1024 nie przysparza problemów (powyżej 30fps). Niestety brak wsparcia sprzętowego dla PhysX eliminuje możliwość cieszenia się z najnowszych osiągnięć technicznych w zakresie animacji obiektów w ruchu (szczególnie interesowała mnie animacja zachowania materiału ubrań bohaterów - polecam przykład z Mafia II dostępny tutaj). Tyle wniosków na teraz. Jak widzicie są jeszcze nisze, gdzie komputery stacjonarne mają swoje miejsce.