niedziela, 26 grudnia 2010

Moje środki transportu

Na co dzień używam tramwajów, metra i przemieszczam się pieszo. W mieście te sposoby wydają się być najtańsze i jednocześnie najbardziej niezawodne. Na to Boże Narodzenie udałem się samochodem. Jechałem 6,5godz., więc miałem czas się zastanowić nad operacją przemieszczenia mnie, plecaka i mojej walizki 420km dalej. Otóż zużyłem 21,5 litra oleju napędowego do przemieszczenia 80kg mojego ciała z ubraniem, 7kg plecaka i 8kg walizki - razem 95kg - za pomocą pojazdu o masie własnej 1220kg. Tak więc 92,2% masy całkowitej stanowiło na tej trasie moje auto. Użytkuję względnie wydajny silnik o sprawności rzędu 40%, czyli 8,6 litra paliwa faktycznie przyczyniło się to przemieszczania auta ze mną wewnątrz. Patrząc proporcjonalnie 680ml paliwa kosztowało przewiezienie mnie z bagażami. Niestety jest to bardzo uproszczone myślenie, bo nie da się traktować auta oddzielnie od kierowcy, a na sprawność przekształcania oleju w energię kinetyczną wpływa mnóstwo czynników.
Zastanawiałem się, czy jest możliwe poprawienie stosunku masy pasażera do pojazdu, co powinno poprawić sprawność przynajmniej przyspieszania i hamowania (zakładam, że utrzymywanie stałej prędkości zależy od oporów, które mogą w różnym  stopniu zależeć od masy pojazdu). Weźmy takiego SegWaya i2 (opis tutaj) - 48kg masy, napęd elektryczny. Co prawda nie wziąłbym walizki i nie wyjechałbym nim poza miasto (20km/h), ale przynajmniej ważyłbym więcej niż pojazd. Zużywa on ~1kWh na 32km - maksymalny zasięg, co daje ~0,3kWh/km. 
Jeżeli ufać WikiPedia mój silnik powinien generować 1kWh z każdym ~160g oleju napędowego. 21,5 litra oleju waży ~17900g (0,832kg/l), czyli silnik powinien był wygenerować ~111,8kWh (zauważcie - średnio 17,2kW, czyli 23KM). Jeśli przyjmę, że wydatkowałem 110kWh / 420km = 0,26 kWh/km.  Jakby nie patrzeć SegWay wypada bardziej przyjaźnie dla środowiska niż moje auto.
Weźmy dla porównania produkowany w Polsce pojazd elektryczny SAM Re-Volt. Posiada on masę 487kg, więc stanowiłbym w nim 16,3% masy całkowitej wraz z walizką. Z pomocą akumulatorów o pojemności 7kWh mógłbym przejechać do 100km, co daje ~0,07kWh/km dwukrotnie więcej energii niż SegWay, ale wciąż 4x oszczędniej niż autem. Niestety do domu bym nie dojechał z racji ograniczonego zasięgu.
Zerknąłem też na wyniki Toyoty Priusa, ale widzę, że jest on niewiele efektywniejszy energetycznie od mojego auta. 
Silniki elektryczne w połączeniu z akumulatorami litowo-jonowymi pozwalają na produkcję małych i wydajnych energetycznie pojazdów, ale o ograniczonym zakresie zastosowania. Musimy poczekać na bardziej wydajne akumulatory, aby móc z nich korzystać w trasie. Obecnie pozostaje nam tylko dbać o opony, łożyska, silniki i jeździć tak ekonomicznie jak to możliwe.
Swoją drogą ciekawe, jak się prezentują środki transportu publicznego pod względem wydajności energetycznej...

Cyfrowy dom 2012

Dzisiaj dyskutowałem z Tatą (pozdrawiam) jaki będzie dalszy rozwój telekomunikacji z perspektywy domowego użytkownika. Doszedłem do wniosku, że najwyższy czas na łatwe i powszechnie dostępne połączenia wideokonferencyjne. Oto krótki przepis na wprowadzenie tego w życie:
Przemysł producentów telewizorów powinien wprowadzić standard montażu w telewizorach kamerek internetowych (o rozdzielczości co najmniej 720p - 1280x720), zintegrowanych mikrofonów, pilotów z pełną klawiaturą QWERTY na tylnej stronie oraz interfejsów sieciowych (WiFi 802.11g/n + 1000/100BaseT). Telewizory powinny być także wyposażane seryjnie w oprogramowanie posiadające obok przeglądarki web i klienta poczty IMAP/SMTP (koniecznie z obsługą SSL/TLS) klientów: wiadomości błyskawicznych XMPP i właśnie klientów audio/wideo SIP (z obsługą H264). Potrzebna nam do tego chwytliwa nazwa i zestaw standardów ją opisujący.
Tymczasem operatorzy telekomunikacyjni obok usługi transmisji danych do sieci Internet (>1,5Mbits/0,7Mbits) powinni oferować komplementarnie: hosting wymiany plików poprzez http (do wymiany dużych plików, przechowywania zdjęć, kopii zapasowych), hosting poczty e-mail, serwer wiadomości błyskawicznych (Instant Messaging) XMPP, mostek audio/wideo-konferencyjny SIP.
Tym sposobem otrzymując od operatora adres e-mail np. Edward.Nowoczesny@operator.pl, moglibyśmy go używać jako adresu wywołań XMPP oraz SIP (mile widziany Single Sign-on), zaś nasz telewizor stałby się centrum kontaktów. W ten sposób moglibyśmy wykonywać wideo połączenia np. nieodpłatnie w obrębie sieci naszego operatora i odpłatnie do innych sieci, czy też klientów XMPP/SIP na komputerach w sieci Internet. Od razu nasuwa mi się wniosek, że konieczne będzie używanie słuchawek z mikrofonem w niektórych przypadkach, dla zapewnienia poufności rozmów (okazja dla producentów telewizorów). Jednocześnie operatorzy telekomunikacyjni mogliby skorzystać z okazji sprzedania usług udostępnienia publicznych numerów telefonów skojarzonych z kontem SIP.
Czy jest to odległa wizja? Moim zdaniem nie, bo implementacja jest naprawdę łatwa. Już wprowadzenie DLNA do telewizorów pokazało, że przemysł chętnie montuje małe komputerki pod kontrolą Linux w obudowach TV, a tam łatwo o darmowych (Free OpenSource) klientów web, e-mail, Instant Messaging, SIP (VoIP czy Video-conference). Kamerki i mikrofony są integrowane za małe pieniądze w laptopach z powodzeniem od lat. Piloty dwustronne powoli się już pojawiają (np. taki). Implementacja serwerów XMPP i SIP nawet w skali operatorów jest już wykonalna, także przy użyciu darmowego oprogramowania. Problemem pozostaje tylko zmiana modelu biznesowego w telekomunikacji na oparte wyłącznie na transmisji danych w oparciu o protokół IP.
Uważam, że inicjatywa powinna wyjść od producentów elektroniki użytkowej w formie implementacji pokazowych. Ciała standaryzujące mogłyby pomóc w nazwaniu standardowego wyposażenia telewizorów. Na końcu telekomy musiałyby zaproponować odpowiedni model biznesowy implementacji tych rozwiązań. Patrząc na inne rewolucyjne nowości dookoła myślę, że do 2012 ta idea mogłby wejść w nasze życie codzienne.

niedziela, 19 grudnia 2010

Podsumowanie sytuacji na rynku kart graficznych

Ostatnio przemilczałem premiery AMD Radeon HD 69x0 oraz nVidia GeForce GTX 5x0, co nie znaczy, że je zaniedbałem. Uznałem, że nie wnoszą nic istotnego, co mogłoby wpływać na Wasze decyzje zakupowe. Otóż oba układy graficzne są wykonane w zbliżonym procesie technologicznym , co ich poprzednicy - 40nm i nie wnoszą obsługi żadnych istotnych API. Ponieważ jednak nowe karty wchodzą już do sklepów, postanowiłem zobrazować Wam poziom wydajności, jakiego należy się spodziewać.
W tym celu wziąłem z 4 testów przeprowadzonych przez AnandTech średnią liczbę klatek na sekundę dla każdej z kart graficznych zmierzonych w rozdzielczości 1680x1050 w teście FrostBench, przy ustawieniach jakości "Gamer Quality" oraz "Enthusiast Shaders" z filtrowaniem 4xAA:


nVidia GeForceśr. FPS w Crysis WarheadATI Radeon HD
GTX 580
56,9
-
-
51,5
6970
GTX 480
50,7
-
-
48,6
6950
GTX 570
48,5
-
-
45,9
5870
-
41,2
6870
GTX 470
40,4
-
-
38,8
5850
-
36,1
6850
GTX 460
34,2
-
-
32,7
5830
-
28,6
5770
GTS 450
26,1
-
-
25,1
5750
-
16,9
5670
-
12,3
5570
GT 430
11,4
-

(pomysł zapożyczony z AnandTech, wyniki: 1,2,3,4)
Niestety Crysis Warhead używa tylko DirectX 10, ale, jako taki, jest na tyle popularny, że mogłem pozyskać wyniki, które dają reprezentatywne porównanie również pomiędzy różnymi segmentami rynku z punktu widzenia wydajności układów.
Jak widzicie schodzenie poniżej GTS 450 (~450zł) mija się z celem. Z drugiej strony przekraczanie granicy ~1000zł za kartę graficzną wydaje mi się być dyskusyjne (powyżej GTX 470 / 5850). Realnej poprawy wydajności, ceny, poboru mocy powinniśmy się spodziewać najwcześniej w drugiej połowie 2011, gdy zaczną pojawiać się rozwiązania wykonane w nowocześniejszym procesie technologicznym 28nm.
[UPDATE 2010-12-26] Przychylam się do komentarza klmn - nowe Radeony 6950 stają się atrakcyjną cenowo alternatywą dla GTX 570 na naszym rynku. Z tego punktu widzenia ich premiera ma znaczenie dla naszego rynku. :-) 

Unbiased rendering trafia pod strzechy

Dzisiaj chciałem Wam przedstawić projekt, który zrealizował znajomy grafik amator - Grzegorz (pozdrawiam i dziękuję). Planował odświeżyć swój warsztat 3D, który służył mu do modelowania obiektów i postaci do potrzeb wizualizacji oraz użycia w projektach wirtualnej rzeczywistości (m.in. w grach). Kolega domyślnie pracował na Apple iMac 27" przy użyciu pakietu Maya. Przy złożonych geometrycznie scenach musiał czekać na podgląd szczegółów projektowanej sceny na tyle długo, że istotnie utrudniało to pracę nad projektami.
Tutaj pojawił się pomysł użycia drugiej maszyny w sieci LAN, która mogłaby w tle zajmować się renderowaniem wybranej sceny. Ze względu na niedoścignioną jakość obrazów pochodzących z silników typu unbiased (w dużym skrócie symulator zachowania fal świetlnych z punktu widzenia zdefiniowanego obserwatora), wybór padł na silnik Refractive Software OctaneRender (dla lepszego zrozumienia polecam Wam ten filmik). Uwagę przykuwa możliwość wykorzystania do tych obliczeń kart graficznych posiadających zdolność wykonywania kodu CUDA. Co więcej silnik ten z radością przyjmuje kolejne karty graficzne, równomiernie rozkładając pracę pomiędzy nie. Ponieważ oprogramowanie to wykorzystuje GPGPU, a nie standardowy interfejs wizualizacji 3D typu DirectX lub OpenGL, to nie ma potrzeby łączenia kart graficznych mostkami, w celu włączenia trybu SLI. To zaś oznacza, że nie trzeba inwestować w płyty główne zapewniające wsparcie dla SLI. Zaproponowałem więc koledze następującą konfigurację:
Ostatecznie cena komputera bez monitora zamknęła się w ~6000 tys zł. (Jedna z kart została zamieniona na GTX460).
Jeżeli przyjmiemy w uproszczeniu, że silnik renderujący wykonuje głównie obliczenia o charakterze zmienno-przecinkowym, to wartość teoretyczna dla samego procesora Phenom II X4 945 to ~48 GFlops (4 miliardy operacji zmienno-przenikowych na każdy gigaherco-rdzeń) tymczasem teoretyczna moc jednej karty GTX470 to ~1632 GFlops, co przy trzech kartach daje ~4896 GFlops (100x wyższa niż CPU).
Niestety niełatwo jest zająć wszystkie 3*448=1344 jednostek obliczeniowych CUDA w trakcie renderowania, co przekłada się na relatywnie niższą wydajność. Tym niemniej wciąż jest to daleko więcej niż na CPU.
Zestaw obecnie pracuje prawidłowo (od 3 miesięcy) i nie przysparza problemów użytkownikowi, dostarczając w tle renderingów o wysokiej jakości, a gdy trzeba - również "zaszumionych" jeszcze podglądów prawie natychmiast. Subiektywnie rzecz biorąc czas oczekiwania na wyniki renderingu skrócił się kilkukrotnie, ale trudno porównywać wyniki renderowania tradycyjnego i unbiased, więc nie mogę podać żadnych wartości mierzalnych do porównania.
Jak widzicie przed grafikami 3D otwiera się nowa droga do zwiększenia wydajności obliczeniowej przy relatywnie niskich kosztach wejścia. Nie jest to krok w rodzaju "jeszcze dwa rdzenie procesora", ale skok w kierunku nawet do kilkudziesięciu razy szybszego przetwarzania. Użytkownikom kart AMD/ATI polecam LuxRender, który posiada już eksperymentalne wsparcie dla OpenCL w postaci LuxRenderGPU (czytaj tutaj). Jeżeli macie jakieś doświadczenia w zakresie wykorzystania GPGPU do renderowania, to proszę podzielcie się ze mną wiedzą w tym zakresie.

sobota, 18 grudnia 2010

Value 4 Money

Kontynuując temat zakupu laptopa, chciałbym się zreflektować: 
Mało kto chciałby wydawać na notebook ponad 3 tys. zł w okresie przed-świątecznym. Przestudiowałem dostępne obecnie produkty na rynku, aby znaleźć odpowiedź na pytanie, jak wydajny, pojemny, wszechstronny laptop można kupić w cenie ~2 tys. zł. Ustaliłem, że w segmencie entry najrozsądniejszymi konfiguracjami są notebooki wyposażone w:
  • matrycę TN 15,6" 1366x768 z błyszczącą powłoką,
  • procesor intel Pentium P6100 (ewentualnie P6000 lub P6200),
  • 2GB RAM DDR3,
  • dysk twardy 250/320/500GB,
  • MS Windows 7 HP.
Ceny oscylują pomiędzy 1700 a 2100zł, a przykładowe modele, to: Acer 5742z / e732z / e730G / 5740G, Toshiba Sattelite C650 / C660, HP G62 / 4520s / dv6-3010sw, Lenovo IdeaPad G560L, Asus K52F / K52JC / X52JE, MSI CX623, Samsung R540.
W większości przypadków są to ciężkie laptopy ~2,8kg, o plastikowej konstrukcji i błyszczących wykończeniach. Należy się spodziewać bardzo niskiej jakości odwzorowania kolorów i trudności z odczytaniem ekranu inaczej niż idealnie na wprost. Przy standardowym wykorzystaniu Win7 nie spodziewałbym się jakichkolwiek problemów wydajnościowych, ale trzeba zrezygnować z tytułów gier 3D z ostatnich 2 lat.

Laptop z dobrą matrycą? Niemożliwe...

Właśnie zauważyłem, że na polskich stronach DELLa jest dostępny laptop XPS 15 z opcją matrycy 15,6" FHD B+RGLED TL (1920x1080) 1080p (czytaj tutaj). 
Według konfiguratora na stronach producenta, można kupić konfigurację:
  • Intel® Core™ i3-370M (2.4Ghz, 4Threads, 3M cache)
  • Windows® 7 Home Premium (64 bit) , wersja polska
  • 4096MB 1333MHz Dual Channel DDR3 SDRAM [2x2048]
  • 8x DVD+/-RW Optical Drive
  • 500GB (7,200rpm) Serial ATA Hard Drive
  • 1GB NVIDIA® GeForce® GT 420M Graphics Card
  • 6-cell 56Whr Lithium Ion battery
  • 15.6 FHD B+RGLED TL (1920x1080) 1080p
  • 90W AC Adaptor
  • Intel® Centrino® Wireless-N 1000
za ok. ~4260zł brutto z dostawą. Nie jest tanio, ale to unikalna matryca w tym segmencie cenowym. Ten laptop posiada dwa porty USB 3.0. 

Laptop dla gracza

Jak już pisałem - jeżeli zależy Wam na możliwości grania w aktualne tytuły (idą Święta), to aktualnie najrozsądniej jest celować w laptopy z dedykowanymi układami graficznymi z rodziny nVidia GeForce GTx 4xxM. Krótka argumentacja: Dx11, Optimus, PhysX, HDMI 1.4a, CUDA.
Aby łatwiej Wam było podjąć decyzję wykonałem kilka obliczeń na poziomie teoretycznej mocy obliczeniowej układów dostępnych na polskim rynku w odniesieniu do ich analogów dla komputerów stacjonarnych:
Podkreślam, że są to porównania teoretyczne. Lepsze jednak takie niż żadne.
Dla Waszej informacji karty graficzne oparte o GeForce GTS 450 uznawane są za absolutne minimum przy standardowych ustawieniach w rozdzielczości 1920x1080 w aktualnie wydawanych tytułach gier (DirectX 10 i 11). Jeżeli faktycznie szukacie takiego laptopa, to rzućcie okiem na wyniki wyszukiwania na stronach Komputronik tutaj. Jak widać jest to wydatek rzędu 5-7 tys. zł. Cóż - mobilność kosztuje.
Układy 425M, 420M i 415M mają niską lub nawet symboliczna wydajność, ale przy użytkowaniu niższych rozdzielczości - np. 1366x768 - można próbować grania przy obniżonych ustawieniach. W tym przypadku ceny zaczynają się już od 3 tys. zł.

Higiena urządzeń elektronicznych

Telefon komórkowy, slate (iPad i ETEN), laptop, laptop domowy, komputer stacjonarny, monitor, klawiatury, myszy, piloty, zasilacze, listwy zasilania, urządzenia sieciowe - wszystko to dzielnie służy mej cyfrowej codzienności. Niestety od czasu do czasu wymaga nieco czyszczenia, aby nadal sprawnie działać, dobrze wyglądać, nie zamieniać się w reaktor biologiczny czy też aby można było się od tego odlepić. Pomyślcie:
  • Jak często dotykamy telefonu komórkowego w ciągu dnia?
  • Czego dotykaliśmy przed pracą na klawiaturze lub touchpadzie?
  • Ile plam, mikroorganizmów i pyłków zasłania nam na co dzień świat wirtualny na ciężko odżałowanym ekranie? (ile pikseli w tej chwili nie pracuje prawidłowo?)
Mam takie wyobrażenie, że najczęściej dotykane sprzęty domowe czyścimy co tydzień lub co najmniej raz w miesiącu. A jak jest z urządzeniami elektronicznymi? Ano różnie. 
Służby sprzątające biura nie tykają się sprzętu IT, więc można łatwo zaobserwować jak użytkownicy dbają o czystość użytkowanego sprzętu.
Spróbuję podzielić się z Wami moimi sposobami przeciwdziałania zarastaniu brudem mojej elektroniki.
Moja klawiatura służbowa i mysz na bieżąco łapią tłuszcz wydzielany przez pory na skórze moich dłoni, zanieczyszczenia, jakie przynoszę oraz unoszący się kurz. Raz w tygodniu zwykle używam pianki antystatycznej na alkoholu i szmatki nie zostawiającej włókien, aby zapanować nad tym brudem. To wystarcza.
Ekran - na szczęście już LCD TFT - wymaga przetarcia specjalnym alkoholem w atomizerze raz na dwa tygodnie. Odradzam używanie chusteczek higienicznych. Zwykle i tak potem trzeba szmatką usuwać fragmenty papieru z chusteczki.
W stosunku do klawiatur, pilotów, listew zasilających, slate'ów, laptopów i komórki używam odkurzacza z ssawką z długim włosiem. Co dwa tygodnie wysysam w ten sposób kurz z tych urządzeń. Potem tylko przetarcie szmatką  i płynem do mycia szyb i gotowe. Oczywiście do ekranów u używam dedykowanego płynu i szmatki.
Muszę przyznać, że brud jest najlepiej widoczny na ekranach dotykowych. iPad jest chyba najlepszym testem na mycie rąk. Ten ekran łapie nawet minimalne ilości tłuszczu.
Namawiam Was na objęcie programem sprzątania mieszkania również urządzenia elektroniczne. Dobrze utrzymane urządzenie prawidłowo wyświetla obraz / funkcjonuje i nie "zaśmieca" naszej przestrzeni życiowej.


Koncentrat

Eh.. mam znacznie mniej czasu na pisanie niż chciałbym mieć. Postanowiłem więc "zrzucić" tu kilka fascynacji, których nie zdążę opisać i skomentować:
  • Word Lens to pierwsza sensowna w mojej ocenie implementacja koncepcji Rzeczywistości Rozszerzonej (Augumented Reality). Wkładam to na listę rzeczy, które "muszę" mieć.
  • Ostatnio nabyłem Apple iPhone 3GS z iOS 4.2 (podziękowania dla Bartka, pozdrowienia dla Gabrysi) i chciałem Wam powiedzieć, że w przeciwieństwie do jego poprzednika ten produkt nadaje się do użytkowania jako smartphone. Troszkę przytłacza go aktualne oprogramowanie i wymaga ładowania w każdym napotkanym gniazdku zasilania (nigdy nie rozstawaj się z ładowarką), ale jest prawdziwym oknem na świat wirtualny. Cena używanych modeli jest już akceptowalna ~1100zł (Uważajcie jednak na stare egzemplarze, bo nie ma prostego sposobu na wymianę akumulatora). 
  • Rozpoczęto przedsprzedaż Wiedźmin 2 na gog.com tutaj.
  • Użytkownikom telefonów z oprogramowaniem Nokia S60 polecam dostępną za darmo w sklepie OVI przeglądarkę Opera Mobile 10. Wreszcie mogę korzystać z http na moim E71! Ona na prawdę działa.
  • Ostatnio pograłem nieco na PS3 z użyciem kontrolera Move (Podziękowania dla Marcina M.). Przy użyciu telewizora HD >40" daje to fantastyczny efekt. To jest zupełnie nowa jakość zabawy (mam także szacunek dla technologii Nitendo Wii Motion oraz MS Kinect). Interakcja z grą za pomocą tej kolorowej pałeczki jest fantastyczna. Połączenie doskonałej grafiki PS3 z tą nową formą kontroli postaci gwarantuje lepszą imersję niż dotychczas. Szkoda, że nie można zgasić światła :-/.
  • Marcin C. zaprezentował mi (Dziękuję i pozdrawiam!) Samsung Galaxy S, pracujący pod kontrolą Android 2.2 (Froyo). Słuchajcie! Cztery cale Super AM-OLED to najlepszy ekran smartphone jaki widziałem. To urządzenie zdecydowanie bardziej mi odpowiada niż iPhone 4. To też trafia na listę życzeń.
  • Ostatnio stałem się fanem najnowszych ulepszeń w wyszukiwarce Google - autosugestii połączonej z natychmiastowym wyszukiwaniem oraz Instant Preview. W połączeniu z Chrome 9 Beta to prawdziwa rakieta. Teraz już nie zdarza mi się czekać na wyniki (nawet poprzez sieć 3G). Dobra robota Google!

niedziela, 5 grudnia 2010

Opakowania jednorazowe

Od kilku lat sortuję śmieci, bo wierzę, że recycling daje szansę na ograniczenie zniszczeń naszego otoczenia. Ostatnio przyjrzałem się plastykowym pojemnikom po płynie zmiękczającym, szamponie, mydle w płynie. Doszedłem do wniosku, że wyrzucam je w stanie zbliżonym do idealnego. Zamknięcia są sprawne i pozostają one szczelne. Właściwie można je łatwo oczyścić płucząc ciepłą wodą.
Swoją drogą jestem fanem automatów samo-obsługowych (nowe kasy w Carrefour, automaty ZTM w Warszawie i ich analogi w Brukseli czy Kopenhadze, automaty do zwrotu butelek w Czechach i na Słowacji) i te mogłyby nam pomóc w ponownym używaniu opakowań.
Dla przykładu chciałbym móc przyłożyć puste opakowanie do czytnika kodów paskowych / mozaikowych i po umieszczeniu opakowania na półce automatu otrzymać napełnienie go płacąc kartą lub gotówką. Końcówka mogłyby być płukana ciepłą wodą, wymienna lub wręcz inna dla każdego z produktów. Podejrzewam, że nawet utworzenie sieci takich automatów według własnego standardu dla takich potęg jak Unilever, Henkel, Procter&Gamble i tym podobnych mogłoby być opłacalne. Może kiedyś napotkam próbę wdrożenia takiego rozwiązania...

iPad jest już oficjalnie w sprzedaży w Polsce

Napotkałem w metrze informację, że iPad został oficjalnie wprowadzony do sprzedaży w Polsce.
Rzućcie okiem na ceny:
 źródło: iSpot.com.pl
Nie jest to okazja cenowa, ale są to już wartości bliższe ziemi.
Ja zaś powoli (bo mam ostatnio bardzo mało czasu) poznaję to urządzenie i znajduję dla niego nowe zastosowania. Poza korzystaniem z przeglądarki web, poczty e-mail i czytania plików HTML i PDF ostatnio zacząłem na nim nieco grać (ehh..), rysować, przeglądać pliki wektorowe oraz korzystać z płatnych tabloidów.
Zaktualizowałem system operacyjny do iOS 4.2.1 i teraz już jest to zupełnie rozsądna opcja do pisania krótkich wiadomości. Niestety nadal nie rozumiem logiki działania iTunes i jakoś nie znajduję czasu, żeby ją odkryć.
Akumulator urządzenia już zdecydowanie gorzej się sprawuje, bo obecnie ładuję go mniej więcej co 4 godziny używania. Krótki kabel połączeniowy właściwie uniemożliwia używanie iPada podczas ładowania.
Zauważyłem również, że wymiary tego tabletu mi odpowiadają, ale jego masa już nie - jest za ciężki. Po kilku godzinach nie potrafię odnaleźć sobie wygodnego sposobu trzymania go - dłonie mdleją.
Niestety po tych kilku miesiącach zaczynam coraz bardziej odczuwać problemy z kompatybilnością mobilnego Safari ze stronami Web. Oto kilka drażniących mnie przykładów:
  • strony napisane tylko w technologii Flash oczywiście z definicji odpadają
  • na ceneo.pl mam na środku pasek "Moje produkty" uniemożliwiający przeglądanie
  • na cinema-city.pl na stronie głównej nie ma formularza wyszukiwania seansów ani zakładki "Repertuar" (czerwona kartka dla web developera)
  • na radiozet.pl jestem przekierowywany na mobi.radiozet.pl bez opcji powrotu na "pełną" stronę
Zdecydowanie lepiej wypadają amerykańskie strony Web - prawdopodobnie ze względu na głębszą penetrację rynku przez iOS.

niedziela, 28 listopada 2010

Czy warto inwestować w 10GE

Dzisiaj polecam artykuł nt. kart sieciowych 10GE dostępny na AnandTech tutaj. Pokazuje on na kilku przykładach, dlaczego warto korzystać z nowoczesnych interfejsów 10GE planując poważną wirtualizację. Konsolidacja wielu połączeń w jedno połączenie 10GE przynosi korzyści, o ile uda się wykorzystać takie technologie jak VT-d / IOMMU oraz SR-IOV. Co ciekawe dopiero ta ostatnia technologia powinna faktycznie rozwiązać obciążanie procesorów serwera przez obsługę ruchu sieciowego. Tymczasem jest wspierana natywnie tylko przez najnowsze wersje Xen i KVM (ale nie przez bieżące wersje VMware ESX ani MS Hyper-V).
Polecam Wam więc poczekać na ESX 5 oraz karty sieciowe oparte na układzie intel 82599.

czwartek, 4 listopada 2010

Zmiana szablonu

Dzięki uwagom Dominika i pomocy kolegi odwróciłem kolory. Podobno tak będzie przyjemniej czytać.
Postaram się znaleźć czas, przy wyedytować kolory tekstu w przyszłym tygodniu...
Miłej lektury!

poniedziałek, 1 listopada 2010

Moja wizja przyszłości pamięci masowej

Informacja o rozpoczęciu prac nad użyciem pamięci NAND flash w postaci 2,5" modułów podłączanych bezpośrednio do magistrali PCI Express, jaką znalazłem na TechReport tutaj,  po raz kolejny potwierdziła mą tezę, że nie warto w dłuższym okresie stosować tak szybkich pamięci półprzewodnikowych poprzez tradycyjne kontrolery pamięci masowej. Skłoniło mnie to do refleksji na temat kierunku rozwoju platform PC opartych na zestawie rozkazów x86. 
Patrząc na bardzo ciekawą implementację PCI Express i kart sieciowych 10GE w procesorze Oracle SPARC T3, uświadomiłem sobie, że najlepszym rozwiązaniem byłoby doposażenie procesorów głównych w kontroler zgodny ze standardem ONFI oraz wyznaczenie standardu modułu pamięci flash analogicznie do złącz dla pamięci operacyjnej (DIMM). Możliwość wielokanałowego obsadzania modułów z surową pamięcią flash fantastycznie uprościłaby architekturę i pozwoliła na naprawdę szybki podsystem pamięci masowych. Sama pamięć zaś mogłaby być skalowana według potrzeb (więcej lub szybciej).
W mojej ocenie miejsce tradycyjnych dysków mechanicznych jest w serwerach pamięci masowych (NAS lub SAN), dostępnych poprzez sieci ethernet (znowu - 10GE zintegrowany w CPU) za pomocą CIFS/SMB lub NFS - plikowo albo iSCSI lub FCoE - blokowo.
Wizja może i jest odległa, ale korzyści z jej realizacji całkiem wyobrażalne. Ehh.. gdyby tylko Intel lub AMD dał się przekonać...

DirectX 11 w laptopach

Jak słusznie zauważył Tomek (dziękuję!), co raz mniej osób ostatnio kupuje i doposaża komputery stacjonarne, zaś większość sięga po laptopy jako urządzenia poręczniejsze, przenośne i mniej zagracające nasze mieszkania. Stąd też porównanie wydajności i określenie możliwości grania przy użyciu laptopów jest bardziej użyteczne niż moje poprzednie porównanie.
Postanowiłem wziąć pod uwagę tylko akceleratory obsługujące DirectX 11, jako że w laptopie mamy ograniczone możliwości wymiany karty graficznej, a zwykle kupujemy notebook na kilka lat. Mam świadomość, że większość tytułów wydawanych obecnie może pracować również na kartach poprzedniej generacji, ale tytuły, które zostaną wydane za 3 lata, mogą już wymagać właśnie tego najnowszego zestawu API.
Niestety nie sposób porównać cen mobilnych kart graficznych, bo nie występują w sprzedaży detalicznej, ale jako część kompletnego systemu. Punktem odniesienia będzie więc dla mnie orientacyjna wydajność w teście FutureMark 3Dmark'06. Co prawda jest to pomiar wydajności dla DirectX 9, ale potrafi on rozsądnie uzmysłowić orientacyjną wydajność tych procesorów. Uszeregowanie pobrałem z zestawienia wydajności kart graficznych dostępnego na notebookcheck.net.


nVidia GeForce
wydajność 3Dmark'06
ATI Mobility Radeon HD
GTX 480M
~15000
-
GTX 470M
~12500
5870
GTX 460M
~12000
-
GT 445M
~9500
5850
-
~7700
5830
-
~7500
5770 / 5750
GT 435M
~7200
5730
GT 425M
~6500
5650
GT 420M
~6000
-
GT 415M
~5500
-
-
~3500
5470
-
~3300
5450
-
~3000
5430

(pomysł zapożyczony z AnandTech, wyniki z notebookcheck.net)

Przy okazji chciałbym Was ostrzec przed pułapką zastawioną przed AMD/ATI w postaci układów Mobility Radeon HD 56xv (dawniej 46xx) oraz 51xx (dawniej 45xx). Są to czipy poprzedniej generacji pod nowymi nazwami obsługujące jedynie DirectX 10.1. 
Aby swobodnie pograć w najnowsze tytuły przy domyślnych (nie najwyższych) ustawieniach, powinniście mierzyć w poziom co najmniej ~7200 3DMark'06. Taką hipotezę stawiam po przeglądzie średniej liczby klatek na sekundę uzyskanych w grach Mafia 2 i Metro 2033. Więcej informacji na temat możliwości grania w konkretne tytuły znajdziecie tutaj. Granicę rozsądku pod kątem grania oznaczyłem pomarańczowym kolorem. Schodzenie poniżej GT 420M / 5650 będzie implikowało obniżanie poziomu detali oraz rozdzielczości.
Jeżeli zastanawiacie się, czy w ogóle warto sięgać po układ dyskretny, to miejcie świadomość, że zintegrowane układy graficzne intel dla procesorów intel arrandale (GMA HD) wspierają tylko DirectX 10 i uzyskują wynik ~1500 3DMark'06, zaś nadchodzące układy intel sandy bridge, w wydajniejszym wariancie - HD 200 prawdopodobnie osiągnie dwukrotnie wyższą wydajność (porównywalną z AMD MR HD5430).
Pamiętajcie, że dodatkowe układy graficzne są niezbędne tylko do korzystania z najnowszych gier intensywnie wykorzystujących DirectX lub OpenGL i - pobierając dodatkową moc - skracają czas pracy na bateriach.

sobota, 23 października 2010

Co zmienia na rynku premiera Ati Barts / Radeon 68x0?

AMD przedstawiło dwie pierwsze karty z grupy Northern Islands, znane pod nazwą kodową Barts: AMD Radeon 6850 i 6870. Polecam Waszej uwadze artykuł na ich temat na AnandTech tutaj.
Pomyślałem, że przyda Wam się odniesienie tych nowych kart na tle dostępnych w polskich warunkach pozycji DirectX11:


nVidia GeForceorient. cenaATI Radeon HD
GTX 480
1600-2100zł
-
-
1310-1820zł
5870
GTX 470
900-1360zł
-
-
900-1250zł
6870/5850
GTX 465
790-1000zł
-
GTX 460 1GB
700-870zł
-
-
~660zł
6850
GTX 460 768MB
610-690zł
5830
GTS 450
440-660zł
5770/5750
-
370-410zł
5670
GT 430
280-370zł
5570

(pomysł zapożyczony z AnandTech, ceny z www.komputronik.pl)
Jeżeli chcecie grać w aktualne tytuły DirectX 10 i 11, to z dużym przybliżeniem można przyjąć, że dla:
- 1280x1024/1366x768 możecie celować w GTS 450/5770/5750 (w wybranych tytułach 5670)
- 1680x1050/1600x900 trzeba już wziąć co najmniej GTX460 768MB [wkrótce 6850]
- 1920x1200/1920x1080 konieczne będzie ograniczenie ustawień i sięgnięcie po 5850 / GTX470 [wkrótce 6870]
- 1920x1200/1920x1080 przy maksymalnych ustawieniach na ogół pozostanie tylko 5870 / GTX480
Mam nadzieję, że to zestawienie pomoże Wam w wyborze nowej karty graficznej bez przedzierania się przez tony testów. Pamiętajcie jednak, że najlepszym rozwiązaniem jest przeanalizowanie testów konkretnego modelu karty graficznej z wybranym przez Was tytułem gry (Google Search pomoże ;).

piątek, 22 października 2010

Cechy, o które warto pytać przy zakupie laptopa

Zbliżają się święta Bożego Narodzenia i widzę już w ofertach sklepów poruszenie na półkach z laptopami. Dostawcy stają na głowie, aby dostarczyć lśniące nowości i przegonić konkurencję. Chciałbym się z Wami podzielić refleksjami z analizy nowych modeli laptopów. Postaram się napisać na tyle szeroko, by objąć różne segmenty tego rynku.
Za podstawę konfiguracji warto obecnie przyjąć rozwiązania oparte o procesory Intel z rodziny Arrandale (najciekawsze to: i5 460M, i3 330M, Celeron M P4600), pamiętając o zastosowaniu dwóch modułów pamięci RAM o łącznej pojemności mnie mniejszej niż 2GB, aby uzyskać pełną przepustowość dostępu do pamięci operacyjnej. Osoby łaknące czterech rdzeni obliczeniowych zapewne same wybiorą sobie procesor. Użytkownicy netbooków powinni szukać dwurdzeniowych procesorów z rodziny Intel Atom (330, D510, D525, N550) i pamięci co najmniej 1GB. W zakresie generalnych zaleceń: pamiętajcie proszę o gwarancji na sprzęt, bo zwykle używamy laptopów pomiędzy 3 a 4 lata. Obecnie są możliwości przedłużenia gwarancji do 3 lat. Ponadto przed zakupem sprawdźcie, czy klawiatura i touchpad nadają się do użycia, bo coraz częściej spotykam okazjonalnie wycenione buble w sklepach. Warto też zwrócić uwagę na masę laptopa wraz z zasilaczem - wszystko powyżej 3,5kg nie nazwałbym mobilnym (potrzebny porządny plecak). 
Poniżej opisuję cechy, których warto poszukiwać lub w które warto laptopa doposażyć wraz z krótkim uzasadnieniem:
  • dysk SSD lub hybrydowy
Dysk mechaniczny to najwolniejszy element naszych PCtów. Płacąc 10x więcej za 1GB pojemności SSD otrzymujemy 10x krótszy czas dostępu oraz nawet 2x wyższy transfer, przy czym eliminujemy kłopotliwą podatność laptopa na wstrząsy. Polecam rozwiązania oparte o układ SanForce SF-1200. Ewentualnie można zastosować rozwiązanie kompromisowe, używając bufora pamięci flash zintegrowanego w dysku twardym - Seagate Momentus XT - lub w napędzie optycznym - HLG Hybrid Drive (nie widziałem jeszcze w sklepach). Pojemności 50-128GB powinny zupełnie wystarczyć do codziennych prac, a większe zbiory danych lepiej przechowywać na zewnętrznym dysku twardym (sieciowym, USB 3.0 lub eSATA). Rozważcie samodzielny zakup dysku SSD i przełożenie dysku mechanicznego do obudowy zewnętrznej 2,5" USB 3.0 lub eSATAp.
  • system operacyjny
Większość zastosowań pozwala na używanie oprogramowania OpenSource - ja wybrałbym Ubuntu 10.10 Desktop. Uważam, że obecnie trzeba mieć konkretne powody, dla których chcielibyśmy zapłacić te 450zł za  MS Windows 7, np.: gry korzystające z akceleracji 3D, posiadane oprogramowanie działające tylko pod Windows lub nieuleczalne przyzwyczajenia. Użytkownicy biznesowi wybiorą "siódemkę" Professional lub Ultimate (z szyfrowaniem BitLocker) - będzie to raczej wybór IT, ale większość użytkowników prywatnych wybierze Home Premium. Cokolwiek wybierzecie rozważcie wybór 64bitowej platformy, ponieważ 32bitowe wersje oprogramowania w znakomitej większości działają tam poprawnie (ewentualne problemy mogą wystąpić ze sterownikami). Użytkownicy netbooków powinni rozważyć Ubuntu 10.10 Netbook, zaś w świecie Windows polecam raczej wybór MS Windows 7 Basic niż MS Windows XP (oba 32bit).
  • napęd optyczny
Jeżeli kupujecie drugi lub kolejny komputer to śmiało możecie zrezygnować z laptopa z napędem optycznym. Kupcie sobie lepiej szybkiego pendrive'a (np. Corsair Flash Voyager 2.0 16GB za ~100zł). Jeśli jednak pasjonuje Was kino wysokiej rozdzielczości, to zapytajcie o napęd combo z odczytem płyt BlueRay i zapisem-odczytem DVD+-RW.
4x wyższa przepustowość interfejsu względem wersji 2.0 (patrz tutaj) oraz zwiększone o połowę maksymalny pobór prądu daje gwarancję współpracy z peryferiami na przyszłość. Ta pozycja jest prawie obowiązkowa.
  • monitor, klawiatura i mysz + opcjonalnie stacja dokująca
Jeśli planujecie pracować na laptopie mniejszym niż 15" dużej niż 4 godziny dziennie to całkiem poważnie radzę Wam rozważenie skompletowania stacjonarnego stanowiska pracy. Ergonomia pracy małych laptopów jest tragiczna i nie pomogą nawet bambusowe podkładki pod nadgarstki. Wielu producentów oferuje stacje dokujące jako opcje (własne standardy), ale można też zakupić uniwersalne, podłączane pod port USB (np. takie). Można również podłączyć monitor, klawiaturę i mysz bezpośrednio do laptopa (tak pracuję w domu). Monitor rzędu 20" można kupić już za ok. 400zł, a mysz i klawiaturę za kolejne ok. 100zł. Zapewniam Was, że leczenie kręgosłupa po pracy na niewygodnym laptopie później będzie droższe niż ta inwestycja.
  • WiFi klasy "n"
Prawie każdy laptop posiada już zintegrowaną kartę sieci bezprzewodowych 802.11g (do 54Mbps), ale tylko część z nich gotowa jest do pracy w trybie 802.11n (do 150Mbps/kanał). Łatwiej jest wymienić router w domu (jest zwykle tańszy) niż kartę sieciową w laptopie, a przepustowość klasy "g", teoretycznie na poziomie 6,5 MB/s, jest już trudna do zaakceptowania (ponad 10min / płytka DVD) dla przeciętnego użytkownika. Już czas kupować tylko "n"-ki.
  • matowe pokrycie ekranu
Obecnie sprzedawane matryce laptopów na ogół są fatalne (z wyjątkiem co droższych produktów Apple i Sony). Są to zazwyczaj matryce TFT TN z krawędziowym podświetleniem LED. Jest to względnie tania, lekka, energooszczędna konstrukcja, więc wyparła z rynku inne. Niestety producenci chcąc zaradzić tragicznie niskiej jakości kolorów i kontrastu używają błyszczącego pokrycia matryc, sprawiając, że da się z nich komfortowo korzystać właściwie tylko mając półmrok za plecami. Nieco ratuje nas wysoka jasność tych matryc, więc czasem możemy "przekrzyczeć" odblaski. Jeśli macie okazję, wybierajcie matowe matryce.
    • port eSATA z zasilaniem - eSATAp
    Jeśli nie macie możliwości nabycia laptopa z portem USB 3.0, to rozglądajcie się za zewnętrznym portem SATA ze zintegrowanym zasilaniem. Świetnie sprawdza się do pracy z zewnętrznymi dyskami mechanicznymi 2.5" i nierzadko pozwala również startować komputer z takiego dysku (np. drugi system operacyjny).
    Możliwość pracy na zewnętrznym monitorze lub odtwarzanie obrazu i dźwięku na telewizorze jest ważna, a posiadanie jednego z tych dwóch interfejsów pozwoli Wam na to. Obecnie bardziej popularne jest HDMI, ale są tez dostępne odpowiednie konwertery. Pamiętajcie, że odtwarzanie zawartości 3D wymaga posiadania wyjścia HDMI w wersji 1.4a (tylko z kartami graficznymi nVidia GeForce 4xxM)
    • matowa obudowa
    Choć błyszczący plastik i metal zadaje szyku laptopom na wystawach, to generuje spore problemy w codziennej eksploatacji. Laptop jest urządzeniem osobistym i nawet największe czyściochy zawsze zostawią na nim ślady dotyku. Jeszcze gorzej wyglądają plastykowe powierzchnie po kilku miesiącach drapania, wycierania i nanoszenia warstw brudu czy tłuszczu. Szukajcie obudów nudnych = matowych. Znajdziecie je w segmencie biznesowym.
    • podświetlana klawiatura
    W ciemnościach nie widać napisów na klawiszach, a nie wszyscy piszą bez-wzrokowo (ja też nie). Wtedy nieodzowne jest podświetlenie klawiatury (patrz tutaj). Funkcja ta dotyczy szczególnie nocnych marków oraz osoby często podróżujące.
    • automatyczna regulacja podświetlenia matrycy
    Wielu znanych mi użytkowników nawet nie wie, że podświetlenie matrycy można regulować. Na co dzień regulują swoje oczy (czy raczej mózg) usiłując się dostosować do panujących warunków oświetleniowych. Tymczasem wiele konstrukcji laptopów (również monitorów i telewizorów) posiada dynamiczną automatyczną regulację jasności podświetlenia, co znacznie poprawia komfort pracy na laptopie.
    • dla graczy i entuzjastów wideo
    Decydując się na laptop do grania trzeba dobrze przemyśleć swój wybór i głęboko sięgnąć do portfela. Nie warto kupować starych i mało wydajnych układów (co najmniej GF 445M lub RM HD5750). Zawczasu sprawdźcie wymagania gier, jakie zamierzacie podbić. Upewnijcie się, że jest wsparcie dla DirectX 11 oraz dedykowana pamięć graficzna (wbrew obiegowym opiniom nie musi być duża, byle byłaby dedykowana i szybka - najlepiej GDDR5, ewentualnie GDDR3).
    Warto zainwestować w układ z rodziny nVidia GeForce 4xxM, aby skorzystać ze sprzętowej akceleracji PhysX, oszczędzania energii dzięki Optimus oraz 3D Vision. Ze stajni AMD polecam rodzinę ATI Radeon Mobility HD 5xxx.
    • Wireless Display
    Intel WiDi używa standardowego WiFi do przesyłania strumienia audio-wideo do odbiorników cyfrowych (np. telewizora). Standard obecnie nie wspiera FullHD - max. 1280x800 (bo korzysta z WiFi "g") i rzadko można spotkać telewizory z odpowiednim odbiornikiem, ale funkcja sama w sobie jest bardzo atrakcyjna i warto ją rozważyć. (nie cierpię kabli ciągnących się po pokoju!)


    Pamiętajcie, że laptop idealny nie istnieje, a nawet jeśli, to nie stać Was na niego. :-) Powyższe wskazówki być może pozwolą Wam na rozsądny wybór przy wybraniu z nich tych cech, na których Wam najbardziej zależy.

    czwartek, 21 października 2010

    Pozbądźmy się złudzeń - to tylko "ajti"

    Przeczytałem w Computerworld nr 36/905 artykuł pt. "Bez apoteozy IT" (patrz: apoteoza), będący wywiadem z dr Michałem Golińskim. Pan doktor dosadnie umieszcza technologie informatyczne w naszej codziennej rzeczywistości, pokazując, że w większości przypadków ma ona charakter jedynie wspomagający działalność podstawową. Rzeczywiście sam przemysł informatyczny jako taki nie dzierży lwiej części światowego rynku obrotu pieniądza, więc nie ulegajmy złudzeniom. 
    Lektura ta skłoniła mnie do refleksji, ponieważ kilkukrotnie już na szlaku mej aktywności zawodowej - nieustannie wypełnionej technologiami informatycznymi - miewałem wrażenie, że dobrze realizowane usługi informatyczne są warunkiem absolutnie koniecznym (choć wciąż nie wystarczającym) dla przetrwania organizacji, którym służyły. Na ogół szybko wracałem do zdrowej oceny sytuacji. O ile jest to prawda w przypadku biznesu on-line (za niedostępne w sieci strony nikt nie zapłaci), to otoczenie pełne jest przykładów zupełnie odwrotnych. Dla przykładu nasze rodzime służby porządkowe, ratownicze czy interwencyjne obywają się (nie bez bólu) bez wszechobecności technologii IT. O ile radiostacje pozostają dobrem niezbędnym, to już łączność pakietowa - niekoniecznie.
    Muszę też przyznać rację dr Golińskiemu w kwestii dodatkowych trudności i barier, jakie wprowadziły twarde rozwiązania informatyczne. Koleżanki i koledzy po fachu znają pojęcie pojedynczego punktu awarii oraz metod kalkulacji MTTF (im więcej elementów niezbędnych do działania, tym bardziej prawdopodobna awaria całości). Systemy IT często stanowią niebanalne (czytaj złożone) dopełnienie systemów dziedzinowych (np. turbiny parowej generującej elektryczność). Gdy sposób wykorzystania technologii IT zakłada jej niezawodność oraz niezbędność do normalnych operacji, każda ich awaria negatywnie wpływa na cały proces. Pracując przy wsparciu technicznym systemów IT widywałem niejednokrotnie sprawne samochody dostawcze, załadowane towarem czekające na wydruk z unieruchomionego systemu logistycznego czy też sprawne autobusy miejskie czekające na "zalogowanie się" na zmianie kierowcy (a pasażerowie marzli na przystankach).
    Tak jak silniki spalinowe nie zawsze są potrzebne i obowiązkowe, tak i technologie informatyczne powinny odnaleźć swoje miejsce w otaczającym nas świecie. Zgadzam się, że jest jeszcze wiele do poprawienia w kwestiach niezawodności, czy integracji systemów IT, ale powinniśmy też zawsze myśleć o tym, czy i jak możemy się bez nich obyć.

    niedziela, 10 października 2010

    Wirtualne miejsce spotkań

    Moja praca w branży IT przez ostatnie 10 lat zawsze wiązała się z dużą ilością kontaktów z dostawcami, użytkownikami, partnerami i współpracownikami. W miarę wzrostu wymagań, jakie przede mną stawiały codzienne obowiązki zwiększała się liczba spotkań, w których brałem udział, a ja orientowałem w coraz większym stopniu jako użytkownik mobilny. Około dwa lata temu przeżyłem apogeum podróży służbowych, które szczelnie wypełniały cały mój tydzień pracy. Wtedy sformułowałem swoje oczekiwania w stosunku do laptopa, smartphone'a i co do codziennych potrzeb komunikacyjnych. Obecnie spotykam się więcej niż wcześniej, ale wykorzystuję do tego głównie telekonferencje (głównie Microsoft Live Meeting), telefon oraz Instant Messaging. Dzięki organizacji spotkań w środowisku wirtualnym (głównie korzystam z laptopa) oszczędzam czas, siły i pieniądze unikając podróży służbowych. Oczywiście nie da się z nich zrezygnować zupełnie, ale udało mi się je ograniczyć do cyklów dwutygodniowych.
    W naturalny sposób rozglądam się za tanimi i dobrymi rozwiązaniami wideo-konferencyjnymi, aby poprawić sobie jakość tychże spotkań wirtualnych. Muszę przyznać, że bardzo trafia do mnie koncepcja teleobecności, ale odnoszę wrażenie, że mógłbym ją zrealizować na co dzień dopiero przy wykorzystaniu odrębnego ekranu i urządzenia połączeniowego tak, aby uniezależnić się od tego, co robię w trakcie spotkania na laptopie (np. uaktywnienie się skanowania antywirusowego unieruchamia przekaz fonii na kilkanaście sekund). 
    Tradycyjne zestawy wideokonferencyjne firm Tandberg (Cisco) czy Polycom występują na ogół w formie rozwiązań urządzeń instalowanych na stałe wraz z wystrojem wnętrza, oświetleniem i dedykowaną instalacją nagłośnieniową (segment cen rodem z Sci-Fi), urządzeń do samodzielnej instalacji w sali konferencyjnej (najczęściej do użycia z wielkoformatowym telewizorem) oraz urządzenia osobiste - na biurko. Tą ostatnią grupą jestem obecnie najbardziej zainteresowany. Niestety główni gracze oferują rozwiązania mocno skastomizowane, co prowadzi do nie akceptowalnie wysokich cen takich zestawów (np. Polycom HDX 4001). Gdyby doszło do rozpowszechnienia terminali wideo na rynku konsumenckim, byłaby szansa na obniżenie cen takich zestawów w segmencie personal tele-presence i być może jeden z nich trafiłby do mnie na biurko.
    Stąd też z uwagą przyglądałem premierze zestawów Logitech Revue oraz Panasonic KX-VC500. Logitech skorzystał ze swojego doświadczenia w zakresie produkcji kamer internetowych i mikrofonów, zaś samo urządzenie wyposażył w możliwość strumieniowania Google TV, co wskazuje na nastawienie na klienta domowego. Tymczasem Panasonic sięgnął po sprawdzone w boju konsumenckie kamery HD i dołącza mikrofony konferencyjne (umieszczane na środku stołu). Za wcześnie jeszcze, by mówić o cenach, ale jest to ważny krok w budowie rynku prawdziwej konferencji w teleobecności. Prawdziwym przełomem jednak byłoby integrowanie kamer web w telewizorach wraz z wysokiej jakości mikrofonami oraz systemem aktywnej kasacji dźwięków tła (jak najbardziej możliwe). Pożyjemy - zobaczymy...
    Przy okazji zwróćcie uwagę, że wokół naszych telewizorów domowych zaroiło się ostatnio od różnych przystawek (set-top box): tunery telewizji satelitarnej, kablowej, DVB-T, odtwarzaczy DVD/Blueray, konsol do gier i wreszcie odtwarzaczy telewizji pakietowej (np. Apple TV). Nadarza się okazja na zestandaryzowanie rozbudowywalnej uniwersalnej przystawki do telewizorów, która mogłaby połączyć wszystkie te funkcje (hmm.. brzmi jak stare dobre HTPC). Upatruję w tym po raz kolejny możliwości zbudowania taniej końcówki wideokonferencyjnej, korzystając z efektów skali na rynku konsumenckim (napędzanym głównie przez odbiorców telewizji). Dobrym początkiem takiej standaryzacji jest inicjatywa DLNA, ale obecnie w niewielkim stopniu przybliża nas to do tanich wideokonferencji. Naturalnym kandydatem na standard połączeń byłby SIP zaś głównym dostawcą serwerów konferencyjnych - nasi operatorzy telekomunikacyjni. Efektem ubocznym byłoby zintegrowanie tradycyjnego telefonu oraz dodanie usług tekstowych (np. Jabber). Z uwagi na tanie układy kodująco-dekodujące (codec) możnaby zastosować H.264 jako standard kompresji transmisji.
    Gdy wyobrażę sobie zestandaryzowane urządzenie współpracujące z telewizorem, wyposażonym w mikrofony i kamerę wideo, niezwłocznie kojarzą mi się nowe możliwości sterowania interfejsem użytkownika w stylu Microsoft Natal. Oczywiście tworzy to ocean nowych możliwości, a rynek konsol pokazał nam, że musiałoby to być urządzenie o w miarę niezmiennych charakterystykach w czasie dla uzyskania możliwości produkcji masowej i integracji modułów rozszerzeń. Jednakże to właśnie konsole są obecnie najbliżej spełnienia powyżej opisanej wizji. Może wystarczy wprowadzić jedynie do DLNA obsługę kamery i mikrofonu, a następnie wprowadzić do produkcji tak wyposażone telewizory, a producenci przystawek - czymkolwiek by one nie były - zadbaliby już o implementację teleobecności? Trudno powiedzieć. W mojej ocenie będzie to kolejny milowy krok w ewolucji cyfrowej w domu i na biurku.

    środa, 6 października 2010

    Idealna pamięć masowa do centrum obliczeniowego

    AnandTech IT opublikował właśnie tutaj artykuł na temat budowy własnego rozwiązania pamięci masowej. Od co najmniej 1,5 roku przewidywałem możliwość budowy taniego rozwiązania SAN/NAS w oparciu o model podwójnego bufora danych, jaki wprowadzono w ZFS. Upatrywałem w produktach rodziny Storage na stronach SuperMicro odpowiedniej obudowy do skonstruowania takiej macierzy. Cieszę się, że Matt sprawdził dla mnie sformułowane wcześniej przeze mnie hipotezy. :-)
    Za ok. 21 tys. zł netto udało im się zbudować macierz dyskową o 18TB surowej pojemności dostępne w formie iSCSI lub CIFS/SMB poprzez dwa interfejsy GE, z wykorzystaniem OpenSolaris i Nexenta, osiągając jednocześnie od 110% do nawet czterokrotnej wydajności rozwiązania Promise M610i. Z doświadczenia wiem, że rozwiązania wielkich dostawców tej klasy są zwykle od dwóch do ośmiu razy droższe, nie licząc wsparcia technicznego. To potencjalne pole do ogromnych korzyści w naszych centrach obliczeniowych (wyższa wydajność niż produkty komercyjne, niższa cena, lepsza kontrola konfiguracji, dowolność rozbudowy, możliwość częstej rozbudowy). Mam nadzieję, że nadarzy mi się okazja do implementacji takiego rozwiązania...

    sobota, 2 października 2010

    Mój komputer - podsumowanie

    Minął już miesiąc odkąd cieszę się moim "nowym-starym" komputerem domowym (szerzej tutaj). Starałem się zdobyć szerokie spojrzenie na jego użyteczność jako urządzenia domowego w minionym czasie. Najpierw może poświęcę parę słów wydajności samej platformy.
    • wydajność zagregowana stało-przecinkowa to: 25,36 GOPS (miliardów operacji na sekundę),
    • wydajność Dhrystone stało-przecinkowa ALU to: 30,85 GIPS (miliardów instrukcji na sekundę),
    • wydajność Whetstone zmienno-przecinkowa SSE3 to: 19,86 GFLOPS (miliardów zmiennoprzecinkowych operacji na sekundę).
    Dla porównania z aktualnie dostępnymi procesorami na rynku jest to średnio około 3/4 wydajności Intel Core i3 530 2,93GHz (~395zł) i około 10% więcej niż da nam AMD Phenom II X2 555 3,2GHz (~325zł) lub Athlon II X2 260 3,2GHz (~250zł).
    Natomiast szeroko używany benchmark DirectX9.0c - FutureMark 3DMark 06 v1.2 w 1280x1024 przy domyślnych ustawieniach wskazuje (karta graficzna pracowała w trybie: @700MHz / 512MB GDDR5 @1150MHz):
    • 3DMark score: 12270
    • CPU score: 2621
    Według rankingu 3Dmark'06 na benchmark.pl tutaj jest to wydajność porównywalna z nVidia GeForce GTS250 (~385zł) / 9600GT / 9800GT(X) / 8800GT lub ATI Radeon 5670 (~360zł) / 4870 / 4850 / 3870. Patrząc szerzej na rynek widzę, że najbardziej atrakcyjną alternatywą byłby nVidia GeForce GTS 450 (~435zł), o czym więcej poczytacie tutaj.
    W tym momencie chciałbym zwrócić Waszą uwagę jeden istotny dla mnie fakt - Gdybym chciał uzyskać tego rzędu wydajność w grach, ale w formie laptopa, to zgodnie z danymi dostępnymi tutaj musiałbym poszukać notebooka wyposażonego co najmniej w ATI Mobility Radeon 5870 lub nVidia GeForce 280M / GT 460M / GT 470M. W zakresie procesora zaś szukałbym urządzenia wyposażonego w Intel Core i3 350M lub Intel Core Extreme X9100, kierując zestawieniem dostępnym tutaj. Przykładem laptopa o podobnej wydajności (brak wsparcia DirectX 11) na "polską kieszeń" może być: Aristo Vision i685-E44L43 (Intel Core2 Duo T9600 4GB 500GB 18,4'' GFGTX280M Blu-ray COMBO NoOS), lecz musimy się liczyć z wydatkiem ok. 8000zł i prawdopodobnie obniżeniem rozdzielczości w grach z natywnych 1920x1080 do ~1366x768, aby nacieszyć się płynną wizualizacją. Dodatkowo według mnie pozyskanie niemal 6kg laptopa pobierającego 220W zupełnie mija się z celem. Wnioski nasuwają się same - możliwość cieszenia się najnowszymi tytułami gier w laptopach jest obecnie drogie i kłopotliwe. Najłatwiejszą drogą jest zakup konsoli do gier, ale komputer stacjonarny wciąż jest rozsądną kosztowo alternatywą.
    Wracając jednak do mojego DELL OptiPlex 360. Zapewne zapytacie, jak się gra. Muszę przyznać, że jestem pozytywnie zaskoczony - MS Windows 7 Home Premium x64 jest stabilny i nie napotkałem jakichkolwiek problemów w dziedzinie kompatybilności.
    Wiedźmin Wersja Rozszerzona z poprawkami 1.5 doskonale czuje się przy maksymalnych ustawieniach w mej natywnej rozdzielczości 1280x1024. Z przyjemnością odbieram efekty pracy grafików z CD Projekt RED, aczkolwiek w porównaniu z aktualnymi tytułami wykorzystane efekty dają odczuć już wiek. Stąd też rozglądnąłem się za demami aktualnie wychodzących tytułów. Cóż - czekam na drugą część przygód Geralta.
    Zapoznałem się z wersjami demonstracyjnymi gier: Metro 2033, Batman Arkham Asylum, ArcaniA Gothic 4Need for Speed ProStreet oraz Lost Planet 2 Benchmark. Z wyjątkiem ostatniego tytułu, operowanie w 1280x1024 nie przysparza problemów (powyżej 30fps). Niestety brak wsparcia sprzętowego dla PhysX eliminuje możliwość cieszenia się z najnowszych osiągnięć technicznych w zakresie animacji obiektów w ruchu (szczególnie interesowała mnie animacja zachowania materiału ubrań bohaterów - polecam przykład z Mafia II dostępny tutaj). Tyle wniosków na teraz. Jak widzicie są jeszcze nisze, gdzie komputery stacjonarne mają swoje miejsce.

    niedziela, 19 września 2010

    Nadchodzą zmiany na rynku kart graficznych

    Końcówka 2010 przynosi nam na rynek komputerów desktop pierwsze rozwiązania układu graficznego zintegrowanego z procesorem na jednym kawałku krzemu (procesory z układem graficznym Intel HD - Core i3/i5/i7 - rodzina Clarkdale to konstrukcje MCM) w formie produktów AMD Fusion (Zacate) oraz procesorów Intel opartych na architekturze Sandy Bridge (Core i3/5/7 2xxx) - polecam materiał z IDF2010 tutaj. Jest to kolejny krok ku wyższej wydajności zintegrowanych układów graficznych i uznanie sprzętowego wsparcia dla DirectX 11 za standard.
    Jednocześnie po stronie układów dyskretnych nie zanosi się na rewolucję. AMD rezygnuje już z marki ATI, planując wprowadzenie Radeonów z serii 6xx0 - rodzina Northern Islands (następca rodziny R8xx/Evergreen) jeszcze w tym roku. Należy spodziewać się raczej zwiększenia wydajności i poprawek implementacyjnych niż przełomu w architekturze. Jednocześnie nVidia wprowadza kolejne zmniejszone inkarnacje architektury Fermi:  GF104 (GTX460), GF106 (GTS450) i GF108 (GTS420). Pierwszy z nich (w przeciwieństwie do GF100  - GTX480/GTX470/GTX465) okazał się być sukcesem rynkowym, drugi obecnie wchodzi do oferty i ma jak dotąd przyzwoite referencje (patrz artykuł AnandTech tutaj).
    Niestety moje obawy się sprawdziły i możemy już zaobserwować skutki monopolistycznych praktyk nVidia w stosunku do oprogramowania PhysX. Polecam Wam artykuł na ten temat na Benchmark Reviews tutaj. Jeżeli trend się utrzyma - zakup karty z rodziny GeForce może być coraz częściej podyktowany wymaganiami API gier (PhysX lub 3D Vision), a nie stosunkiem wydajności do ceny.
    W najbliższym roku proponuję Wam poważnie rozważyć pozostanie przy nowoczesnych zintegrowanych układach graficznych (IGP) i decydować się na zakup osobnej karty graficznej tylko w przypadku, gdy chcecie zakupić naprawdę wydajną kartę (mainstream lub szybszą), czyli obecnie GeForce GTS 450 lub szybszy lub alternatywnie Radeon 5750 lub szybszy. 
    Jako ciekawostkę polecam Wam zwariowany test konfiguracji CrossFireX czterech kart Radeon 5770 tutaj. Czwórka produktów PowerColor osiąga tam w CoD: MordernWarefare 2 wydajność rzędu dwóch GeForce GTX 480 pracujących w SLI, przy niższych kosztach zakupu i poborze energii.
    Na zakończenie chciałbym zwrócić Waszą uwagę na coraz większą liczbę względnie tanich, ale bardzo wydajnych komputerów desktop opartych na płytach głównych w formacie mini-ITX, np.: AVADirect Nano Gaming Cube czy AsRock miniPC - to wyraźny trend na rynku desktop.

    Pierwszy miesiąc z iPadem

    Chciałbym się dzisiaj z Wami podzielić wrażeniami po kilku tygodniach używania mojego pierwszego tabletu. Około miesiąc temu mój Pracodawca wyposażył mnie w Apple iPad 3G 32GB wraz z iPad Case (dziękuję!). Urządzenie otrzymałem prekonfigurowane przez nasz zespół IT. Do rozpoczęcia pracy konieczne było założenie konta na iTunes i rejestracja urządzenia. Niestety konfigurator nalega na podanie numeru karty kredytowej wraz z kodem CVV2, by w tle potwierdzić wypłacalność użytkownika - bardzo nieprzyjemny krok. Potem już iTunes App Store staje się dostępny. Rzecz jasna jest to jedyny legalny sposób instalacji oprogramowania dla iPhoneOS.
    Początkowo byłem zagubiony w tym bez-kursorowym, ascetycznym, niezwykle kontekstowym interfejsie użytkownika, jako że nie byłem wcześniej aktywnym użytkownikiem iPhoneOS, ani nawet MacOS. Tymczasem już drugiego dnia z łatwością posługiwałem się przeglądarką www Safari, klientem poczty, kalendarzem, kontaktami, Google Maps i innymi, zainstalowanymi aplikacjami. Nim się zorientowałem, iPad stał się moim domyślnym komputerem z dostępem do Internetu.
    Początkowo używałem sieci WiFi, ale po paru dniach kolega Bartek (dziękuję!) przyciął mi nożyczkami kartę Orange Free (zakup 5zł) do rozmiaru microSIM i wpasował do slotu iPada. Po doładowaniu 50zł, otrzymałem łączność 3G z limitem 2,7GB dostępnym przez 3 miesiące. Wtedy poczułem prawdziwą mobilność.
    Obecnie czynności typu: sprawdzenie poczty, prognozy pogody, kursu walut, czytanie codziennej prasy, przegląd krótkich filmów, czyli łącznie około 2-3 godzin dziennie przeniosłem na iPada. Brak wsparcia Adobe Flash jak dotąd mi nie przeszkadza. Jednowątkowość systemu operacyjnego odbieram nawet jako zaletę (nie używam komunikatorów na iPadzie).
    Od paru dni czytam również książki w różnych formatach na tym urządzeniu.
    Chciałbym potwierdzić, że iPad posiada fantastyczny wręcz ekran (najlepszy jaki kiedykolwiek używałem), a przy 9,7" rozmiaru, matrycy IPS oraz intensywnego podświetleniu LED z autoregulacją jasności jest po prostu ideałem wcielonym. Mimo błyszczącego pokrycia sprawdza się niezawodnie również na zewnątrz. Dzięki szeregowi dyskretnych kompromisów urządzenie wydajne się być niesamowicie responsywne i zwykle jest gotowe do pracy już po sekundzie lub dwóch (nie dotyczy okresów pobierania zawartości z sieci).
    Ciekawostką jest sama praca z pojemnościowym, wielo-dotykowym kontrolerem zintegrowanym z wyświetlaczem. Jest duży (w porównaniu ze smartphonami), bardzo precyzyjny, przyjemny w dotyku i korzysta z genialnych algorytmów rozpoznawania gestów w samym systemie operacyjnym. W zakresie klawiatury ekranowej przeżyłem niesamowite zaskoczenie - piszę na niej równie szybko, jak na laptopie. To pierwszy taki przypadek w mojej historii. Niestety szybko-pisanie dotyczy tylko anglojęzycznych tekstów, ponieważ obsługa polskich znaków jest symboliczna (należy przytrzymać literę, by zobaczyć mały dialog z podobnymi wariantami diakretycznymi), przy czym litera "ą" zwyczajnie nie występuje.
    iPada pokazałem kilku znajomym i wszyscy się z nim odnajdowali już po kilku chwilach - ergonomia jest wręcz unikalnie perfekcyjna.
    Kolega z pracy otrzymał niedawno iPhone 4 i nie omieszkałem porównać tych urządzeń: otóż wersja telefoniczna Apple jest wybitnie kieszonkowa i znacznie lżejsza, jednak dla mnie jest zwyczajnie za mała.
    iPad bardzo szybko startuje zarówno system operacyjny, jak i aplikacje - co jest miłą odmianą od świata wiecznie zapchanej kolejki dysku pod MS Windows. Tablet ten pracuje na baterii przy moim codziennym użytkowaniu około 2-3 dni nim wymaga ładowania.
    Chciałbym też Wam polecić zakup skórzanego etui (iPad Case), bo goły iPad łatwo uszkodzić, a i po godzinie trzymania w ręce robi się niewygodny, a etui pełni też funkcję podstawki.
    Użytkowany przeze mnie model prezentowany jest w Apple Store za $729 (co powinno przełożyć się na ok. 2800zł w Polsce). Za tę cenę możemy zakupić bardzo rozsądną i mobilną konfigurację laptopa. Trudno tutaj mówić o okazji cenowej. Jednak mam wrażenie, że dla wielu osób na co dzień użytkujących laptopy i netbooki głównie do poczty elektronicznej, przeglądania stron internetowych, oglądania zdjęć, słuchania muzyki iPad byłby urządzeniem działającym szybciej, bardziej niezawodnym, faktycznie mobilnym i bardziej poręcznym. W mojej ocenie jest to idealna realizacja koncepcji Mobile Internet Device i na stałe zostanie w moim spektrum elektroniki osobistej (tak - mimo nachalnej, "imperialistycznej" polityki Apple).