piątek, 28 grudnia 2012

DVI, HDMI czy DisplayPort?

Rok 2012 przyniósł nam nowości, wykorzystujące wysokie rozdzielczości. Choć wydawało mi się, że widzieliśmy już wszystko w temacie wyświetlaczy, to wspaniałe ekrany Apple z serii Retina Display zdecydowanie poruszyły świadomością projektantów. W przyszłym roku zobaczymy wiele wspaniałych wyświetlaczy (np. Sharp IGZO), a już teraz widzę na rynku sporo bardzo atrakcyjnych cenowo monitorów 27" o niebanalnej rozdzielczości 2560x1080/1440/1600. Ważnym czynnikiem będzie też rozpowszechnianie się koncepcji telewizji UHD.
Obok problemu wydajności GPU przy obsłudze wysokich rozdzielczości mamy jeszcze kwestię obsługi odpowiedniego trybu i interfejsu graficznego. Dlatego postanowiłem zestawić kilka potencjalnie ważnych faktów poniżej (zakładam 30bit colour, 60Hz):
Przykładowe GPU Interfejs Przepustowość Full HD: 1920x1080 WQXGA: 2560x1600 UHD 4K: 3840×2160
praktycznie każde GPU DVI single 4.95 Gbit/s X

nVidia GeForce 6xxx, Intel G45 DVI dual 9.9 Gbit/s X X
Intel 915G, nVidia GeForce 8xxx HDMI 1.2 4.95 Gbit/s X

nVidia ION, AMD Radeon HD 5xxx HDMI 1.3 10.2 Gbit/s X X
Intel Graphics HD 2xxx/3xxx/4xxx HDMI 1.4 10.2 Gbit/s X X
Intel Graphics HD 2xxx/3xxx/4xxx DisplayPort 1.1 8.64 Gbit/s X X
nVidia GeForce GTX 6xx, AMD Radeon 6xxx/7xxx DisplayPort 1.2 17.8 Gbit/s X X X

Jak widzicie zakup monitora o rozdzielczości 1920x1080 praktycznie nigdy nie powinien sprawić problemu, ale już przy rozdzielczości 2560x1600 trzeba mieć co najmniej DVI Dual-link, HDMI 1.3 lub DisplayPort, aby cieszyć się obrazem przy odświeżaniu 60Hz. Jednak przy próbie osiągnięcia rozdzielczości 4K musimy już sięgnąć po DisplayPort 1.2 lub dwa kable HDMI 1.3/1.4.
Mam świadomość, że na rynku są urządzenia wyświetlające obraz także z odświeżaniem 24, 25, 30Hz, które pozwalają na osiągnięcie wyższych rozdzielczości, ale do zastosowań profesjonalnych 60Hz pozostaje standardem.
Zanim więc kupicie nowy, wysoko-rozdzielczy monitor, spójrzcie na wyjście wideo swojego GPU, aby upewnić się, że obsłuży Wasze nowe okno na świat.

środa, 26 grudnia 2012

Samochód przyszłości

Obejrzyjcie ten test - warto:

Myślę, że tak będą wyglądały auta przyszłości i to niedalekiej.

sobota, 22 grudnia 2012

Poszukiwania tabletu

Odkąd zostałem tylko z mym telefonem i tymczasowym komputerem stacjonarnym rozglądałem się za jakimś urządzeniem dla siebie. Wcześniej używałem sub-laptopa z Windows 7 i tabletu 10.1" z Androidem 4.x. W dłuższym okresie okazało się to być jednak nieco przesadzona konfiguracja w stosunku do mych ograniczonych potrzeb.
Zastanawiałem się poważnie nad hybrydą, czyli tabletem dokowanym do klawiatury, ale pozostawał wybór pomiędzy Androidem a Windows 8. Niestety iOS wykluczam po przyjrzeniu się dostępnym funkcjom iPad 3 z iOS v6. Zaznaczę też, że nie brałem pod uwagę niczego z Windows RT, bo uważam, że to połączenie wad obu światów (brak kompatybilności z x86, przeładowany OS i brak aplikacji dotykowych).
Ponieważ wciąż jeszcze nie ma na rynku tego typu rozwiązań opartych na procesorach z rodziny Intel Core, czekałem z niecierpliwością na premierę nowej rodziny układów SoC, opartych na procesorze Atom Cloverview, w postaci Z2760. Wczoraj pojawił się wyczerpujący artykuł o nim na AnandTech tutaj. Rezultat jest taki, że jest to najszybsza platforma z punktu widzenia tabletu i koszmarnie niewydajny laptop - niewiele bardziej wydajny od AMD Zacate. Co gorsze zastosowany układ graficzny PowerVR SGX 545 niespecjalnie nadaje się do obsługi wyświetlaczy posiadających więcej niż milion pikseli.
No właśnie ... ile właściwie tych pikseli potrzebuję? Popatrzmy:
ekran szerokość wysokość piksele ~ppi
4.0” 800 480 384000 240
4.3” 960 540 518400 260
10.1” 1280 800 1024000 150
10.1/11.6” 1366 768 1049088 140-160
10.1/11.6” 1920 1080 2073600 200-220
9.7” 2048 1536 3145728 270
10.1” 2560 1600 4096000 300

Powyżej przedstawiam kilka przykładów popularnych rozmiarów i rozdzielczości ekranów telefonów oraz tabletów. Chciałbym uzyskać około dziesięcio-calolwy ekran, który miałby jak najwięcej pikseli, ale nie więcej niż jestem w stanie odróżnić. Porównując to z moim telefonem wiem, że każda gęstość powyżej 200ppi mnie zupełnie zadowala, co oznacza, że powinienem szukać urządzenia posiadającego co najmniej dwa megapiksele ekranu.
Aby skorzystać z Windows 8 musiałbym sięgnąć po urządzenie o GPU o wydajności na poziomie HD4000 (Ivy Bridge), ale prawdopodobnie to kosztowałoby majątek. Przekonamy się o tym wkrótce, jak Microsoft wprowadzi do sprzedaży Surface Pro.
Wracam więc do obozu Androida. Do wyboru zostaje mi niewiele:

Z punktu widzenia parametrów technicznych, jakości wykonania i ceny Nexus jest oczywistym wyborem. Niestety jest nie do kupienia. Został rozsprzedany w jeden dzień w Wielkiej Brytanii.
TF700 ma paskudne błędy konstrukcyjne powodujące niedziałający GPS i słabe WiFi - odpada.
A700 ma za słabe podświetlenie i niezbyt udaną szybę wyświetlacza (więcej tutaj).
Zaś huawei zastosowało jakieś własne SoC - K3V2 HiSilicon Hi3620, które może nie cieszyć się szerokim wsparciem w kolejnych wersjach Androida.
Na razie wstrzymuję poszukiwania. Może uda mi się upolować Nexusa w przyszłym roku.

[UPDATE 2012-12-22]
Nie trzeba było długo czekać, bo dziś MSI zaprezentowało Slidebook S20 w cenie ~4100zł. Drogo, ale to całkiem rozsądna konfiguracja - muszę się zastanowić.
Dodatkowo Archos zapowiedział dzisiaj 97 Titanium HD z ekranem zbliżonym do Retiny z iPada, który do złudzenia przypomina Chuwi V99 (dostępny na Allegro za ~1200zł).
Chyba warto poczekać, bo wypływa sporo ciekawych konstrukcji...

czwartek, 20 grudnia 2012

Co by było, gdyby ...

Czy zastanawialiście się kiedyś, co by było gdybyście poszli w życiu inną drogą? Mnie się to zdarzyło kilka razy, ale nie jestem w tym biegły. Zauważyłem jednak, że nieuchronnie prowadzi to do uczucia straconej szansy lub żalu po niewykorzystanym potencjale. W gruncie rzeczy pogarszało mi to samopoczucie.
Z drugiej strony w pracy dużo czasu spędzam planując i oceniając ryzyko. Czasem nawet używam what-if analysis, czyli analizy wrażliwości, która okazuje się być bardzo przydatna, gdy nie zawiera grubszych błędów w swoich założeniach. Jej zasadniczą zaletą jest to, że koncentruje sie na przyszłości. Zwykle otwiera mi wyobraźnię na to, co może się zdarzyć i jak to wpłynie na realizację. Podobnie sytuacja się przedstawia w życiu osobistym. Gdybanie w perspektywie planów na bliską przyszłość daje mi poczucie "przemyślanego" planu.
W odróżnieniu od pierwszego przykładu na ogół mnie to wzmacnia i podnosi jakość planowania. Bywa, że wracam do planów i je poprawiam, aby zmitygować ryzyko wystąpienia jakiejś sytuacji brzegowej z analizy wrażliwości.
Podsumowując: 
W skali osobistej warto myśleć "co by było, gdyby" w odniesieniu do przyszłości, nie należy tracić czasu na sprawy przeszłe.

niedziela, 16 grudnia 2012

Klawiatura bluetooth do pracy z Androidem

Pisałem Wam wcześniej, że używam Microsoft Wedge Keyboard aby zamieniać mój telefon ZOPO ZP100 w coś przypominającego funkcjonalność netbooka:

Chciałbym dziś Wam zaprezentować, jak to wygląda na żywo:

Używam Polish Programmer Keyboard V2 do uzyskania polskich znaków.
Jak widzicie praca przebiega spokojnie i bez przeszkód. Są dwie podstawowe wady: pierwsza to mały ekran, bo przy bardziej złożonych stronach internetowych muszę sobie pomagać powiększając elementy strony, a druga to względnie wysokie zużycie energii aparatu, gdy mam włączoną transmisję HSPA i bluetooth.
Na co dzień korzystam z przeglądarki, komunikatorów, klienta gmail i okazjonalnie z Kingsoft Office. Pozwala mi to często nie brać ze sobą laptopa.

sobota, 15 grudnia 2012

Jaki laptop nabyć w te Święta?

Jeżeli przeszliście już wszystkie stadia poszukiwania prezentów i wiecie, że nie chcecie kupować swetrów, czapek, ani tabletu czy smarfołna. Jeśli napotkaliście okazyjnie wycenionego laptopa w szale świątecznych wyprzedaży i dumacie nad jego konfiguracją...
To pomyślałem, że napiszę kilka słów o tym, na co zwrócić uwagę. Zakładam, że będzie to notebook pracujący pod Windows 8 64-bit używany do przeglądania stron web, odtwarzania multimediów, edycji dokumentów, prostego retuszu zdjęć - słowem: nic specjalnego.

Cena
Koszt zakupu laptopa dla przeciętnego Nowaka waha się zwykle pomiędzy 1800 a 3500 zł. Przyjrzyjcie się uważniej jeśli widzicie coś spoza tego przedziału.

Rozmiar
Niewiele się tu zmieniło, bo 11.6"-12.5" przekątnej to przenośne maleństwa, 13.3"-14" to optymalny rozmiar, 15.6" to teraz główny nurt (zwykle koszmarne konfiguracje) i 17" to zupełnie nie przenośne olbrzymy (zamiennik komputera stacjonarnego).

Procesor
Pomijając szczegóły mych pomiarów zalecam Wam Intel Core i3/5 z rodzin 2xxx i 3xxx. Jeśli chcecie eksperymentować, to odradzam zakup procesorów o wydajności poniżej 3DMark CPU = ~1800 punktów (ranking tutaj).

Pamięć masowa i RAM
Warto zainwestować w dysk SSD lub rozwiązanie hybrydowe (HDD + bufor NAND flash). Zapomnijcie już o używaniu HDD. Lepiej kupić używanego laptopa i wyposażyć się w SSD. 
Pamięci RAM potrzebujecie min. 3GB, a i 8GB nie będzie nadmiarem. Dość powiedzieć, że strona aktualności facebooka na zakładce w Chrome używa 150MB RAM, łącznie używam teraz 1.7GB a bardzo oszczędzam.

Wyświetlacz
Z tym jest lepiej na rynku, ale nadal słabiutko. Rozdzielczość 1366x768 rządzi niepodzielnie w matrycach LCD TFT TN o jasności rzędu ~220 nitów i kontraście ~150:1. Tragedia. Szukajcie przynajmniej takich z matowym pokryciem. Widziałem kilka znośnych matryc 1440x900 i 1600x900.
Zastanówcie się poważnie nad wielo-dotykowym wariantem, bo wtedy macie szanse skorzystać z interfejsu kafelkowego w Windows 8. W takim przypadku koniecznie weźcie ekran o jasności >300 nitów, bo będzie błyszczący.

Interfejsy
WiFi 802.11n, USB 3.0 i HDMI wydają mi się być najważniejsze. Zdecydowanie polecam WiFi dwu-zakresowe, a jeśli się da znaleźć z kartą dwu-strumieniową, to jeszcze lepiej. Foto-entuzjaści pewnie powinni też zapytać o czytnik kart SD.

Bateria
Obecnie bateria musi mieć co najmniej 50Wh (napięcie baterii * wartość Ah), żeby pociągnąć oszczędnie choćby 4 godziny w przeciętnym laptopie.

GPU
Jak chcecie dużo grać, to lepiej kupcie konsolę lub PCta - wyjdzie taniej i wydajniej. Jeśli jednak się upieracie, to polecam tylko >= GeForce 650M z Optimusem.

Jeżeli szukacie lekkiego laptopa o doskonałym wyświetlaczu, to polecam ASUS ZenBook Prime UX31A za ~4550zł. Innowatorzy powinni się zainteresować Lenovo IdeaPad Yoga 13 za ~4200zł.
Z tańszych maleństw rozważyłbym poważnie Lenovo ThinkPad X121e na Intel Core-i3 za ~1700zł + dokupienie SSD i licencji na Windows 8.
Z większych urządzeń mogę polecić Lenovo ThinkPad L430 za ~3100zł, ale w nim wciąż brakuje SSD.
Nie podejmuję się polecać nic z półki 17", bo nie widzę tam nic szczególnie interesującego.

piątek, 14 grudnia 2012

A co to za różnica?

Świat się kończy! ;-) Tak zwana informatyka właśnie nam się bezpowrotnie zmieniła. Co prawda nie potrafię dokładnie wskazać, kiedy to się stało, ale wiem na pewno, że jestem otoczony użytkownikami nowego typu. Są to ludzie kompletnie nieświadomi tego, co używają, a zagadnięci o te czy inne parametry odpowiadają: "A co to za różnica? Przecież to działa." Powiecie, że się czepiam. Macie rację.
Czasy kiedy istniały bariery wejścia w świat komputerów minęły. Dzisiaj na spotkaniu bardzo ważny inżynier pomylił megabity z gigabitami i żaden z pozostałych ważnych ludzi nawet tego nie zauważył. Inny ciekawy jegomość zupełnie nie mógł zrozumieć o co go pytam, gdy zagadnąłem o to w jaki sposób ma dostęp do Internetu w komórce w kieszeni.
Moja pamięć nie sięga daleko, ale jeszcze ~15 lat temu brak tego typu wiedzy oznaczał, że e-mail się nie wysłał, bo był za duży (sprawdzacie ile ma e-mail przed wysłaniem?) lub aplikacja nie wystartowała z braku dostępnej pamięci podstawowej (pamiętacie, ile jej było?).
Sama idea PeCeta x86 miała w sobie coś z eksperymentu. To był taki prototyp urządzenia, który każdy mógł sobie w domu złożyć. Duży, niezgrabny, zawodny, niewydajny, ale własnoręcznie zrobiony. Fachman informatyk cieszył się estymą otoczenia, bo potrafił na tym uruchomić "coś". W zasadzie cokolwiek co zadziałało było triumfem. Teraz już cyfrowe urządzenia odpowiadają za nasze bezpieczeństwo, wygodę, majątek, zdrowie itd. Są niezbędne, więc muszą być niezawodne, tanie i bezobsługowe, a więc muszą być starannie zoptymalizowane i masowo produkowane. Nie ma tu miejsca na majsterkowanie - to ma być produkt masowy z minimalną ilością części.
Obserwując otoczenie stwierdzam, że jestem świadkiem ostatniego tchnienia pionierskiej informatyki. Wkrótce prototypy wrócą do laboratoriów i pod strzechy nielicznych zapaleńców. Interfejsy użytkownika będą pomijać szczegóły techniczne (np. którędy odświeża Ci właśnie kalendarz), aby trafić do szerszej rzeszy użytkowników.
Stopniowo odpuścimy sobie dociekanie dlaczego coś nie działa, będziemy po prostu wymieniać na inne. Tak było z radio-odbiornikami, telewizorami i modułami w samochodach. Przychodzi czas na nasze smartfołny, tableto-laptopy i komputery domowe.
Pomyślcie przez moment o urządzeniach, których cechy stały się nieistotne w ciągu ostatnich kilkunastu lat: drukarki, skanery, dyski HDD, karty muzyczne czy routery domowe. Kto jeszcze zwraca uwagę na coś poza wyglądem i ceną? Tylko entuzjaści, czyli mały nieważny rynek. Producenci to widzą i ciążą w stronę głównego nurtu popytu.
Myślę, że to normalne. Ewolucja od pasjonującej, nowej idei to produktu powszedniego. Czas się przystosować. Analogicznie rzecz ujmując, ja - dla przykładu - nie mam pojęcia jak wytwarzany jest chleb, który jem na co dzień i na jakie parametry (poza smakiem, okresem przydatności i ceną) zwracać uwagę. Tyle, że nie jestem piekarzem.
Tutaj dochodzę do rdzenia mej drobnej frustracji w dniu po końcu świata: czy specjaliści w swym fachu mogą sobie pozwolić na kompletną ignorancję w stosunku do swych prywatnych potrzeb na tym samym polu nie tracąc twarzy? Czy mogą po pracy zachowywać się jak nieświadomi użytkownicy?
Nie powinni, bo natychmiast zastanawiam się nad powierzeniem projektowania komuś innemu.
Z drugiej strony i owszem, bo przecież ilość technologii i szybkość zmian nie daje szans na bycie zawsze na bieżąco.
Co o tym myślicie?

sobota, 8 grudnia 2012

iPhone 5 i karta SIM w formacie nano

Kolega wpadł do mnie ze świeżutkim iPhone 5 w kieszeni. Nie mogłem przepuścić okazji przyjrzenia się temu produktowi. Najpierw jednak zobaczcie jak drobny jest ten nowy format karty SIM:

    

Sam telefon zaskoczył mnie swoją lekkością i tym jak przyjemna w dotyku jest nowa obudowa aluminiowa. Prawdziwym przebojem okazał się jednak być wyświetlacz. Przyznam szczerze, że nigdy w życiu nie widziałem niczego tak dobrze wyświetlającego tekst i grafikę. Po prostu cudo:

 

Jak widzicie tekst jest idealny. Fotografie mają świetne kolory - wyglądają bardzo naturalnie.
Sam aparat to właściwie modelowy "ajfołn" - dokładnie tego się spodziewamy.
 

 

Niestety aparat kosztuje majątek. W tym przypadku konieczny był dwuletni abonament za 80zł/mies. w polskim T-Mobile, co ustawiło cenę na ~1500zł.

poniedziałek, 3 grudnia 2012

Windows 8 na biurku

Właśnie mija miesiąc, jak testuję MS Windows 8 Enterprise RTM Evaluation na komputerze stacjonarnym. Nie siedzę przy nim codziennie, ani nie robię niczego poważnego na nim. Jest to dla mnie platforma testowa. Chciałem na własne oczy przekonać się, na ile to środowisko jest inne od Win7. Dzisiaj chciałbym podsumować moje obserwacje.
Pierwszą reakcją na kafelki była dezorientacja. Nie mogłem odnaleźć podstawowych funkcji na ekranie. Gdy trafiłem do Windows Store byłem zaciekawiony tym, co tam znajdę. Ostatecznie jednak przyzwyczajenia wzięły górę i byłem zawiedziony. Tryb desktop jest uboższy niż w Win7, a tryb dotykowy i sklep są znacznie mniej funkcjonalne niż Apple iOS+AppStore czy Google Android+PlayStore. Zamiast obu światów dostałem dwa ich ułamki.
Przez jakiś czas starałem się używać aplikacji dotykowych (Mail, Calendar, IE10), ale szybko odkryłem, że daleko im nawet do Androidowych odpowiedników. MS tym razem przesadził z upraszczaniem. Nawet odpowiedź na email z modyfikacją tematu, adresatów i dodaniem załącznika była dla mnie łamigłówką.
Nadal nie rozumiem pomysłu na posiadanie dwóch instancji skype w Win8: jednego desktop a drugiego kafelkowego.
Dostępne w sklepie aplikacje kafelkowe były jeszcze mniej ciekawe. Zazwyczaj były to listy linków do stron różnych portali. Mniej więcej po dwóch tygodniach zupełnie porzuciłem dotykowe środowisko.
W trybie desktop pracowało mi się całkiem nieźle, choć część funkcji musiałem szukać poprzez pasek Chimes. W pewnym momencie dopadł mnie jednak problem braku sterowników, gdy chciałem zeskanować dokument na HP DeskJet k209a - nie ma ich jeszcze i nie wiadomo czy się pojawią.
Internet Explorer 10 zrobił na mnie dobre wrażenie. Działa szybciej niż aktualny Chrome i wygodniej mi się przewijało strony w trakcie czytania. Jednak z przyzwyczajenia do historii przeglądania i integracji z Gmail w pewnym momencie zainstalowałem Chrome i się przesiadłem.
Z dobrych rzeczy zaobserwowałem niższe zużycie zasobów niż w Win7 i dużo lepsze kopiowanie plików. Nie bez znaczenia jest też szybszy start systemu.
Podsumowując - widzę w Win8 spory potencjał. Nie mogę jednak powstrzymać się od stwierdzenia, że wydaje się być niedokończony (coś jak Vista, ale przesadzili w drugą stronę). Testerzy zrobili swoje, bo system działa. Jednak funkcjonalność pozostawia nieco do życzenia.
Gdyby nie brak sterowników możnaby na nim normalnie pracować i mógłbym się przyzwyczaić do sięgania do panelu sterowania inaczej niż dotychczas. Póki co, po okresie testowym wrócę do Ubuntu. Może uda mi się uruchomić skype na dobre.
Myślę, że miałbym inny punkt widzenia testując ten system na tablecie posługując się głównie dotykiem. Zobaczę, może trafi się taka okazja...

niedziela, 2 grudnia 2012

HomePlug na ratunek

Niedawno pisałem o tym, jak nie mogę skorzystać w domu z pełnego pasma dostępu do sieci Internet. Oczywiście 20/4Mbps to bardzo dobre warunki sieciowe dla naszych 5 aktywnych urządzeń. Jednak często mieliśmy kłopoty ze stabilnością połączenia. Przyglądałem się temu od jakiegoś czasu i zastanawiałem się nad rozwiązaniem. Przedwczoraj sąsiad "wygadał się", że ma dwa terminale HomePlug o nominalnej przepustowości 200Mbps (patrz IEEE 1901). Mam świadomość, że tego typu połączenia pomiędzy mieszkaniami (za pośrednictwem tablicy rozdzielczej) zazwyczaj nie działają, a dodatkowo są bardzo podatne na zakłócenia (odkurzacz, suszarka i inne takie).
Postanowiliśmy jednak spróbować. Urządzenia od razu zasygnalizowały na pomarańczowo brak możliwości skorzystania z pełnej przepustowości, ale nawiązały połączenie. Rozpoczęło się testowanie. Najpierw sprawdziłem pasmo:
źródło: speedtest.net
Niestety straciłem sporo pasma, ok. 40%. jednak to wciąż zupełnie przyzwoite łącze. 
Postanowiłem przyjrzeć się opóźnieniom. Do pomiaru zatrudniłem darmową wersję Ping Plottera. Mierzę trasę to pierwszego publicznego adresu w sieci Belgacom. Po drodze mam nasz domowy router TL-WR1043ND i dalej Bbox2. Połączenie między tymi routerami korzysta właśnie z gniazdek elektrycznych. Ping Plotter mierzył co sekundę i w statystykach rysował 1000 pomiarów, czyli ostatnie 16 minut. Takie testy powtórzyłem kilka razy w ten weekend i wypadały w miarę podobnie.


Zważywszy, że doświadczaliśmy wcześniej fluktuacji opóźnień w zakresie od 5ms do ~800ms, to widzę ogromną poprawę. Co więcej opóźnienia są bardzo stabilne.
Aby potwierdzić poprawę stabilności połączenia wykonałem kilka rozmów głosowych i wideo na skype i wszyscy rozmówcy potwierdzili znaczną poprawę.
Po raz kolejny przekonałem się jak kapryśne są połączenia 802.11g. Nominalne przepustowości wiele obiecują, ale w praktyce są zawodne. Na razie jestem zadowolony z tej zmiany: mniej pasma za większą stabilność. Zobaczę jak to się będzie sprawowało w dłuższym terminie.
[UPDATE 2012-12-13]
Właśnie potraktowaliśmy nasze połączenie HomePlug testem iperf po TCP. W dół jest 17-18Mps, a gdy testowaliśmy w duplexie było po 7,5Mbps w każdą stronę. Przy próbach z UDP były zawsze błędy. Podczas testów ICMP.echo/ping trzymało się na 3ms. Całkiem przyzwoicie :-).

sobota, 1 grudnia 2012

Nowy faworyt - ZTE V970

Moja małżonka pozostawała w świecie Nokia S60/30 od dobrych kilku lat. Odkąd zamieszkała ze mną w Brukseli borykała się z noszeniem dwóch telefonów, aby móc tanio dzwonić lokalnie. Moje raczej pozytywne doświadczenia z ZOPO ZP100 sprawiły, że namawiałem ją na zakup podobnego rozwiązania. Podczas pobytu w Warszawie w ubiegły weekend odwiedziliśmy zaprzyjaźniony sklep z takimi telefonami. Po krótkiej zabawie Lenovo A789 zrozumieliśmy, że skórka przeznaczona jest dla chińskiego użytkownika a wyświetlacz prezentuje się gorzej niż na zdjęciach. Sprzedawca zaproponował nam ZTE Grand X V970, który okazał się używać tego samego wyświetlacza, co ZP100, czyli Sharp IPS 960x540 4.3" o doskonałym kontraście i dobrym podświetleniu. Ucieszyło mnie też 1GB RAM. Poprosiliśmy jeszcze o ROM 4.0.4 wyczyszczony z chińskich aplikacji i kosztem 900zł nabyliśmy ten aparat z roczną gwarancją. Polecam Wam artykuł na jego temat tutaj.
Okazał się być świetnie wykonany, szybki i pracuje długo na baterii (pierwsze 3 dni pociągnął bez ładowania). Jedyny aspekt, który mnie zdziwił to brak przedniej kamerki, ale da się z tym żyć.
Postanowiłem Wam go zaprezentować na poniższym filmiku:

Wybaczcie bardzo amatorski montaż, ale to mój pierwszy materiał filmowy.
Wynik speedtest.net uzyskałem po WiFi w domu (dostępne 20/3Mbps).
Jak widzicie obecnie dwa rdzenie Cortex-A9 z Androidem 4.x (ICS lub Jelly Bean) są zupełnie wystarczające do codziennej eksploatacji.

[UPDATE 2012-12-02]
Zrobiłem kilka zbliżeń wyświetlacza tego telefonu, żeby Wam pokazać jak jest dobry. :-)



[UPDATE 2012-12-22]
Zwykle czytuję na telefonie książki w formacie epub w czytniku Aldiko.
Oto najmniejsza czytelna dla mnie czcionka (6 punktów) w układzie dwóch kolumn po lewej i optymalny rozmiar do czytania (20 punktów) po prawej (30 linii):

 

czwartek, 29 listopada 2012

Bardziej mobilnie

To jest pierwszy wpis jaki robię z mojego smartphone'a pisząc na klawiaturze MS Wedge Keyboard podłączonej po Bluetooth. Niby nic specjalnego, bo wiemy, że to możliwe, ale stanowi dla mnie przełom.
Ostatnie miesiące przyniosły zmiany, które wtłoczyły me potrzeby informatyczne w całości na mój telefon ZOPO ZP100. Nie używam już na co dzień laptopa z MS Windows. Pożyczam go od żony, gdy jestem w domu i mam specyficzną potrzebę dla środowiska windows, np. poprawić błąd w kodzie macro.
Ponieważ sporo przemieszczam się pomiędzy domem, biurem, szkołą i innymi lokalizacjami cenię sobie to nowe rozwiązanie. Nie muszę targać komputera.
Postanowiłem też zrezygnować już z usług GG i Messenger oraz używać skype tylko według potrzeb, ale na razie nie odczuwam ich braku.
Mam nadzieję, że ten nowy garnitur aplikacji dobrze się sprawdzi.

wtorek, 20 listopada 2012

Wrocław nocą

Kolega Węgorz uderzył właśnie w mą sentymentalną strunę tym filmikiem, polecam:

środa, 7 listopada 2012

Koncentrat

  • Premiery MS Windows 8 (w tym RT), Surface oraz Windows Phone 8 zakołysały rynkiem IT i naokoło słyszę pochlebne opinie wymieszane z krytycznymi. W przypadku Win8  mamy do czynienia z produktem, który znalazł się pomiędzy dwoma istotnie różnymi przypadkami użycia - PeCetowym i tabletowym - więc siłą rzeczy łączy on wady i zalety obu. Jak każda nowość - polaryzuje on łatwo entuzjastów. Ten system nigdy nie będzie idealnie laptopowy ani tabletowy. Zmiany w ergonomii są tym razem tak gwałtowne, że niezbędne było pokazanie na przykładzie, jak należy używać tego OS - stąd też mamy na rynku Surface, tj. najlepszy osiągalny przykład platformy. Tymczasem WP8 otwiera MS drogę do koncentracji na najnowszym sprzęcie mobilnym i "uwspólnia" aplikację na wersję RT z tabletami. Myślę, że od teraz dopiero MS ma szansę na stworzenie użytecznej platformy mobilnej.
  • Niedawna premiera nowych wersji produktów Apple była oszałamiająca! Nie tylko nowy iPhone 5 był gwiazdą. Siedmio-calowy iPad Mini, iPad 4, nowe ultra płaskie iMaci, Mac Mini z Ivy Bridge i wreszcie trzynastocalowy MacBook Pro z wyświetlaczem retina (2560x1600) zrewoluzjonizowały świat jabłeczny. Najważniejszą informacją dla mnie był fakt, że Apple zbudował własny procesor zgodny z ARMv7s o nazwie kodowej Swift, który mieści się gdzieś pomiędzy rozwiązaniami Cortex A9 a A15 i wydaje się mieć bardzo zbliżone możliwości do Qualcomm Krait. SoC A6 napędza nowego iPhone zaś A6X iPada 4. Sam fakt, że wydajność w typowych zastosowaniach iOS wzrosła w A6 dwukrotnie względem A5 przy zachowaniu podobnego poziomu poboru prądu i emisji ciepła daje do myślenia.
  • Premiera Google Nexus 10 to dla mnie niezwykła gratka. Możliwość zakupu wyświetlacza PLS o rozdzielczości 2560x1600 w połączeniu z dwoma rdzeniami Cortex-A15 i kartą graficzną Mali-T604 (patrz wyniki) w cenie $399 (realnie ~450€ w Europie) to dla mnie jak Dzień Dziecka :-). Oczywiście doceniam Google Nexus 4 i dostępność usługi Google Now w Android Jelly Bean, ale to jakby naturalna ewolucja.
  • Cena częściowo ogłoszonego ASUS VivoTab (bez RT, czyli TF810C) opartego na Atom Z2760 złamała mi serce. Naprawdę myślałem, że kupię sobie tę hybrydę, ale nie dam 800€ za urządzenie na atomie.
  • Doczekaliśmy się pierwszej implementacji nowego standardu pamięci nieulotnej od wielu lat - to jest NVMe - w postaci karty PCIe Micron P320h. Na razie wydajność nie jest oszałamiająca i są kłopoty z kompatybilnością, ale to normalne przy tak fundamentalnych zmianach w architekturze sprzętu. Spodziewam się, że w ciągu kilku najbliższych lat w świecie serwerów będzie to naturalne rozwiązanie tak jak teraz interfejs SAS.
  • Samsung wprowadził do sprzedaży bardzo udanego następcę osiemset trzydziestki: SSD 840. Polecam Wam go w nowych konfiguracjach.
  • Intel wprowadził do sprzedaży konsumencki dysk SSD 335, oparty na kontrolerze SF/LSI 228x i  na nowych pamięciach flash wykonanych w technologii 20nm, a także dysk na rynek korporacyjny SSD DC S3700 oparty na zupełnie nowym, autorskim kontrolerze, który zamiata konkurencję w przedbiegach świetną wydajnością.
  • AMD udało się wypuścić na rynek procesory oparte o poprawione jądro o nazwie Piledriver, reklamowane jako rodzina FX 83xx. W telegraficznym skrócie donoszę, że nie ma szału i Ivy Bridge pozostaje niewzruszone na pozycji lidera. Teraz jednak można rozważać te procesory jako tańszą alternatywę dla produktów Pentium i Core i3, ale warto brać dwukrotnie więcej rdzeni przy porównywaniu cen.
  • Jeżeli rozglądacie się za przyszłościowym routerem do domu, to rzućcie okiem na wyniki testów tutaj. Mają pomiary już kilku dwuzakresowych routerów korzystających z 802.11ac.
  • W temacie życia bez kabli na rynek trafia kolejny rozdział w postaci implementacji 802.11ad w paśmie 60GHz (czytaj tylko w obrębie pokoju), co powinno pozwolić nam się bezdotykowo dokować. Dell Latitude 6430u ma być pierwszą inkarnacją w wydaniu WiloCity (więcej tutaj).

sobota, 27 października 2012

Co będzie za 3 lata? część trzecia: Użytkownik domowy

Dzisiaj spróbuję przewidzieć, jak będą wyglądały nasze systemy informatyczne w domu za trzy lata. Najpierw jednak popatrzmy na zmiany jakie zaszły ostatnimi czasy.

IT mieszkania 2009
Ponad trzy lata temu nasza informatyka domowa kręciła się wokół mojego PeCeta, który łączył się z siecią Internet za pomocą ethernetu (100Base-T), poprzez router z wbudowanym modemem ADSL. Laptop służbowy i komórka korzystały z WiFi (802.11g) zapewnianego przez tenże router.
Wszystkie poważniejsze funkcje i główne składowisko danych były jednak skoncentrowane na komputerze stacjonarnym. Tam był duży wyświetlacz, wyjście audio na mini-wieżę oraz kluczowe peryferia (drukarka i skaner).
W 2009 dużo się przeprowadzałem, co skłoniło mnie do przesiadki na laptopa z zewnętrznym dyskiem USB, ale zachowałem ten sam model użycia i niedługo potem nabyłem kolejny komputer stacjonarny.
Przełomem był zakup urządzenia NAS, do którego przeniosłem wszystkie swoje dane i najczęściej korzystałem z nich z laptopa. W zeszłym roku używałem komputera stacjonarnego bardzo rzadko - tylko  do gier 3D. Ostatecznie zrezygnowałem z niego parę miesięcy temu.

IT mieszkania dzisiaj
Ostatnio jedynymi stałymi elementami IT w naszym mieszkaniu jest router sieciowy, NAS i mały drukarko-skaner. Reszta urządzeń jest mobilna. Większość nieproduktywnego czasu spędzam z tabletem w ręce lub - ostatnio - ze smartphonem. Gdy mam coś poważniejszego do zrobienia, wyciągam z plecaka laptopa, by skorzystać z Windows 7, ale przyznam, że robię to coraz rzadziej. Jeżeli potrzebuję solidnie przysiąść nad czymś złożonym, to podłączam laptopa do dużego wyświetlacza, klawiatury i myszy. Co prawda posiadam jeden stacjonarny komputer, ale służy mi wyłącznie do testowania.
Aby skorzystać z telewizora/wieży muszę niestety adhoc podłączać tablet (zdjęcia, radio internetowe) lub laptop (odtwarzanie BluRay) kablem HDMI. Wielu moich znajomych wypełnia tę lukę odtwarzaczami multimedialnymi, które sięgają do NAS lub do "chmury" aby dostarczyć audio/wideo na duży ekran i dźwięk do sprzętu audio (np. WD TV Live).
Odwiedzając znajomych tutaj w Belgii widzę, że wiele osób decyduje się na kompleksowe rozwiązania Apple i bardzo sobie to chwalą. Zazwyczaj jest to kombinacja: routera Airport Extreme, NASa TimeCapsule, kilku smartphone'w iPhone 4/4S, tabletu iPad, laptopów MacBook Air/Pro i odtwarzacza multimedialnego Apple TV (zwykle podłączonego do sprzętu audio przez SPDIF lub z pośrednictwem HDMI i telewizora).
Inni preferują konfigurację router+NAS i konsolę gier (SONY PS3 lub MS XBOX360). Zazwyczaj korzystają też z laptopa do poważniejszych zadań, ale większość prostych potrzeb dostępu do zawartości i rozrywki mogą zaadresować na konsoli.
W ostatnich miesiącach często spotykam się też z mocnym przesunięciem uwagi w kierunku Smart TV. Widziałem już zadowolonych użytkowników korzystających tylko z telewizora i smartphone'a posiłkujących się dostępem do Internetu WiFi dostarczanego przez operatora. Swoje dane przechowywali "w chmurze", ale też nie mieli tego wiele, bo większość zawartości pobierali na bieżąco. W połączeniu z "pracowym" laptopem w odwodzie całkiem dobrze się to sprawdza.
Jak widzicie nie ma na rynku oczywiście uniwersalnych i kompleksowych rozwiązań dla domu. Poszczególne funkcjonalności są rozproszone pomiędzy urządzenia o różnym pochodzeniu i rodowodzie.

IT mieszkania 2015
Moja wizja informatyki w mym mieszkaniu za trzy lata opiera się przede wszystkim na trendach konsolidacji urządzeń i szeroko-pojętej koncentracji na zawartości. 
Obecnie już większość zawartości multimedialnej dystrybuowana jest przez Internet w kontrolowany sposób, a dostępność materiałów jest ograniczona licencjami na dystrybucję. Dla przykładu w Belgii większość usług dystrybucji zawartości jest niedostępna lub bezużytecznie pusta. Serwisy takie jak iTunes, Google Music, Netflix czy Amazon Kindle to kilka przykładów, które mogę wymienić od ręki. Względnie najlepszą zawartość udostępnia Apple, ale ceny są wyraźnie wyższe niż na rynku pierwotnym - w Stanach Zjednoczonych. Również sieci na konsolach mają bardzo ograniczone zasoby. Gdy ostatni raz rozpoznawałem temat w Polsce sytuacja wyglądała podobnie. Domyślam się, że nie nastąpi tu żadna rewolucja, ale spodziewam się nowych mechanizmów marketingowych pozwalających na inter-regionalną dystrybucję zawartości w innych językach niż miejscowy. Widzę tutaj kopalnie pieniędzy dla dystrybutorów. Doskonałym wzorem do naśladowania mogą być platformy radio internetowych. Nadawcy zgodzili się na podział zysku z reklam i szeroką dystrybucję kanałów.
Co do sprzętu, to spodziewam się kilku radykalnych zmian:
  • młodsze pokolenia większość swoich potrzeb zaspokoją funkcjami smartphone'a,
  • komputery stacjonarne zostaną zastąpione przez Smart TV, smartphone'y i tablety hybrydowe (z dołączaną klawiaturą), mimo że komputery all-in-one z ekranami dotykowymi będą się broniły jeszcze jakiś czas,
  • routery będą oferowane głównie przez operatorów telekomunikacyjnych,
  • laptopy i tablety zleją się w tablety hybrydowe,
  • zobaczymy wiele wcieleń konsol do gier, które prawdopodobnie zastąpią odtwarzacze sieciowe,
  • telewizory dostaną kamery, mikrofony i coś w rodzaju prostego Kinecta, aby łatwiej było się z nimi dogadać,
  • po raz kolejny zmniejszy się ilość kabli dzięki bezprzewodowej transmisji obrazu i dźwięku Miracast.
O ile wyobrażam sobie przejście na ekrany dotykowe i zanik myszy czy płytek dotykowych, to wierzę, że klawiatury mechaniczne zostaną z nami jeszcze jakiś czas (być może jedna bezprzewodowa w mieszkaniu przełączalna pomiędzy urządzeniami).
Bardzo możliwe, że ewolucja rozpoznawania głosu oraz ruchów użytkownika zajdzie na tyle daleko, że przestaniemy używać pilotów zdalnego sterowania i będziemy dyktować nazwy stron internetowych, na które chcemy się wybrać, a następnie nawigować ruchem ręki / dotykiem.
Spodziewam się też wejścia na rynek nowej generacji urządzeń audio, które się świetnie odnajdą w towarzystwie innych użytkowników WiFi.
Z rzeczy, które się nie zmienią, wspomnę komputery stacjonarne dla zapalonych graczy, które konsekwentnie będą stawały się coraz bardziej niszowe. Wieszczę też świetlaną przyszłość NASom domowym, choć z pewnością zyskają one na użyteczności (poproszę o wyjście HDMI i audio do odtwarzania).
Mimo kryzysu ekonomicznego zapotrzebowanie na sprzęt domowy utrzyma się i będzie rosło. Myślę jednak, że użytkownicy chcą łatwiejszych w obsłudze interfejsów i lepszej integracji funkcji. W perspektywie trzyletniej Apple może okazać się główną siłą wyznaczająca kierunek ewolucji.

sobota, 20 października 2012

Klęska urodzaju, czyli VDSL2

Pędząc żywot najemcy korzystam z dostępu do sieci Internet udostępnianego mi przez właściciela budynku. Z uwagi na brak kabli korzystam z dostępu po WiFi. Moim klientem bezprzewodowym jest TP-LINK TL-WA500G, który jest wpięty kablem UTP w port WAN w routerze sieci domowej TL-WR1043ND
Dotychczas cieszyłem się dedykowanym łączem 12 Mbps / 0,64 Mbps (ADSL2) w sieci Scarlet. Łącze nie było wzorem niezawodności, ale wypełniało swe obowiązki znośnie. Jednak czas kryzysu skłonił mego pryncypała do szukania oszczędności i zostaliśmy skonsolidowani na nowo-zakupionym łączu 30 Mbps / 3 Mbps (VDSL2) w sieci Proximus.
Ucieszyłem się, że będę miał okazję skorzystać z niższych opóźnień i istotnie lepszego pasma "w górę", więc ochoczo przekonfigurowałem klienta bezprzewodowego. Niebawem byłem już na stronie http://www.speedtest.net/ klikając nerwowo przycisk ponownego testu. Niestety mój laptop w sypialni konsekwentnie wskazywał 8/2 Mbps. Zbulwersowany wynikiem ruszyłem tyłek w kierunku kabelka UTP, aby odczytać rezultat 20/2,5 Mbps na stole obok routera w kilka minut później.
źródło: speedtest.net

Oczywiście oba wyniki zaspokajają me potrzeby z okładem, ale podrażniona ambicja gadżeciarza stymulowała mnie do rozpoznania problemu. Dopiero jednak wygodna pozycja na kanapie i szklanka zimnego piwa Hoegaarden przypomniała mi o kilku prostych ograniczeniach mej infrastruktury: 
  1. Przede wszystkim mój klient bezprzewodowy pracuje w trybie 802.11g 2,4GHz, co z definicji daje mi maksymalnie 20Mbps w każdą stronę.
  2. Kolejno mój router domowy musi dzielić pasmo pomiędzy 3-4 urządzenia pracujące jednocześnie w trybie mieszanym g i n.
  3. Wreszcie router domowy korzysta z Atheros AR9103 pod kontrolą OpenWRT, a ten nie specjalnie sobie radzi z wieloma urządzeniami, a szczególnie nie przepada za kartami Intela (używam właśnie Intel Wireless Advanced-N 6230).
Podejrzewałem, że głównym problemem osiągów grubo poniżej 20Mbps są opóźnienia, więc porównałem wyniki pomiarów opóźnień:
  • WiFi  do routera LAN z sypialni - 35ms
  • WiFi  do routera LAN blisko - 30ms
  • kabel UTP do routera LAN - 25ms
  • WiFi bezpośrednio do routera budynku - 20ms
  • kabel UTP do routera budynku - 15ms
Jak widzicie każdy segment sieci (szczególnie radiowy) dokłada swoich kilka milisekund, co jest szczególnie uciążliwe przy połączeniach VoIP i wideo-konferencjach. Podejrzewam, że wpływa to też na wynik speedtest.
Aby w pełni skorzystać z dobrodziejstw łączy VDSL2 lub DOCSIS2/3 trzeba by polegać wyłącznie na połączeniach 1000/100Base-T w urządzeniach końcowych. Jeżeli jednak zależy nam na wysokiej przepustowości i niskich opóźnieniach bezprzewodowo należałoby wydzielić WiFi w 2,4GHz i 5GHz starając się trzymać sieć wykorzystywaną do rozmów jak najmniej zatłoczoną.

sobota, 13 października 2012

Problem brak wolnego czasu

Dzisiaj z nieco innej beczki chciałem Was poczęstować: 
Odkąd zaczął mi się rok szkolny w szkole językowej mało doglądam tego bloga. Zwykło się mówić "nie mam czasu" lub "trzeba mieć na to czas", czy też jeszcze "brak mi wolnego czasu". Przyznam, że sam używam nieco mechanicznie takiego wytłumaczenia odpowiadając na wyrzuty sumienia, gdy ciąży mi niezałatwiona sprawa.
Dumałem ostatnio (podróżując tramwajem) nad tym, jak się lepiej zorganizować, żeby móc wcisnąć w plan dnia kilka zaległych rzeczy. Zauważyłem wtedy, że dotychczas miałem dosyć jednostronne podejście do czasu. Wciąż traktuję go w układzie kalendarza (obecnie Google Calendar), w którym staram się rozsądnie upchać zadania dające się przewidzieć zostawiając rezerwy na nieuchronne wrzutki z otoczenia. Ile bym jednak nie zmieścił w ciągu dnia, to zawsze pozostaje mi spora sterta nieobsłużonych pomysłów lub żądań. Można by pomyśleć, że jestem zajętym człowiekiem. Jeśli jednak porównać mnie z wieloma innymi ludźmi, to na pierwszy rzut oka widać, że powinienem cieszyć się zauważalną ilością "czasu wolnego". Może więc sobie wymyślam robotę? Albo może zajmuję się sprawami niepotrzebnymi, nieważnymi? Oto jest pytanie...
Wtedy też pomyślałem sobie, że substancję czasu powinienem inaczej rozważać - nie jako obszar do zapełnienia swoją aktywnością, ale raczej jak płynącą rzekę, która nieustanie daje mi możliwość umieszczenia na niej swoich zajęć. Gdy wykazuję aktywność (choćby myślową), wykorzystuję przepływającą wodę w tej rzece. Jeśli się bardziej staram, to więcej "roboty" mogę umieścić na tej rzece, gdy niedomagam - woda płynie dalej niewykorzystana. Spodobała mi się ta analogia, ale nadal korzystam z kalendarza.
Przeniosłem też myśli na me kolejki zadań do wykonania. Stwierdziłem, że są długie na tyle, ile mogę spamiętać lub sprytnie zanotować. Zastanawiałem się przez moment, czy kiedykolwiek były krótsze i wynik zdawał się być negatywny. Postanowiłem przypomnieć sobie, jak wyglądały moje kolejki zadań w przeszłości, aby ostrożnie sprawdzić rodzącą się hipotezę... i doszedłem do wniosku, że raczej nie występowały u mnie okresy jałowe. Czasem potrafiłem zapamiętać więcej rzeczy do zrobienia, czasem mniej. Bywało, że nie mogłem wybierać kiedy i co robię, a czasem miałem pełną swobodę. Dwa aspekty pozostawały jednak niezmienne: upływ czasu i pełne kolejki zadań do wykonania.
Uznałem zatem, że pojęcie "wolnego czasu" jest - przynajmniej w mym przypadku - zupełnie bezużyteczne i utopią byłoby liczyć na to, że pewnego dnia zatrzymam się mówiąc "skończyłem". Analogicznie pomyślałem, że zawsze będzie coś zaległego, po terminie lub zwyczajnie usuniętego z listy spraw do załatwienia. Idąc dalej tym torem myślenia - zakładając, że mogę do pewnego stopnia wybierać, co kiedy robię, powinienem być w stanie świadomie nie podejmować pewnych zadań i być przygotowanym na konsekwencje takiego zaniechania. Niby to oczywiste, ale dało mi to nową perspektywę. Przeglądając me kolejki rozważam teraz często konsekwencje zaniechania lub opóźnienia.
Przeprowadziwszy powyższą analizę uznałem, że nie ma czym się przejmować w kontekście spraw do załatwienia - trzeba robić, co się da. Zadałem sobie jednak pytanie: jak określić, czy wystarczająco dużo zadań podejmuję w stosunku do czasu, jaki mi to zajmuje? czyli innymi słowy: czy dobrze wykorzystuję wodę w płynącej rzece? Z tym jest gorsza sprawa. Trudno porównywać się z innymi ludźmi, bo jesteśmy bardzo różni. Zdecydowanie 8 godzin w ciągu doby odpada mi na sen, a kolejne dwie na obsługę fizjologiczną. Nie uniknę też 8 godzin dziennie w pracy. Dla uproszczenia założę, że wykorzystuję ten czas satysfakcjonująco dobrze. Co z pozostałymi sześcioma godzinami plus sobota i niedziela? Tutaj jest chyba języczek uwagi, gdzie należy skrupulatnie korzystać z wody w rzece. 
No ale ... chyba marnuję czas sobie i Wam tymi dywagacjami, więc przejdę do konkluzji, otóż:
1. Prawdopodobnie nie warto używać stwierdzenia "czas wolny" - to utopia.
2. Sprawy do załatwienia nie mają końca i nie warto się nimi przejmować (zapisać, aby wykonać lub zapomnieć).
3. Nie warto żałować czasu spania, pracy i obsługi fizjologicznej, to stałe elementy życia.
4. W miarę możliwości trzeba świadomie wybierać sobie robotę i nie bać odrzucać zadań, na których nam nie zależy.
Ot i rzuciłem swoje 15 minut w nurt czasu. Wracam do sprzątania mieszkania. :-)

niedziela, 30 września 2012

Fiat Punto - zaprojektowany na włoskie drogi

Właśnie wróciłem z tygodniowych wakacji w sórdkowych Włoszech, gdzie objeździłem część Umbrii i Toskanii pokonując blisko 1500 km. Europcar wyposażył mnie w nowego Fiata Punto z silnikiem diesla 1.3 75KM, manual-5, system start&stop i znośnym wyposażeniem. Silnik to mój stary znajomy z Astry, którą jeździłem, ale z turbiną ze stałą geometrią łopatek.
źródło: fiat.pl
Musicie wiedzieć, że drogi w tamtym regionie są inne niż w Polsce, bo są wąskie, dziurawe i zagadkowo oznaczone (sami zobaczcie tutaj). Na autostradach lewy pas jest węższy (na jedno Punto) a prawy pas zazwyczaj prezentował koleiny i dziury nie pozwalające zasnąć kierowcy oraz ledwo mieszcząc ciężarówkę.
Co do dróg lokalnych i miejskich, to prawie na pewno były projektowane co najwyżej dla rydwanów i to raczej przez Etrusków, niż przez Rzymian. Są strome, kręte, dziurawe i ogólnie mało przyjazne. Parkowanie na południu Europy ma złą sławę nie bez powodu i przypomina raczej rozpychanie się w przedziale wagonu drugiej klasy InterRegio.
W tych okolicznościach Punto okazało się być zaskakująco dobrze przygotowane. Wspomaganie kierownicy o zmiennej sile bardzo ułatwiało mi kluczenie. Szeroko-dostępny wysoki moment obrotowy silnika i niezwykle tolerancyjne sprzęgło pozwoliły mi z niskimi prędkościami  kluczyć (również tyłem) uliczkami o nachyleniu nawet do 24%. Pięcio-biegowa skrzynia biegów od razu wydała mi się nietrafiona, bo 3000 obr./min. osiągałem na ostatnim biegu już przy 130km/godz. Po kilku dniach zrozumiałem jednak, że to górna granica prędkości i skwapliwie trzymałem się 110km/godz. na autostradach - tam się po prostu nie da jeździć szybko. Kolejno wymiary tego auta wydawały mi się początkowo nikczemne, ale kilka prób parkowania na górskich uliczkach brukowanych ostatnio niecały tysiąc lat temu uświadomiło mi, że Panda byłaby "w sam raz".
Auto było bardzo dobrze wyciszone, a miękkie zawieszenie dzielnie ukrywało przełomy na drodze (skutki trzęsień ziemi). Moją uwagę przykuł też fakt, że fotel kierowcy umieszczony jest wysoko, kierownica jest blisko, a wolant zmiany biegów jest wyższy niż w innych autach. Odniosłem wrażenie, że to ukłon w stronę płci pięknej.
Były też wady: Radio konsoli środkowej miało błyszczące wykończenie skutecznie ukrywając treść na wyświetlaczu i eksponując pył. Przyciski sprawiały wrażenie pozbawionych mikrostyków i włączenie klimatyzacji zazwyczaj wymagało 2-3 krotnego naduszania. Wreszcie widoczność do tyły była słaba, a czujników parkowania nie zamontowano, więc ćwiczyłem wiarę we własny zmysł orientacji w przestrzeni.
Z ciekawości sprawdziłem, że takie auto kosztuje w Polsce koło 55 tys. zł. Przyznam, że spalanie na poziomie 4,7l / 100km, dostępny moment obrotowy, niezwykle łatwe prowadzenie, wysoka dzielność miejska i komfort jazdy przemawiają za tym autkiem. O ile jest to fajne auto na tydzień we Włoszech, to nie wiem, jak by się sprawiło w innych warunkach.

wtorek, 18 września 2012

Komputer gracza na jesień 2012

Bywają takie premiery nowych technologii, które potrafią zbudować wyjątkowo współgrającą konfigurację użytkową. Mam wrażenie, że właśnie nadszedł taki moment (Ivy Bridge 2C, Kepler GK106 i nadchodzący Win8).
Dzisiaj chciałem Wam przedstawić konfigurację domowego PCta, którą byłbym gotowy kupić od ręki, gdyby nadarzyła się taka sposobność. Zakładam, że celem jest zaspokojenie potrzeb przeciętnego gracza, konsumenta aplikacji multimedialnych (zdjęcia, filmy, muzyka) oraz drobne prace biurowo-domowe.  Oto moja konfiguracja:
komponent koszt 
obudowa SilverStone Sugo SG05 SST-SG05BB-450
płyta główna ASRock Z77E-ITX, Z77
procesor Intel Core i3-3220 BX80637I33220
chłodzenie SilverStone Nitrogon NT07-1156
pamięć RAM Kingston HyperX Blue 16GB DDR3-1600 KHX16C10B1K2/16X 
karta graficzna Gainward GeForce GTX 660 2GB 2777
karta SSD ADATA XPG SX300 64GB,mSATA ASX300S3-64GM-C
dysk twardy WD Scorpio Black 750GB WD7500BPKT
napęd optyczny Sony Optiarc BC-5640H Slim slot-In,SATA 30665790
system operacyjny MS Windows 7 HP 64Bit GFC-02062
monitor iiyama ProLite T2250MTS-B

Całość sumuje się do okrągłej kwoty ~4990 zł bez klawiatury, myszy lub innych peryferiów.
Główną atrakcją jest użycie świeżutkiego procesora z rodziny Ivy Bridge w wersji dwu-rdzeniowej z maksymalnym TDP 55W oraz jeszcze ciepłej karty graficznej z rodziny Kepler z nowym rdzeniem GK106 z TDP 140W (typowo 115W). Korzystając z obniżonej emisji ciepła celuję w rozmiar obudowy Mini-ITX, który zaś wymusił użycie napędu optycznego w rozmiarze slim (w tym przypadku jest to Combo BluRay-odczyt, DVD-zapis). Po złożeniu wyglądałoby to mniej więcej tak:
źródło: anandtech.com
Od strony pamięci masowej proponuję zastosowanie mechanizmu SRT (dzięki Z77), czyli nasz mechaniczny dysk 750GB miałby 64GB bufora pamięci NAND flash. Ta konfiguracja powinna bez trudu obsługiwać współczesne tytuły gier DirectX10/11 w 1920x1080 przy wysokich detalach i rozsądnym filtrem anty-aliasingowym.
Zauważcie, że policzyłem monitor TN z głośnikami i z wielo-dotykową powłoką pod kątem korzystania z Windows 8.
źródło: iiyama.com
Oczywiście znacznie chętniej dobrałbym wyświetlacz oparty na MVA lub IPS, który miałby też zintegrowaną kamerę internetową z mikrofonem, ale nie znalazłem nic sensownego.

środa, 5 września 2012

Drugie życie PCta

Kolega przekazał mi podzespoły wraz z obudową, jakie zostały mu po odświeżeniu komputera (dziękuję!). Zebrałem je w domu, uzupełniłem dyskiem twardym i napędem optycznym. W ten sposób uzyskałem następującą konfigurację:
Jak widzicie jest to konfiguracja porównywalna wydajnością z laptopem wyposażonym w Intel Pentium B940 i nVidia GeForce 620M (ale z DirectX 9.0c/OpenGL 2.0 i ze słabszą geometrią), czyli do przeglądania sieci, prostej obróbki zdjęć, oglądania filmów zupełnie wystarczy.
Wymiany wymagało chłodzenie karty graficznej, więc zamówiłem AAB Cooling Super Silent 2 za ~30zł i zamontowałem na rozstawie 80mm. Ogólnie oczyściłem podzespoły, domyłem obudowę i złożyłem wszystko z powrotem:
Powstała sympatyczna, przestronna, cicha konfiguracja z dużym zapasem chłodzenia. Przełożyłem też wentylator znad procesora na panel przedni, aby napędzić dolny kanał powietrzny (HDD > GPU).

Nowe chłodzenie GPU prezentuje się bardzo atrakcyjnie i zupełnie go nie słychać:


Całość pracuje pod kontrolą Ubuntu 12.04LTS. System nie wymagał doinstalowania żadnych sterowników i aktualnie uruchamia się w ok. 30 sekund (razem z POST).

Nie mam powodów do narzekania. :-)

[2012-10-20]
Niestety Skype for Linux mnie pokonał pod Ubuntu. Kłopoty z obsługą dźwięku powodowały notoryczne zawieszenia tej aplikacji. Mimo że reszta funkcji systemu i aplikacje działały doskonale (uwielbiam ten ich sklep z aplikacjami i uniwersalny komunikator), to musiałem się poddać. Poszukam OS bardziej przyjaznego dla Skype.