czwartek, 26 stycznia 2012

Szybki pociąg

Właśnie wróciłem do domu po niecodziennym, piętnasto-godzinnym dniu pracy. Dzisiaj byłem pod Paryżem na spotkaniu, które trwało 5,5 godziny. W między czasie używałem następujących środków komunikacji publicznej:
  • z domu na dworzec kolejowy
Przejazd tramwajem z przesiadką na trasie 8km zajął mi 50 minut i kosztował 1,25€.
źródło: b-rail.be
  • Bruxelles Midi -> Paris Nord
Przejazd szybkim pociągiem THALYS (belgijska odmiana TGV) na trasie 302km zajął mi 1h20 minut i kosztował 66€. 
źródło: travelupdate.be
  • z paryskiego dworca północnego na południowe przedmieścia
Przejazd pociągiem podmiejskim RER na trasie 20km zajął mi 35 minut i kosztował 2,50€.  
źródło: ratp.fr
  • z przedmieść do kampusu biurowego
Przejazd autobusem miejskim na trasie 11km zajął mi 45 minut i kosztował 1,70€. 
źródło: ratp.fr
  • dojście do biura
Spacer zajął mi 20 minut nim trafiłem po 2 km do miejsca przeznaczenia.

Podsumowując ...
Łącznie w jedną stronę przebyłem więc w ciągu 3,5 godziny 343 km wydając 71,45€. W drodze powrotnej zamieniłem autobus na taxi z braku czasu, ale pozostałe elementy były podobne. W ciągu dnia straciłem też niestety 2 godziny na błądzenie po przedmieściach (mój błąd, słabo się przygotowałem) oraz pół godziny na krótki posiłek. Gdybym pojechał autem, to wydałbym w jedną stronę ~28€ na samo paliwo i zajęłoby mi to około 4,5 godziny (3,5 godz. do Paryża i około godziny na obwodnicy), ale byłbym znacznie bardziej zmęczony i podjąłbym większe ryzyko.

Najciekawszy jest oczywiście przejazd THALYSem, który zapewnił mi ~225km/h średniej prędkości, osiągając 300km/h na dłuższych prostych. Tej szalonej prędkości nie odczuwałem w postaci hałasu, drgań ani nawet przeciążeń. Odniosłem wrażenie, że jadę po prostu luksusowym pociągiem. Nieco zaskakujące jest obserwowanie mijanego otoczenia - szczególnie aut na autostradzie obok, które wydają się stać w miejscu. Fascynujące! Zważywszy, że ubiegłej wiosny zapłaciłem 110zł (24€) za sześciogodzinną podróż IC z Warszawy do Wrocławia (~350km), wartość dostarczana przez technologię TGV jest oszałamiająca!

Nie do pominięcia jest również instytucja pociągu podmiejskiego, który w godzinach szczytu pozwala na przejazd przez cały Paryż ze średnią prędkością ~32km/h. Około połowę trasy przebył pod ziemią w towarzystwie metra. Kolega, który ostatnio przebył ten odcinek taksówką okupił to półtora-godzinnym siedzeniem i zapłacił ponad 60€.

Muszę przyznać, że korki, które pamiętam z Warszawy lub Wrocławia są znacznie mniejsze w skali od tych, których doświadczyłem w Brukseli i widziałem w Paryżu. Belgia i Francja od lat są też znacznie bogatsze od Polski, co tłumaczy i uzasadnia ich inwestycje w tak imponującą infrastrukturę komunikacyjną w stolicach oraz pomiędzy nimi. Myślę, że rozumiem nasze ograniczenia i nie oczekuję wcale tak daleko posuniętych usprawnień w Polsce w najbliższych latach.
Jednak wiem, że potrafimy w Ojczyźnie uruchamiać połączenia kolejowe z prędkościami do 160km/h, co daje z grubsza średnio ~120km/h na trasach daleko-bieżnych. W przypadku trasy Wrocław-Warszawa dałoby to wynik poniżej 3 godzin dla operacji przemieszczenia się pomiędzy centrami tych miast. Biorąc pod uwagę, że przeżyłem małe kilka lat oscylując między tymi miastami autem i cieszę się, że wciąż żyję, to nie mogę pojąć, dlaczego inwestycja w szybsze połączenie kolejowe nie jest najwyższym priorytetem naszych władz.
Wierzę, że udostępnienie szybkich, niezawodnych i wygodnych połączeń komunikacji publicznej w Polsce jest ważniejsze nawet niż poprawa stanu dróg. Szczerze życzę rodakom obu usprawnień jak najszybciej. Póki co - sugeruję uważnie przyjrzeć się bliskiej tam geograficznie infrastrukturze krajów zachodniej Europy.

poniedziałek, 23 stycznia 2012

Mikrofale

Właśnie wykonałem prosty eksperyment: podgrzałem sos do pasty w mikrofalówce w kuchni "pingując" router przez WiFi (802.11n 1x1:1 20MHz) z laptopa. Zwykle połączenie to pokazuje mi stabilnie 1 ms czasu odpowiedzi.
Oto zmiany w chwilach gdy magnetron kuchenki pracował:
Odpowiedź z 192.168.a.1: bajtów=32 czas=1ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=1ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=8ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=7ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=1ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=1ms TTL=64
Okresy podwyższonego czasu odpowiedzi idealnie zgrywały się ze "stuknięciami" włączanego i wyłączanego źródła mikrofali w kuchence. Kuchenka znajduje się 6 metrów od latopa, a router ok 1,5 metra od niego.
Na szczęście mikrofalówka jest sprawna i w niewielkim stopniu pogarsza SNR mojego połączenia.
Test powtórzyłem pobierając strumień 2Mbps (Windows Media Player ze źródła CIFS w sieci LAN) i włączając kuchenkę na pełną moc:
Odpowiedź z 192.168.a.1: bajtów=32 czas=1ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=1ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=10ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=8ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=8ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=9ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=5ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=8ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=13ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=3ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=3ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=1ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas=1ms TTL=64
Odpowiedź z 192.168.a.1: bajtów=32 czas<1 ms TTL=64
Jak widzicie tym razem czas pracy źródła zakłóceń jest znacznie lepiej widoczny. 
Nie da się ukryć, że pasmo 2.4GHz jest zatłoczone przez urządzenia WiFi oraz Bluetooth. Pamiętajmy jednak, że kuchenki mikrofalowe operują na tych samych częstotliwościa z ponad tysiąckrotnie większą mocą. Na szczęście pracują w zamkniętej, metalowej obudowie.

poniedziałek, 16 stycznia 2012

Router na miarę dzisiejszych czasów - pół roku później

W lipcu pisałem o moim domowym ruterze tutaj. W międzyczasie wiele się zmieniło w otoczeniu tego urządzenia. Wciąż jeszcze nie zestawiłem połączenia OpenVPN, bo też pozbyłem się problemu panaroidalnego ogniomurka z poprzedniego mieszkania. Chciałbym wrócić do Was teraz z garścią wrażeń z jego eksploatacji... 
W moim aktualnym mieszkaniu mam dostęp do sieci Internet poprzez WiFi (802.11g). Ponieważ w obrębie mieszkania również korzystam z sieci WiFi, hostowanej przez wspomniany już TP-LINK TL-WR1043ND, to zadanie klienta WiFi zewnętrznej powierzyłem TP-LINK WA500G (~85zł). Przy okazji odradzam ten AP - fatalny zasięg. Przez około kwartał borykałem się z kilku-sekundowymi przerwami w komunikacji z sieci Internet do rutera, które ostatecznie okazały się być problemami w kompatybilności mojego klienta z ruterem Buffalo (spuszczam zasłonę milczenia na model). Obecnie cieszę łączem 10/0.5Mbps ADSL 2+, na którym mam "wykrojone"  pasmo 5/0.3 Mbps.
W trakcie walk o stabilność łącza ruterowi dostała się wymiana firmware z fabrycznego na otwarty i aktualnie pracuje on pod kontrolą OpenWRT Backfire 10.03 z nakładką administracyjną web Gargoyle 1.5 w języku polskim :-). Wszystko to dzięki bezproblemowemu obrazowi dostępnemu tutaj oraz dobrej radzie Szwagra (pozdr!).
Z racji urlopu postanowiłem dzisiaj wykonać szybkie sprawdzenie kondycji dostępu do LAN w mieszkaniu. W tym celu sięgnąłem po iperf. Najpierw zainstalowałem to narzędzie paczką na ruterze i ustawiłem w tryb nasłuchu TCP, następnie wykonałem jedno-minutowe testy transmisji w paczkach 64kB z kilku urządzeń domowych. Oto wyniki:
  1. SAMSUNG NP 350
    połączenie 150Mbps (40MHz) z Intel WirelessN-130 na 802.11n 2.4GHz 1x1:1 -> 50 Mbps
    połączenie 1000Mbps z Realtek RTL8168 na skrętce UTP 5e -> 113 Mbps
  2. ASUS EeePad Transformer TF101
    połączenie 65Mbps (20MHz) na 802.11n 2.4GHz 1x1:1 -> 31 Mbps
  3. DELL Streak
    połączenie 54Mbps na 802.11g -> 21 Mbps
  4. ASUS UL50V
    połączenie 150Mbps (40MHz) z Atheros AR9285 na 802.11n 2.4GHz 1x1:1 -> 48 Mbps
Aby dać Wam jakiś punkt odniesienia przypomnę, że strumień filmu z DVD ma zwykle ~11Mbps a z BlueRay ma ~36Mbps.
Sytuacja wydaje się być tragiczna na pierwszy rzut oka, bo uzyskałem wyniki na poziomie ~35% nominalnej przepustowości dla WiFi, jednak spojrzenie na wyniki w sieci (np. tutaj) potwierdza tego typu rezultaty. Pomyślałem, że zaledwie ~11% przepustowości Gigabit Ethernet to już skandal. Po chwili jednak się zreflektowałem, bo nie powinienem oczekiwać po układzie Atheros AR9132, taktowanym 400MHz obsługi strumieni rzędu gigabita na sekundę. Postanowiłem przetestować tylko przełącznik routera. Ustawiłem serwer iperf na DELL OptiPlex GX360 pod Windows 7 x64 (Broadcom BCM5784M), a klienta na SAMSUNGu. Przy nie zmienionych parametrach testu uzyskałem wynik 565 Mbps, czyli powyżej połowy przepustowości teoretycznej.
Jak widzicie 1043 sprawuje się przewidywalnie w zakresie wydajności. Podczas normalnej aktywności obciążenie procesora rutera nie przekracza 5%, a użycie pamięci RAM utrzymuje się stabilnie na ~26MB. Łączność jest obecnie na tyle stabilna, że połączenia głosowe z Ojczyzną za pomocą Skype oraz usług SIP rzadko kiedy sprawia problemy. Parametry łącza pozwalają też na oglądanie filmów 720p w czasie rzeczywistym.
W przyszłości chciałbym przetestować połączenie 802.11n 2x2:2 40MHz, a więc nominalnie 300Mbps, aby uzyskać efektywnie ~100Mbps. Zastanawiam się na wymianą karty w SAMSUNGu na dwuzakresową (2.4/5GHz) Intel Advanced-N 6230, która wydaje się korzystać z dwóch anten jednocześnie dla WiFi oraz Bluetooth.
Wyciągając wnioski z eksploatacji sieci LAN u siebie w domu zalecam Wam "na dzisiaj" inwestycje w dwuzakresowe punkty dostępowe 802.11n (np. TL-WR2543ND za ~68€), bo w otoczeniu miejskim kanały 2.4GHz przypominają śmietnik. 
Od przyszłego roku powinniśmy już celować w urządzenia 802.11ac, zgodne wstecz z 802.11n. Polecam Wam artykuł nt. nadchodzących produktów tej nowej generacji WiFi tutaj.

niedziela, 8 stycznia 2012

Co z tym FCoE?

Konrad (pozdr!) zagadnął mnie któregoś razu o FCoE. Jako aktywny ekspert w zakresie pamięci masowych z szerokim portfolio wdrożeń posiada on najlepsze rozeznanie w zakresie tego, co klienci faktycznie kupują i - najwyraźniej - nie są to osławione już konwergentne konfiguracje.   Pytanie to nurtuje mnie od dłuższego czasu, jako że zastosowanie jednego interfejsu fizycznego do sieci LAN oraz SAN bez dodatkowych ograniczeń już na pierwszy rzut oka wydaje się być dobrym pomysłem.
Mimo że nie mam dla Was dzisiaj definitywnej odpowiedzi, to chciałbym się już podzielić przemyśleniami w tym zakresie. 
Problemy w skalowaniu
W dużych instalacjach centrów danych, gdzie serwery i pamięć masowa mieszczą się w wielu szafach, a te układają się w rzędy, zaś redundancja zapewniona jest przez co najmniej jedno dodatkowe centrum obliczeniowe, wyróżniamy na ogół przełączniki: 
  • egde, do których podłączone są serwery i inne urządzenia pracujące w sieciach LAN/SAN,
  • top-of-the-rack, które agregują połączenia w obrębie szafy,
  • core, które są centralnym węzłem połączeniowym dla wszystkich szaf.
Jest to grube uproszczenie, jednak zwykle odwzorowuje typy przełączników sieciowych używanych w co większej infrastrukturze. W sieciach IP, które w większości przypadków korzystają z połączeń ethernetowych w sieciach LAN, wraz z agregacją połączeń stosowany jest podział na podsieci oraz rutowanie pakietów pomiędzy nimi, aby poradzić sobie z ogromem ruchu LAN poprzez segmentację. Bardzo ładnie widać to w palecie oferty przełączników Cisco, gdzie obok przełączników dostępowych (Access) oraz dystrybucyjnych (Distribution) mamy przełączniki klasy Data Center, które zwykle są modularne i potrafią rutować pakiety pomiędzy setkami segmentów sieci z prędkością łącza fizycznego. 
Przez lata rozwoju FibreChannel powstały podobne mechanizmy radzenia sobie z wydzielaniem domen komunikacyjnych w SAN w postaci routerów FC (EX_port) oraz połączeń pomiędzy przełącznikami FC (E_port). Pozwoliło to odwzorować hierarchię przełączników LAN w sieci SAN oraz radzić sobie z konfiguracjami liczonymi w setki lub tysiące portów klienckich FC (np. 3 rzędy po 8 szaf i po 40 portów na szafę = 960 portów) oraz koniecznością zapewnienia łączności z innymi sieciami SAN (np. w centrum zapasowym).
Tymczasem rozszerzenia standardu Ethernet zwane CEE, które umożliwiły umieszczenie ranek FC w ramkach Ethernet były początkowo skierowane na rozwiązanie głównie problemów w małej skali. W naszym przypadku jest to odpowiednik zastąpienia dwóch przełączników klasy edge/access jednym, ale konwergentnym. Tutaj szczególnie celne jest przywołanie przełączników do obudów kasetowych, gdzie zwykle jest mało miejsca i montaż dwóch redundantnych przełączników 10GE w miejsce czterech (2*Eth + 2*FC) jest szczególnie korzystne (np. Cisco Nexus 4000). Kolejnym krokiem we wprowadzeniu FCoE było wprowadzenie funkcji FC Forwarder do urządzeń zgodnych z CEE w klasie top-of-the-rack, np. Cisco Nexus 5000, które miały za zadanie przekazywać ruch Ethernet+FC pomiędzy klientami lub przełącznikami klasy edge/access do centralnego rdzenia sieci Ethernet oraz do natywnych sieci FibreChannel. Mimo dobrych wzorców pochodzących ze sprawdzonych w FC topologii sieciowych nie ma w tej chwili na rynku konwergentych przełączników klasy Core, które miałyby zaimplementowane funkcje typu Director-class. Polecam Wam zapoznanie się z artykułem źródłowym tutaj oraz przejrzenie prezentacji tutaj. Technical Comittee 11 pracuje z dostawcami technologii SAN nad rozszerzeniami FC, które mogłyby zaadresować topologie mieszane z FCoE oraz rozwiązania end-to-end.
W mojej ocenie to jest główny powód dla którego FCoE jest postrzegane przez specjalistów pamięci masowych jako rozwiązanie niedojrzałe. Z punktu widzenia standardów przemysłowych topologia sieci FCoE słabo skaluje się powyżej urządzeń klasy top-of-the-rack
Tutaj jednak chciałbym podkreślić, że jesteśmy świadkami nowych możliwości konsolidacji, co zbliża nas do przechowywania centrum obliczeniowego w jednej  lub dwóch szafach. Dla przykładu zestawienie w jednej szafie 48U:
stworzyłoby na 41U szafy domenę 640 rdzeni obliczeniowych, 4TB RAM oraz 57TB pamięci masowej, pracujące w jednym segmencie FCoE, dzięki połączeniom pomiędzy obudowami kasetowymi (patrz tutaj, str 22). Przy użyciu współczesnych hypervisorów można by oczekiwać brutto np. 160 maszyn     wirtualnych posiadających średnio po 4 rdzenie, 25GB RAM i 360GB surowej pamięci masowej. Przy użyciu dwóch/trzech przylegających szaf konfiguracja ta może mieć dwukrotnie więcej serwerów oraz sześciokrotnie więcej dysków. Ewentualne centrum zapasowe mogłoby być zrealizowane poprzez lustrzane odbicie infrastruktury oraz odpowiednie oprogramowanie, zaś kopie zapasowe mogłyby korzystać z dedykowanych portów FC w Nexus 5000.
Jeżeli Wasza organizacja ma co najmniej kilkukrotnie wyższe potrzeby i chce mieć homogeniczną sieć pamięci masowej, to rzeczywiście warto rozważyć budowę SAN na sprawdzonych rozwiązaniach FC. Jednak nawet wtedy opłacalne będzie zachowanie konwergencji w obrębie szafy.
Przy okazji - warto zwrócić uwagę na rozwiązania Brocade oparte o własną technologię zwaną VCS Fabric Technology (więcej tutaj), które rozwiązują problemy związane z konfiguracją segmentów FCoE do poziomu top-of-the-rack.
Koszty
Jeżeli spojrzymy na to kto faktycznie rozwija FCoE na rynku, to - wg mojej najlepszej wiedzy - zauważymy, że poza Intelem i Broadcomm, którzy ograniczyli się do implementacji CEE w swoich układach 1/10GE, mamy na rynku głównie Brocade, Cisco, QLogic oraz Emulex. Pozostali gracze to integratorzy używający rozwiązań w/w firm (np. IBM używa przełączników Brocade, a HP używa przełączników QLogic). Niestety są to gracze, którzy obecnie rozdają karty również na rynku Fiber Channel i nie spieszy im się do wprowadzenia na rynek Ethernetowych zamienników FC w cenach, które zagroziłyby ich zyskom. To im się zwyczajnie nie opłaca. Dlatego też karty CNA  10GE są nierzadko dwukrotnie droższe niż ich wolniejsze odpowiedniki HBA 8Gb FC. Jednak klienci sporo oszczędzają na ograniczeniu liczby interfejsów (szczególnie optycznych). Oszczędności na przełącznikach są istotne, a obniżenie kosztów zarządzania dzięki wyeliminowaniu kabli również nie pozostaje bez znaczenia. Myślę, że z chwilą wprowadzenia standardu przemysłowego wyczerpująco definiującego rozwiązania end-to-end mógłby się pojawić na rynku gracz oferujący rozwiązania szybsze i dużo tańsze od czystego FC. 
Sterowniki
Szybkie spojrzenie do bazy kompatybilności sterowników dla rodziny VMware ESX pokazuje, że karty CNA QLogic i Emulex uzyskały wsparcie po raz pierwszy w wersji 4.0. Były one przedmiotem wielu poprawek zarówno w sterownikach, jak i samym ESX. Popularne układy, jak na przykład Intel 82599 lub Broadcom BCM578x0 uzyskały wsparcie dopiero w świeżo wydanym ESX 5.0. Fora VMware pełne są też dyskusji administratorów wokół problemów z wirtualnymi interfejsami kart CNA, ale większość postów jest z 2010 oraz pierwszej połowy 2011 roku, co dobrze rokuje.
Zarządzanie
W dużej skali SAN kluczowe z punktu widzenia TCO jest maksymalne uproszczenie zarządzania konfiguracją, zmianą oraz przywracaniem po awarii w zcentralizowany i zestandaryzowany sposób. Istniejące w sieciach FC systemy zarządzania nierzadko nie odzworowują prawidłowo urządzeń połączonych przez FCoE z braku informacji o nich (odpowiednie metadane o konkretnych modelach urządzeń). Przełączniki konwergentne bywają z pochodzenia urządzeniami ethernetowymi i bardziej pasują w szerszym obrazie systemów NMS niż SAN-NMS.  To dodatkowo zniechęca klientów.
Podsumowanie
Z pewnością nie wyczerpałem tematu i mogłem pominąć istotne aspekty techniczne, jako że nie mam bezpośredniego kontaktu z sieciami FCoE na co dzień. Wydaje mi się jednak, że powyższy opis oddaje przynajmniej część odpowiedzi na pytanie, dlaczego większość klientów wciąż buduje sieci FC i Ethernet oddzielnie zamiast korzystać z FCoE.
Ufam, że dzięki niedawnym zmianom w Linux Kernel 3.2, ESX 5.0 oraz upowszechnieniu się sterowników takich jak ten, rok 2012 przyniesie nam coraz więcej implementacji FCoE end-to-end w małej skali oraz edge + top-of-the-rack w większej skali.
Polecam też Waszej uwadze ten artykuł Grega Schulza o przewidywanych trendach na rynku pamięci masowych w 2012 roku.

środa, 4 stycznia 2012

HP Compaq L2311c Notebook Docking Monitor

Jeżeli laptop jest Waszym głównym urządzeniem i często go zabieracie za sobą, a nie macie tradycyjnej stacji dokującej, to mam dla Was dobrą wiadomość. HP wprowadza do sprzedaży 23 calowy monitor L2311c 1080p z matowym pokryciem, który posiada zintegrowane głośniki, kartę sieciową, hub USB oraz kamerę Web z mikrofonem. Zakładając, że podłączymy do monitora klawiaturę i mysz, to wystarczy go podłączyć do portu USB 3.0 w laptopie, aby cieszyć się wygodą pracy jak na stanowisku stacjonarnym. Genialne.
Nie mam jeszcze informacji o matrycy ani szczegółach działania oprogramowania do dokowania, ale uzupełnię post, gdy tylko się pojawią.

Koncentrat

  • Doczekaliśmy się pierwszej karty graficznej, opartej na układzie wykonanym w technologii 28nm oraz opartym na nowej architekturze - AMD Radeon HD 7970. To jest najmocniejszy układ w rodzinie Southern Islands i jest o 50% szybszy od 5870 oraz 20-30% szybszy od 6970 i konkurencji (GTX 580). Mówimy tu o karcie za ~$550, która będzie w sprzedaży dopiero od przyszłego tygodnia, więc nie ma pośpiechu. Polecam Wam artykuł tutaj.
  • Mnie jednak interesuje raczej mniej niż połowa wspomnianego układu Tahiti XT (7970), czyli Cape Verde XT w postaci karty AMD Radeon HD 7770, która wg Fudzilli wejdzie do sprzedaży w ciągu dwóch miesięcy w cenie ~$150. Radzę Wam jednak wstrzymać się z ewentualnymi zakupami do kwietnia, kiedy to ukaże się odpowiedź nVidia w postaci rodziny Kepler.
  • Intel wprowadza do sprzedaży Atomy (Cedar Trail) wykonane w technologii 32nm - N2600, N2800 i D2700. Architektura i łączny pobór prądu się nie zmienia, ale wzrośnie nieco wydajność CPU (liniowo z częstotliwością taktowania) oraz nawet dwukrotnie wydajność rdzenia graficznego (tym razem zamiast GMA 3150 jest to PowerVR SGX 545). Więcej tutaj. Test przykładowego netbooka znajdziecie tutaj.
  • Polecam Waszej uwadze ten artykuł Kamila Folgi na temat pasywnych sieci optycznych. Zważywszy na intensywne wysiłki naszych władz w kraju i w Europie w zakresie upowszechnienia łączy szerokopasmowych, znajduję GPON potencjalnie najlepszą opcją dla gęsto-zaludnionych obszarów w Polsce.
  • Rzućcie też okiem na ciekawy artykuł Cyrila Kowaliskiego na temat współczesnych gier pt. What's next for PC gaming?