sobota, 30 listopada 2013

Nieulotna pamięć

DailyTech opublikował wczoraj informację o wyjątkowej inicjatywie graczy rynku pamięci, która ma na celu przyspieszenie prac nad jednym z dobrze zapowiadających się rodzajów pamięci nieulotnej - MRAM (Magnetoresistive Random Access Memory). 
Wiadomość jest oczywiście budująca, ale moją uwagę przykuł sam artykuł, który sprawnie podsumowuje sytuacje na rynku pamięci pół-przewodnikowych. Polecam Wam zapoznanie się z nim i załączam subiektywne streszczenie poniżej:

Podział pamięci komputerowej na szybką, ale ulotną (RAM) i wolniejszą, nieulotną (Non-Volatile RAM) w dzisiejszych urządzeniach jest wynikiem kompromisu wymuszonego ograniczeniami technologicznymi.
Gdyby udało się znaleźć tanią, nieulotną i trwałą pamięć o wydajności nie niższej niż układy DRAM, to można by było stosować tylko ten jeden rodzaj pamięci w komputerach.
Nietrudno zauważyć, jaką rewolucją było dla nas upowszechnienie się pamięci NAND flash. Niestety zbliżamy się szybko do granic możliwości zwiększania jej pojemności, obniżania ceny jednostki pojemności i utrzymywania znośnej trwałości. Potrzebujemy lepszego nośnika informacji.

MRAM
Przedmiotem uwagi członków nowego konsorcjum jest technologia ST-MRAM (Spin Torque Magnetoresistive RAM). Zapis informacji odbywa się w niej z użyciem tzw. Magnetic Tunnel Junction (MTJ), czyli kombinacji dwóch ferromagnetyków rozdzielonych izolatorem, gdzie pod wpływem przyłożonego napięcia elektrony migrują przez izolator pomiędzy ferromagnetykami.Jeden z nich zmienia wtedy swoją polaryzację i bit informacji zostaje zapisany. Dzięki braku potrzeby użycia pola magnetycznego czy kondensatora ST-MRAM jest względnie łatwy do implementacji i miniaturyzacji. Ważne jest to, że zapis i odczyt z tej pamięci jest porównywalnie wydajny co z DRAM. Pierwszy produkt - Ever Spin EMD3D064M o pojemności 8MB pracuje z prędkością szyny 2 * 3.2 GB/sek., czyli około 20 razy szybciej niż znane nam układy NAND flash, używane powszechnie w urządzeniach mobilnych i SSD.  Co bardzo ważne, nosniki ST-MRAM mają o dwa rzędy wyższą trwałość. 
Polecam reportaż z konferencji tutaj
Pamięć ta jest już używana w dysku SSD firmy Buffalo (SS6) jako pamięć podręczna / bufor zapisu i odczytu.

Są jeszcze inne interesujące technologie które mogą pełnić rolę NVRAM w przyszłości...
Polecam Wam również ten artykuł.

SONOS/SHINOS memory
To w zasadzie ulepszenie znanych nam technologii NAND flash poprzez zmianę medium przechowującego informację i dostosowanie aparatu zapisu. Inne związki chemiczne i postać dają obiecujące efekty - obniżone napięcie i wydłużona żywotność. Polecam Wam ten folder. Zapowiada się dobrze, potrzeba nam produktów.

PRAM/PCM (Phase Change Memory)
To rozwiązanie optyczne analogiczne do mechanizmu CD/DVD/BluRay, ale zminiaturyzowane i zamknięte w układzie scalonym. Wydajność jest porównywalna lub wyższa niż NAND flash, a trwałość jest trzy rzędy wielkości wyższa. Produkcja trwa już od kilku lat i jest bardziej zaawansowana niż ST-MRAM, bo Micron miał nawet w swojej ofercie układy używające PCM (128MB PCM + 512MR DRAM z interfejsem LPDDR2), ale w katalogu oznaczone są, jako wycofane ze sprzedaży. Samsung przewiduje układy o pojemności 32GB wykonane w litografii 14nm.

To właściwie worek różnych pomysłów na izolatory, które pod wpływem wysokiego napięcia tworzą ścieżki pomiędzy elektrodami, dające się przerwać.Prototypy są szybsze od PRAM i prostsze w produkcji od T-MRAM (porównywalne z ST-MRAM). Niestety prototypy borykają się z niechcianym przewodzeniem i ograniczoną trwałością. Tego lata firma Crossbar ogłosiła prototyp o pojemności 1TB i wydajności rzędu 140MB/sec. przy znacząco niższym poborze energii niż NAND flash. Wkrótce potem zebrała dość kapitału, by rozpocząć próbną produkcję.

W 2008 roku IBM zaprezentował pierwszą 3-bitową wersję tej pamięci. Używa ona głowicy do przesuwania domen magnetycznych na super cienkim drucie, zawierających bity. W przyszłości układy scalone miałyby mnóstwo drutów i głowic odczytu i zapisu. Czas dostępu jest porównywalny and prędkość odczytu / zapisu jest o ponad rząd wielkości niższa niż DRAM. Czekamy na nowe wersje układów z lepszymi materiałami...

Od 2008 HP produkuje prototypy pasywnego elementu elektronicznego z pamięcią - memrystora. Elementy te możnaby łatwo integrować i gęsto pakować w układach scalonych. Niestety środowiska naukowe sugerują, że przed 2018 rokiem nie zobaczymy na rynku pamięci opartych na tych elementach. Sporo się jednak dzieje w tym temacie i co kilka miesięcy pojawiają się interesujące artykuły, np. o uczącym się memrystorze.

Technologia zbliżona konstrukcyjnie do DRAM, ale wykorzystująca cienką warstwę tlenku ołowiu z cyrkonem i tytanem (PZT), która potrafi zmieniać swoją polaryzację pod wpływem napięcia. 
Cechuje się bardzo wysoką trwałością i szybkością. Więcej na stronie Texas Instruments tutaj.

PMC (Programmable Metallization Cell / Conductive-Bridging RAM / Nanobridge / Electrolytic memeory)
W tym przypadku izolator pomiędzy elektrodami jest elektrolitem. Jedna z elektrod jest aktywna chemicznie i jony mogą migrować pod wpływem napięcia do izolatora, tworząc cieniutkie połączenie i zwiększając przewodność. Potencjalnie mechanizm byłby pod każdym względem lepszy od NAND flash, ale producenci wciąż szukają kryształu / materiału, który jest w stanie przetrwać standardowy proces produkcji CMOS.

NanoRAM (Carbon Nanotube Memory)
Firma Nanotero proponuje umieszczać pomiędzy elektrodami nanorurki węglowe, które mogą występować w dwóch stabilnych stanach: sklejonym i luźnym. W tym pierwszym przewodzą prąd. Konstrukcja jest bardzo zbliżona do F-RAM. Dotychczasowe próby oparte są na technikach produkcji DRAM (elektrody), więc NRAM ma te same ograniczenia gęstości, co DRAM. W swej naturze jest jednak bardziej energo-oszczędna i potencjalnie szybsza od DRAM. Nie znalazłem żadnych przykładów produktów poza zamówieniami wojskowymi...

To technologia pochodząca z laboratoriów IBM, używająca mikroskopijnych kart perforowanych z polimeru zapisywanych i odczytywanych przez mikroskopijne mechanizmy zwane MEMSami. Zapis odbywa się przy użyciu ciepła. Niestety nie ma jeszcze prototypów na tyle dojrzałych, żeby łatwo porównać tę technologię z innymi.

Nie twierdzę, że rozumiem jak działają te prototypy, ale upatruję w nich rozwiązania naszych codziennych problem z urządzeniami elektronicznymi. Żyjemy w ciekawych czasach i warto być w stanie śledzić kolejne przełomy na tym polu.

poniedziałek, 4 listopada 2013

Koncentrat

  • Apple zaktualizował iMac (Haswell, 802.11ac) oraz wprowadził iPad Mini z Retiną oraz iPad Air (oba na SoC A7). Mniejszy iPad jest strzałem w dziesiątkę i z pewnością pozwoli producentowi odzyskać nieco udziału na rynku tabletów.
  • źródło: apple.com
  • OS X Mavericks został udostępniony za darmo i jest w tej chwili najlepiej zoptymalizowanym systemem operacyjnym na platformy Haswell. Szacunek. 
    źródło: apple.com
  • Google pokazał wreszcie Nexus 5 (zero zaskoczenia) i Android 4.4 KitKat - polecam to podsumowanie. Moim zdaniem kluczowe są zmiany ograniczające konsumpcję RAM, poprawiające bezpieczeństwo (SE Linux w restrictive mode) i unifikacja manipulacji plikami.
  • źródło: google.com
  • Microsoft wprowadził drugą generację urządzeń Surface (polecam testy: Pro 2 i 2). Ten tańszy, oparty na Tegra 4 wydaje się być naprawdę interesujący, gdy wziąć pod uwagę cenę (mimo braku x86).
  • SHARP właśnie zaproponował fantastyczne urządzenie: Mebius Pad, oparte na układzie Bay Trail i odporne na żywioły. Centralną zaleta jest wyświetlacz IGZO 10.1" 2560x1600. Planują rozpocząć sprzedaż w styczniu 2014.
  • DELL Venue 11 Pro też wygląda interesująco.
  • No i jeszcze - Asus Transformer T100 naprawdę jest tak dobry, jak myślałem.
  • Jeśli myślicie o zakupie laptopa to weźcie pod uwagę SONY VAIO Pro 13 (test), koniecznie z pamięcią M.2 PCI-Express.
  • Micron rozpoczął ograniczoną dystrybucję pierwszego układu Hybrid Memory Cube. technologia powinna zrewolucjonizować procesory nadchodzących lat. Pomyślcie sobie, że można by podnieść wydajność pamięci RAM o rząd wielkości. Uwolniłoby to w końcu integrację GPU.
  • nVidia zaproponowała wyposażanie monitorów w układ G-Sync, który pozwala ich kartom graficznym bezpośrednio sterować matrycą, aby wyświetlać wyrenderowany obraz, gdy jest dostępny, a nie w rytmie odświeżania ekranu. Pomysł jest dobry, ale potrzebujemy standardu. Więcej tutaj.
  • AMD wprowadziło do sprzedaży pseudo-nowe układy GPU z rodziny Volcanic Islands. W rzeczywistości interesujący jest tylko Radeon R9 290/X, czyli Hawaii Pro/XT (polecam test tutaj), bo to jedyna nowość. Karty oparte na tych układach są wycenione na ~$550 i są w miarę opłacalne, o ile gracie w rozdzielczościach powyżej 1080p.
  • Cyanogenmod przekształcił się w firmę i znacznie przyspieszył rozwój własnych funkcji. Już po kilku tygodniach widać, że znacznie szybciej zaczęli przygotowywać nowe ROMy. Wkrótce ma się pojawić również łatwy "instalator". Daje to nadzieję użytkownikom porzuconym przez producentów.
  • Od 17 Października 2013 możemy pobierać Windows 8.1, który (poza problemami z myszą) wydaje się działać.

piątek, 1 listopada 2013

Uwolnić NAND flash

Nietrudno zauważyć, że ostatni rok był nudny na rynku "dysków" SSD. Od wprowadzenia pamięci obsługujących SATA 3.0 (a więc 6Gbps, czyli teoretycznie to 768MBps) widzimy wciąż te same osiągi. Odczyty sekwencyjne kształtują się na poziomie ~520MBps a zapis waha się między 200 a 450MBps, podczas gdy czasy dostępu ustabilizowały się na poziomie ~0,1ms. Na szczęście aktualnie dostępne dyski są w stanie odczytywać i zapisywać bloki 4kB powyżej 20MBps.
Takie osiągi są wciąż lata świetlne lepsze od dysków mechanicznych, ale to już wiemy.
Dla mnie faworytem jest obecnie SAMSUNG 840 EVO (poczytaj tu), który w 250GB można kupić już za ~650zł. Dzięki zastosowaniu pamięci TLC jest najlepszym kompromisem między kosztem, wydajnością i trwałością.
Nie trzeba jednak dyplomu, aby zauważyć, że suma wydajności 16 banków pamięci NAND flash na czterech kanałach może z łatwością przekroczyć limit rzeczywistej przepustowości interfejsu SATA 3.0.
Jak wykorzystać ten potencjał?
Odpowiedzią może okazać się odmiana urządzeń M.2 (dawniej NGFF) zdefiniowana pod egidą standardu SATA Express (3.2). Karty tego formatu występują w odmianach:

  • Legacy SATA - są to karty działające przez interfejs SATA
  • SATA Express/AHCI - to rozwiązania korzystające z PCIe, które emulują kontroler AHCI
  • SATA Express/NVMe - to karta PCIe korzystająca z nowego typu kontrolera - NVM Express
Serwis thessdreview.com przetestował laptopa SONY VAIO Pro 13 z kartą Samsung XP941 M.2 PCIe:

Jeśli dobrze interpretuję te doniesienia, to jest to karta typu "AHCI on PCI-E", bo używa kontrolera MDX (oparty na rdzeniach Cortex-R4). Oznacza to, że dzięki wsparciu UEFI można z niego startować system operacyjny. Karta używa 4x PCI-E 2.0, co daje teoretycznie do 2000Mbps przepustowości.
Zobaczcie jakie transfery sekwencyjne uzyskała w porównaniu z trybem SATA:


Patrzymy na dwukrotnie wyższe transfery od reszty tradycyjnych SSD. Wąskim gardłem są już same pamięci NAND flash i zdolność kontrolera MDX do zrównoleglania zadań. To jest największy postęp od czasów przesiadki z SATA 2.0 na 3.0!
Wydajność mierzona w IOps w zasadzie nie uległa zmianie, bo uderzamy tu o barierę przetwarzania transakcji. Dopiero przesiadka na NVMe i optymalizacje w systemach operacyjnych przyniosą poprawę na tym froncie.
Jeśli planujecie inwestycję w laptopa w najbliższym czasie, to zwróćcie uwagę, czy jest możliwość zakupu pamięci masowej w formie karty M.2 z PCI-E (jeden ząbek) i z obsługą startowania w UEFI.
M.2 PCI-E jest dla nas istotnym krokiem naprzód w oczekiwaniu na rozwiązania oparte na ReRAM.

niedziela, 27 października 2013

Miracast na co dzień

Konrad (pozdr.) zadał mi rozsądne pytanie o me przypadki użycia bezprzewodowego wyświetlacza Miracast. Zapytanie jest o tyleż zasadne, że mamy na rynku wiele nie działających par nadajników i odbiorników, a sama funkcjonalność jest na tyle nowa, że trudno przewidzieć jej użyteczność.
Mam możliwość wyświetlania bezprzewodowego dopiero od sierpnia tego roku i tylko ze smartphona ZOPO C2 na telewizor w pokoju dziennym LG 55LN5758. Zarówno komputer stacjonarny, laptop, tablet jak i drugi smartphone nie wspierają tego standardu.
W przeszłości chcąc wykorzystać wyświetlacz telewizora podłączałem laptopa lub tablet przez HDMI. W praktyce sięgałem po to bardzo rzadko, bo byłem ograniczony długością kabla i koniecznością sznalezienia miejsca, by usadzić urządzenie nadające. Teraz korzystam z łączności bezprzewodowej.
Winny jestem Wam jednak słowo wprowadzenia. Otóż smartphone stał się moim głównym urządzeniem w ciągu ostatnich dwóch lat. Korzystam z niego w blisko 95% przypadków kontaktów z elektroniką. Komunikacja głosowa, chat, SMS, e-mail, forum odbywa się przez aparat. Znakomitą większość artykułów i magazynów czytam z niego. Większość zdjęć i filmików nagrywam telefonem, a następnie porządkuję i wysyłam bądź umieszczam w Picasa. Smartphone jest moim kalendarzem, słownikami językowymi, nawigatorem, radiem, itp. itd. Na potrzeby rozmów wideo sięgam do tabletu lub komputera stacjonarnego . Edycję tekstów, arkuszy i wpisy na bloga realizuję na laptopie lub PCecie (gdy żona wyjeżdża z laptopem). Jak widzicie naprawdę większość rzeczy załatwiam na smartphonie. 
Niestety ekran telefonu, choć czytelny i gęsty (1080p) nie nadaje się do współ-patrzenia dla więcej niż dwóch osób. Mogę więc pokazać to i owo drugiej osobie, ale gdy mamy gości (na przykład znajomi lub rodzice), to wypadałoby użyć telewizora, stojącego wygodnie naprzeciwko kanapy, obok stołu z krzesłami.
Wtedy też mogę - nie ruszając się z kanapy / krzesła - "rzucić" na telewizor coś, o czym rozmawiamy na kilka minut. Może to być:
  • album zdjęć z wycieczki czy urlopu,
  • filmik znaleziony na fejsie czy youtube,
  • mapa pokazująca, dokąd jedziemy,
  • "rozkład jazdy" najbliższego kina ("na co idziemy?"),
  • obraz z aplikacji flightradar24, aby wiedzieć, kiedy wyjechać na lotnisko,
  • aplikacja z kolejką odjazdów tramwajów na pobliskim przystanku,
  • e-mail od kogoś, z załącznikiem (PDF, docx, xslx).
Mógłbym jeszcze wymieniać możliwości, ale sprowadza się to do współ-odbierania przekazu przez więcej niż dwie osoby przebywające w pokoju dziennym. Myślę, że sięgam po tę funkcję 2-3 razy w miesiącu, więc nie jest to sprawa codzienna. Mimo to postrzegam to jako niezwykle poręczne udogodnienie. Znacznie łatwiej będzie nam dostrzec korzyści z bezprzewodowego wyświetlania, gdy wszystkie urządzenia będą kompatybilne.
Ubolewam, że nie mogę użyć Wireless Display z laptopa (głupie ograniczenie sterownika Intela, który sprawdza model procesora) czy PCta, gdzie miałbym lepszą kontrolę zawartości (mysz lub gładzik) i mógłbym odtwarzać dłuższe treści (na razie do mediów używam Raspbmc). Skandalem jest też brak wsparcia Miracast w tablecie Google Nexus 10, ale tam mam z grubsza to samo, co w smartphonie, więc przeżyję.
Warto też podkreślić, że bezprzewodowe wyświetlanie ma największy potencjał w przestrzeni publicznej (w pracy, w knajpie), gdzie każdy mógłby łatwo i szybko wykorzystać telewizor lub rzutnik, aby wyświetlić prezentację, dokument czy materiał multimedialny. To jest przyszłość!

sobota, 26 października 2013

ASUS RT-AC66U z kartą Advanced-AC 7260

Dzisiaj goszczę u kolegi (pozdr), który eksploatuje router ASUS RT-AC66U.
źródło: asus.com

Ponieważ mam ze sobą laptopa z niedawno zamontowaną kartą Intel Advanced-AC 7260, to nie omieszkałem wykonać kilku testów iperfem przy 802.11ac 2x2 80MHz:
  • przy odległości ~1m, wynegocjowana prędkość 560-867Mbps, wynik ~200Mbps
  • przy odległości ~3m, wynegocjowana prędkość 300-650Mbps, wynik ~150Mbps
  • przy odległości ~7m, wynegocjowana prędkość 120-180Mbps, wynik ~63Mbps
  • piętro wyżej, nad routerem, wynegocjowana prędkość 350-530Mbps, wynik ~95Mbps
  • piętro wyżej, najdalej (~12m), wynegocjowana prędkość 50-85Mbps, wynik ~26Mbps
Wyniki są średnio około jedną czwartą lepsze niż na moim domowym Belkin AC1200, ale wynegocjowane prędkości znacznie szybciej spadają w miarę oddalania się od RT-AC66U.
W praktyce można liczyć na 100-180Mbps w tym samym pokoju i nie mniej niż 22Mbps w obrębie dwupiętrowego domu jednorodzinnego.
Sprawdziłem też router 1x1 i 2x2 802.11n na 2.4GHz i byłem pozytywnie zaskoczony wynikami zarówno zasięgu i przepustowości. Z 300Mbps wynegocjowanych miałem koło 100Mbps stabilnych. Na telefonie ZOPO C2 w 1x1 uzyskałem ponad 35Mbps! :-)
Szkoda tylko, że ten router kosztuje aż ~600zł.

niedziela, 20 października 2013

Raspbmc z HDMI-CEC

Udało mi się wreszcie sklecić materiał wideo prezentujący zastosowanie jednego pilota (TV) do sterowania XBMC na Raspberry Pi, dzięki Raspbmc.
Miłego oglądania!

Windows 8.1

Właśnie zakończyłem instalację aktualizacji Windows 8 do 8.1 na komputerze stacjonarnym. Proces pobierania i instalacji zajął niecałe pół godziny. Po restarcie i wprowadzeniu ustawień musiałem jeszcze pobrać aktualny sterownik AMD do Radeon HD 6870 - driver package 13.152-130830a-163178C-ATI. Wygląda na to, że MS Office 2013 przetrwał upgrade. Reszta aplikacji też zdaje się działać.

O ewentualnych problemach będę Was informował...

sobota, 19 października 2013

Pierwszy test 802.11ac

Nie wytrzymałem i kupiłem sobie w prezencie kartę WiFi Intel Advanced-AC 7260 w formie karty mini-PCI Express half-height (występuje też na rynku w formie karty NGFF M2). Kosztem 28€ w ciągu dwóch dni przyszła do mnie pocztą z Holandii:
 

Ostatnio pisałem Wam o nowym routerze Belkin AC1200. Chciałem jak najszybciej sprawdzić na jaką wydajność mogę liczyć. Niezwłocznie przystąpiłem do umieszczenia karty w naszym laptopie domowym SAMSUNG NP350U2A.
 

 
Wymiana przebiegła bez ekscesów, a karta pod Windows 8 zadziałała od ręki po wymianie sterowników.
W teście iperf (TCP, window=128kB, 60 sek.) wydajność w trybie 2x2 wzrosła mi z ~90Mbps na 802.11n do ~117Mbps na 802.11ac. W trakcie testów negocjowana prędkość łącza wahała się między 270 a 360Mbps, przy kanałach 40MHz (patrz tutaj).
Mam nadzieję, że w miarę aktualizacji oprogramowania wydajność będzie się poprawiała...

[2013-10-20]
Dziś rano zorientowałem się, że wczoraj testowałem na kanałach 40MHz, więc przełączyłem się na 80MHz z użyciem trzech wyższych kanałów i w iperf uzyskałem ~140Mbps przy wynegocjowanym trybie 867Mbps (2x2 przy 1,6m). Myślę, że to wyznacza punkt odniesienia dla możliwości tego rozwiązania.

niedziela, 13 października 2013

Belkin AC1200

Będzie już rok odkąd sąsiad przesiadł się na VDSL i tym samym rozszerzył przepustowość naszego współdzielonego łącza w dół z 35Mbps do 50Mbps. Dla mnie nic się nie zmieniło, bo zarówno u niego, jak i u mnie urządzenia zatrzymały się na 802.11g. Mimo wynegocjowanych 54Mbps pomiędzy moim access pointem w trybie bridge a jego routerem faktycznie można było uzyskać do 22Mbps. Rolę mego routera domowego pełnił dzielnie TP-LINK TL-WR1043ND, zapewniając segment gigabitowy PCtowi i NASowi oraz bąbel WiFi 802.11n 2x2 na 2.4GHz. W sieci bezprzewodowej pracowało od 5 do 7 urządzeń jednocześnie walcząc o pasmo radiowe. Warto zaznaczyć, że u nas w budynku wykrywam ponad 20 sieci WiFi na 10 kanałach w paśmie 2.4GHz, więc kolizje pakietów były naszym chlebem powszednim.
Jako że nasz laptop SAMSUNG NP350U2A od jakiegoś już czasu cieszył się kartą dwuzakresową Intel Advanced-N 6235, podobnie jak Google Nexus 10, to rozglądałem się za jakimś routerem dwuzakresowym z jednoczesną obsługą obu pasm. Problem w tym, że router 802.11ac są jeszcze drogie, a tych 802.11n nie warto już kupować. Nie mam jeszcze żadnego klienta nowego standardu, ale routera nie kupujemy zwykle na rok czy dwa, więc warto zabezpieczyć się na przyszłość.
Przeglądałem dostępne oferty już od kilku miesięcy, ale nie mogłem się pogodzić z wysokimi cenami routerów takich jak: TP-LINK TL-WDR4300 Archer C7 czy ASUS RT-AC68U, które wpadły mi w oko. Ostatecznie poddałem się fali emocji w amerykańskim hipermarkecie i nabyłem kosztem $139 router Belkin AC1200 (zwany precyzyjnie F9K1113 v1). Jest to nieco leciwa już platforma BCM4718 wraz z kartą mini-PCIE BCM4352, czyli symultanicznie 2.4GHz 2x2 802.11n + 5GHz 2x2 802.11ac.
  

 

Dotychczasowy TP-LINK TL-WR1043ND powędrował na stanowisko klienta bezprzewodowego (tryb wds) i połączył się do sąsiada nowego routera używając 2x2 802.11n, negocująjąc 117Mbps z 300Mbps możliwych. Na rezultaty nie trzeba było czekać:
Gdy jesteśmy sami na łączu daje się zobaczyć 48Mbps. Test kopiowania dużego pliku od sąsiada z NASa pokazał mi około 52Mpbs, więc jest około 2,5 krotna poprawa.
Tymczasem po stronie sieci lokalnej korzyści są mniej oczywiste. Dzisiaj przeprowadziłem serię testów iperf  (średnia z trzech pomiarów 60 sek. TCP, window = 128/256kB) do komputera stacjonarnego z różnych urządzeń. Wyniki zebrałem na wykresie poniżej:

Na zielono oznaczyłem wyniki pomiaru bazowe przed wymianą routera. Niestety jest to średnia. Zwykle uzyskiwałem bardzo rozrzucone rezultaty w przedziale 50-85Mbps.
Na bordowo oznaczyłem wyniki klientów pracujących w paśmie 5GHz.
Na niebiesko mamy wyniki w pasmie 2.4GHz.
Ten szary wynik po prawej to połączenie HomePNA przez interfejsy 100Base-T do Raspberry Pi przy telewizorze.
Chciałbym podkreślić, że powyższe wyniki są wartościami maksymalnymi przy wysyceniu interfejsu ruchem przez pełną minutę z dużym buforem (symuluje to: kopiowanie dużego pliku, odtwarzanie wideo z kodekiem o zmiennym paśmie lub akceptacją live-feedu w multiplexie). Przy mniejszym plikach czy przeglądaniu stron internetowych znacznie ważniejsze są opóźnienia i jitter.
Wnioski
Po stronie LAN wydajność poprawiła się nieznacznie, ale mierzalnie.
Nie odczułem na 5GHz pogorszenia zasięgu, bo tam gdzie 2.4GHz było niestabilne wyższa częstotliwość też zawodzi. Największą poprawę odczułem w sypialni (7m), gdzie nawet na tablecie Nexus 10 jestem w stanie wykorzystać całą szerokość łącza WAN.
Dla porównania przeprowadziłem testy iperf również z laptopa przez port GigabitEthernet uzyskując średnio 505Mbps, ale kabel to zupełnie inna liga...
Ku memu zaskoczeniu największą korzyścią z przesiadki na pasmo 5GHz jest stabilność, a nie wydajność.
Szczególnie połączenia wideo przestały być nękane opóźnieniami.

[UPDATE 2013-11-10]
Niestety mój dotychczasowy router TP-LINK TL-WN1043ND nie sprawdził się jako klient WiFi. Oryginalny firmware nie chciał się połączyć z AP, a wszystkie trzy ostatnie wydania OpenWRT wieszały urządzenie w losowych momentach, gdy pracowało w trybie WDS. Ostatecznie wróciłem do TP-LINK TL-WA500G, więc mamy z powrotem 22/3Mbps dostęp do Internetu.
Dzisiaj powtórzyłem testy wydajności karty Intel Advanced-AC 7260 pod Windows 8.1 po aktualizacji na laptopie. Wyniki wahały się między 130 a 160Mbps na TCP przy buforze 128kB przy wynegocjowanej prędkości osiągającej 350-867Mbps. Menedżer zadań pokazywał do 190Mbps.
Jak widzicie - w moim przypadku - przesiadka z karty N6235 na AC7260 wnosi na 5GHz do 77% więcej pasma. Niestety nie przekłada się na zwiększony zasięg ani szczególnie stabilne połączenie na granicy zasięgu.

Spojrzenie w przyszłość

Ostatni rok pod wieloma względami był dla mnie okresem wyczekiwania w technologiach informatycznych. Wiele oczywiście najlepszych rozwiązań powoli wgryzało się w rynek (np. SSD, ekrany IPS, USB3, Miracast, wirtualizacja itd.). Choć przyjemnie to obserwować, to jednak czasem myślę, że dzieje się to zbyt wolno. Z drugiej strony był to okres niepewności jako że pojawiło się dużo nowych pomysłów na urządzenia i oprogramowanie zacierających granice między segmentami rynkowymi i przypadkami użycia. Napotkaliśmy zupełnie nowe problemy przeprowadzając się w całości na Androida lub zamykając się w świecie iOS.
Rzadko kiedy o tym piszę, ale ponad połowę czasu wolnego przeznaczam na śledzenie doniesień ze świata nauki. Wiele z nich jest mi tak obcych i trudnych, że nawet nie potrafię odczytać ich potencjalnego wpływu na naszą przyszłość. Tego lata jednak zaobserwowałem ponad dwukrotne zwiększenie ilości doniesień z dziedziny elektroniki i interfejsów. Chciałem dzisiaj z Wami podzielić się kilkoma artykułami, które - w mej ocenie - sprawnie pokazują momentum, jakie wytworzyli naukowcy:

niedziela, 29 września 2013

Pierwsze wrażenia z Google Nexus 7 2013

W ubiegłą sobotę byliśmy na zakupach w warszawskim Wola Parku, gdzie swoje stanowisko demo miał ASUS. Przejrzałem ich inwentarz i nie znalazłem niczego wartego uwagi (w porywach do urządzeń na Clover Trail+). Niespodziewanie prezenter powiedział mi, że ma coś ciekawego - nowy Google Nexus 7 (poczytaj tu) z modemem LTE uruchomiony w sieci Polkomtela. Bardzo fajna okazja na wyrobienie sobie opinii o tym flagowym produkcie. 
Urządzenie jest niezwykle poręczne. Dzięki rozdzielczości 1080x1920 te siedem cali wcale nie wydaje się być za małe. Tablet jest lekki i ma świetny wielo-dotyk - Android 4.3 był na nim bardzo responsywny. Wersja z modemem LTE została wyceniona na ok. 1500zł, co wydaje się być nieco przesadzone. Spójrzcie jednak na wynik speedtest.net przeprowadzonego w zatłoczonym centrum handlowym:
 
Liczby mówią same za siebie - z odpowiednim abonamentem nie będzie trzeba włączać WiFi w domu.
Dla osób przywiązanych do tabletu i przebywających sporo w transporcie miejskim może to być inwestycja warta rozważania.
Bardzo podobał mi się ten tablet. :-)

niedziela, 22 września 2013

Interfejs użytkownika w PS4

Zobaczcie, jakie demo możliwości PS4 zdobyli redaktorzy Gamespot:
źródło: gamespot.com

sobota, 21 września 2013

Pececie wróć!

W zeszłym roku rozpocząłem stopniową racjonalizację mych komputerów domowych. Na przestrzeni dziesięciu miesięcy zmniejszyłem ilość urządzeń do dwóch - smartphone'a i tabletu. Oba pracujące pod Androidem 4.2. Przyznam, że znakomitą większość czasu nie przeszkadzał mi brak tradycyjnego PeCeta. Jednak po dwóch miesiącach zauważyłem, że mam problem z kilkoma sprawami:
  1. Nie byłem w stanie sprawnie wy-edytować dokumentów MS Office pod Androidem.
  2. Nie mogłem wymienić ROMu w smartphone flashując, bo nie miałem jak go zrootować.
  3. Miałem problem z pobraniem zdjęć z aparatu fotograficznego (dopiero kabelek OTG i czytnik kart SD na USB rozwiązał problem).
  4. Nie miałem możliwości wygodnej edycji zdjęć i materiałów wideo.
  5. Nie mogłem pobrać treningów z zegarka Garmin.
Radziłem sobie jak mogłem pożyczając laptopa lub goszcząc na PeCecie sąsiada (dziwił się).
Jednak powoli dochodziło do mnie, że potrzebuję jednak jakiegoś komputera z procesorem x86 z Ubuntu lub Windows. Dłuższą chwilę przeglądałem ogłoszenia sprzedaży komputerów z drugiej ręki. W zasadzie nie miałem wymagań poza rozsądną wydajnością. Chciałem wydać 120-200€ za coś nie starszego niż Clarkdale
Wreszcie, dosyć niespodziewanie, w wyniku sześciogodzinnej akcji nabyłem kosztem 370€ następującą konfigurację:
Pewnie powiecie, że przesadziłem, ale w tej cenie była to nie lada okazja.
Do kompletu dokupiłem jeszcze Windows 8 OEM UK (za ~73GBP) i użyłem ClassicShell, aby pozbyć się kafelek.
Przewietrzyłem już zestaw na demie Batman Arkham City i na ustawieniach Ultra w 1080p nie miałem żadnych kłopotów. :-)
Tak na prawdę nie będę w stanie wykorzystać tej wydajności, ale planuję kilka materiałów wideo, więc uspakajam swe sumienie.

[UPDATE 2013-09-22]
Oto wyniki 3DMark Basic:
  • Ice Storm - 87633
  • Cloud Gate - 12044
  • Fire Strike - 2667
[UPDATE 2013-11-01]
BrowserMark 2.0 - 5660
PeaceKeeper - 4669
3DMark Basic (2013):
  • IceStorm - 87901
  • CloudGate - 12295
  • FireStrike - 2665
3DMark11 - P3949

Powakacyjne spojrzenie na rynek

Od czerwca wydarzyło się kilka ważnych rzeczy na rynku Produkte i urządzeń mobilnych. Chciałem podzielić się z Wami komentarzami na temat nowości:
  • Premiera Ivy Bridge-E, który pozostaje na podstawce LGA-2011, była tak abstrakcyjna jak ich poprzedników. Jest to produkt niszowy dla ekstremalnych wymagań obliczeniowych. Polecam wyczerpujący artykuł tutaj.
  • Haswell przyniósł nam niewielkie zmiany dla stacji roboczych i komputerów stacjonarnych, ale rewolucję na polu urządzeń mobilnych. Kluczowa jest dalsza konsolidacja I/O, obniżenie poboru energii przy małym obciążeniu oraz wreszcie znośna wydajność GPU z rodziny Iris (Pro) 5x00. Dla większości z nas układy dwurdzeniowe będą więcej niż wystarczające. Osoby potrzebujące większej mocy zdecydują się na cztero-rdzeniowce.
    Pierwszym naprawdę udanym produktem jest Apple MacBook Air 2013 (polecam test tutaj), który może pracować na baterii z aktywnym WiFi przez 12 godzin! Tu warto podkreślić, że konstrukcje pod Windows 7/8 nie specjalnie pokazują takie wyniki (sytuacja ma się poprawić w Win8.1). Liczę na dobre wyniki nadchodzącego (newsAsus Zenbook UX301.
  • Artykuł dostępny tutaj pokazuje, że obecnie rezygnując z desktopa na rzecz laptopa tracimy stosunkowo niewiele wydajności CPU. Natomiast jeśli zależy nam na bezkompromisowej wydajności GPU (np. graniu 3*1080p lub 1*UltraHD - polecam ten artykuł), to desktopy wciąż pozostają najlepszym i najtańszym rozwiązaniem.
  • Moim zdaniem największym przebojem ostatnich tygodni jest premiera układów SoC z rodziny Bay Trail. Intel w końcu wprowadza rozsądnie wycenione układy oparte na architekturze Silvermont, które znajdą swoje miejsce w bardzo lekkich laptopach, convertible i tabletach. Wystarczy spojrzeć na zapowiadany Asus Transformer Book T100, aby uświadomić sobie, że będzie to rewolucja dla przeciętnego użytkownika. w granicach 1500zł będzie można nabyć convertible rzędu 10" z ekranem IPS, pamięcią masową SSD, pracą na baterii powyżej 10 godzin i wydajnością porównywalną z Core i3 poprzednich generacji. :-)
  • Na froncie smartphone trwają zażarte wojny pomiędzy wariantami architektury ARM (Cortex-A7 vs. Cotrex-A9, a tuż za rogiem czeka już Cortex-A12). Wygląda na to, że w procesach technologicznych 32nm i 28nm architektura Cortex-A15 pozostanie rozwiązaniem dla tabletów i smartphone'ów o duuużych akumulatorach. Droga "środka", jaką wybrał Qualcomm w Krait oraz Apple Swift świetnie się sprawdza - wydajniejsze niż A9-r4 a oszczędniejsze niż A15.
    Mogę potwierdzić, że 4 rdzenie A7 na 1.2GHz w 28nm na Android 4.2 w mym ZOPO C2 pozwala mi bez problemu korzystać cały dzień z HSPA+ i sporo czytać na 5" ekranu 1080p. Wydajność jest więcej niż wystarczająca. Tak więc A9, Krait, Swift czy A15 powyżej 1GHz powinny być już płynne.
  • Warto wspomnieć o nadchodzących rozwiązaniach opartych na nVidia Tegra 4i (4+1 rdzenie Cortex-A9-r4 + modem LTE od Icera), które mogą okazać się hitem drugiej połowy 2014.
  • Oczywiście wprowadzenie przez Apple układu A7 w iPhone 5s, który posiada zmodyfikowane dwa rdzenie Swift Cyclone, które mają podwojone potoki obliczeniowe i są zgodne z ARMv8, więc dostały rozszerzenia 64bit (więcej niż 2GB RAM w przyszłości?), jest nie lada wydarzeniem. Podejrzewam, że dopiero wprowadzenie architektury Cortex-A53/A57, opartych na ARMv8.
    Mimo całego zamieszania z premierą 5s i iOS 7 uważam, że prawdziwą gwiazdą jest iPhone 5C, który byłbym w stanie rozważyć jako realną opcję zakupową.
  • Intel szykuje szykuje najlżejszy wariant architektury Silvermont w formie rodziny SoC o nazwie Merrifield, pokazanej w zeszłym tygodniu na IDF.
  • Ku memu zaskoczeniu z miejsca ruszył rynek urządzeń mniejszych niż smartphone'y, opartych na SoC rodem z zastosowań przemysłowych. Moda gadżeciarska podyktowała nam teraz zegarki współpracujące ze smartphonem. O ile Samsung Galaxy Gear jest moim zdaniem funkcjonalnym niewypałem, to prototyp Qualcomm Toq jest po prostu genialny. Ekran Mirasol jest strzałem w dziesiątkę! Właśnie tego typu urządzenia zawładną rynkiem.
    Ku memu zaskoczeniu Intel również postanowił wskoczyć w segment, w którym rządzą rozwiązania oparte na ARM Cortex-M nową linią SoC o nazwie Quark (więcej tutaj)
  • Na koniec jeszcze dobre wiatry na rynku serwerów - Intel wprowadził do sprzedaży modele Ivy Bridge-EP (zakładka Servers). Jak widać tutaj przynosi to ~30% wyższą wydajność przy obniżeniu poboru energii. Warto wspomnieć o nowych rozszerzeniach do wirtualizacji - APICv (obecnie wspierany tylko przez Xen i KVM).
Jak widzicie technologie obliczeniowe ruszyły się żwawo z miejsca mimo przerwy wakacyjnej.
Te nowe platformy zostaną przekute na kupowalne produkty w przyszłym roku, po oczyszczeniu magazynów z bieżących technologii.
Wyraźnie widać koncentrację producentów na obniżeniu poboru energii i wsparciu najnowszych interfejsów.
Same dobre wieści!

sobota, 7 września 2013

Garmin Forerunner 610

Jestem biegaczem amatorem. Ruszam się zwykle kilka razy w tygodniu przeplatając siłownię, cross-fit i biegi średnich dystansów. Właśnie przygotowuję się do maratonu 6 października w Brukseli i przdłużyłem nieco dystansy treningu biegowego. Od jakiegoś czasu używam serwisu endomondo.com, gdzie notuję sobie treningi ręcznie w telefonie lub rejestruję trasę, korzystając z GPS w telefonie.
Przesiadka na pięcio-calowe ZOPO C2 niestety utrudniła mi zabieranie ze sobą telefonu. Jest zwyczajnie za duży i nie mieści mi się w uchwycie na ręce. Ponieważ mój zegarek cyfrowy kwalifikował się już do wymiany od kilku dobrych lat, postanowiłem rozejrzeć się za zegarkiem sportowym z GPS i pomiarem tętna.
Po dłuższej kontemplacji nabyłem Garmin ForeRunner 610 za ~1200zł .
źródło: garmin.com
Zegarek wyświetla normalnie godzinę i datę w trybie czuwania, a w połączeniu z taśmą na klatce piersiowej rejestruje przebieg treningu.
     

źródło: garmin.com

Do tego jest sympatyczny dongle bezprzewodowy, za pomocą którego można pobierać zgromadzone dane do komputera. W ten sposób właśnie ładuję wyniki do endomondo.
Oto przykładowy wynik pomiaru:
źródło: endomondo.com
Zegarek znajduje GPS fixa na otwartym terenie w ciągu 1-3 minut, a dokładność pomiarów względem Google Maps oceniam na ~20 metrów. Ekran w trakcie biegu jest czytelny, a wieczorem dobrze się sprawdza podświetlanie. Przy około godzinnym biegu codziennie bateria wystarcza mi do weekendu.
Na co dzień zegarek wygląda w miarę normalnie i nie budzi sensacji w otoczeniu modnych ostatnio busol.
Domyślne ustawienia zegarka po włączeniu języka polskiego i systemu metrycznego są dla mnie idealne. 
W przyszłości powalczę z opcjami planowania treningu.
Mogę polecać ten zegarek z czystym sumieniem.
Jeśli szukacie czegoś tańszego o podobnych możliwościach, to rzućcie okiem na ForeRunner 405 HR za ~750zł jest większy nie ma ma ekranu dotykowego lub ForeRunner 110HR za ~660zł (ograniczone możliwości eksportowania danych, niższa rozdzielczość ekrnau, mniej funkcji treningowych).

Miesiąc z LG 55LN5758

Z końcem lipca nabyłem telewizor, aby wymienić eksploatowaną plazmę 42" (1024x768). Kwestia wyboru nie była łatwa, bo telewizory, choć tańsze, wciąż kosztują sporo. Najtrudniejszym dla mnie ograniczeniem była przekątna ekranu. Ponieważ w wynajętym mieszkaniu nie możemy wymieniać mebli ani specjalnie ich przestawiać,to 5 metrowa odległość kanapy od telewizora stawia wysokie wymagania. Jeśli spojrzeć na poniższy wykres:

źródło: carltonbale.com
To zakładając 16 stóp odległości od telewizora, widzimy, że:
  • od 50" zaczynamy widzieć różnicę pomiędzy 480p an 720p
  • od 120" zaczynamy widzieć różnicę pomiędzy 720p a 1080p
Nawet krótkie spojrzenie na ofertę rynkową przekonało mnie, że rozsądek cenowy kończy się na 65". W zasadzie i tak większość zawartości mam 480p i czasem tylko sięgam po pozycje Bluray. Dla 1080p mogę usiąść na krześle ~2 metry (7 stóp) od telewizora, aby dostrzec szczegóły.
Zależało mi na obsłudze WiDi/Miracast oraz pewnej "smartowości".
Od razu odrzuciłem wersje 3D, bo nawet w kinie unikam tych rozwiązań (słabo się to sprawdza z moimi okularami korekcyjnymi).
Spędziłem dobrą godzinę testując kompatybilność Miracast z różnymi telewizorami w sklepach. Ostatecznie zdecydowałem się na LG 55LN5758 za niecały 1000 EUR.

Mija właśnie miesiąc eksploatacji i zdążyłem już poznać jego mocne i słabe strony.
Jakość obrazu jest bardzo dobra dzięki podświetleniu z tyłu i dobrze dobranym algorytmom wygładzającym powierzchnie czy wyostrzającym krawędzie.
Miałem przez chwilę kłopot z konwersją wielokanałowego dźwięku do stereo, ale po wyłączeniu wszystkich efektów kinowych i 3D wszystko wróciło do normy.
Bardzo fajnie działa odtwarzanie przez WiFi filmów z serwerów DLNA. Niestety nie da się przeskakiwać w wybrane miejsce w pliku ani wznawiać od ostatniego razu. Działa tylko pauza, więc słabo.
Telewizor okazał się świetnym partnerem dla mego Raspberry Pi z RaspBMC dzięki SimpLink (LG wersja HDMI-CEC), ale o tym więcej w oddzielnym poście...
Miracast działa bez zarzutu z mym ZOPO C2. Zamierzam potestować WiDi, jak tylko będę miał kompatybilne urządzenie.
Podsumowując - zakup udany, chociaż nie tani.
Polecam!

czwartek, 22 sierpnia 2013

Laptop biurowy

Moja mama sprawnie posługiwała się laptopem DELL Latitude D410 wraz ze stacją dokującą. Mimo świetnych wyników w pracy z Office 2010 pod Windows XP SP3, ten zgrany zestaw zbliżał się już do ósmych urodzin i zachodziło realne zagrożenie utraty danych w wyniku awarii. Konieczne było odświeżenie konfiguracji.
Niestety przeszukanie rynku w poszukiwaniu nowej konfiguracji ze stacją dokującą przekonało mnie, że ceny są zaporowe w porównaniu z laptopami konsumenckimi. W niektórych przypadkach (15.6") zestaw ze stacją dokującą był ponad dwukrotnie droższy przy tych samych parametrach. Zwróciłem się więc w kierunku poszukiwania replikatora portów, który mógłby zastąpić stację dokującą.
Niestety przycisk zasilania w laptopach jest pod klapą, więc rozglądałem się za replikatorem, który miałby przycisk zasilania, aby uniknąć każdorazowego uruchamiania. Najlepszym kandydatem wydała mi się para:
- Lenovo ThinkPad Edge E130 (NZU86PB) za ~1900 zł, polecam test tutaj
- Lenovo OneLink Dock za ~440zł
Szybko jednak okazało się, że przycisk na replikatorze służy do włączania i wyłączania jego samego, a nie laptopa. :-(
Niestety nie udało mi się tego zawczasu wyczytać z opisu na stronie producenta.
Dodatkowo postanowiłem wykorzystać dostępny port mSATA, aby przyspieszyć anemiczny dysk HDD 5400 obr./min.
Ponieważ nie mogłem nigdzie w Polsce znaleźć fabrycznej opcji 16GB mSATA wraz z oprgramowaniem SanDisk z logo Lenovo, to zamówiłem:
- CT032M4SSD3 Dysk SSD Crucial M4 32 GB mSATA 205zł
licząc na Intel Smart Response Technology, które jest wspierane przez układ HM77.
Ku mej rozpaczy Lenovo nie udostępnia w ustawieniach UEFI/BIOS przełączenia trybu pracy kontrolera SATA ze zwykłego AHCI w tryb RAID, co jest niezbędne do zestawienia SRT. Pozostał mi jedynie mechanizm Windows ReadyBoost i składowanie na SSD dokumentów.
Ponieważ Microsoft zdecydowanie odmówił nam jednorazowego przeniesienia licencji OEM na Office 2010 Home & Business ze starego laptopa, zostaliśmy zmuszeni do zakupu:
- MS Office 2013 Home & Business OEM za ~850zł
Ostatecznie zestaw uruchomiłem i dział bez zarzutu.
Z uwagi na "metrowość" Windows 8 zaaplikowałem niezwłocznie Start8, aby przywrócić tradycyjne menu start.
Wynik końcowy jest całkiem przyzwoity, mimo oczywistych utrudnień opisanych powyżej.
Laptop startuje relatywnie długo, bo ~45sek. do logowania, ale przy stosowaniu hibernacji czas ten się skraca do ~25sek.
Zastosowany procesor Pentium Dual Core z rodziny Sandy Bridge nie porywa, ale bez problemu radzi sobie z MS Office 2013 i kompresją w czasie rzeczywistym obrazu do przesłania po USB 3.0 do replikatora portów.
Podsumowując - mogę polecić ten tani laptop, bo robi, co powinien, ale radzę kupić mSATA w rozmiarze >=120GB i zmigrować system operacyjny.
Fakt, że replikator ma przycisk zasilający, który nie włącza laptopa, a dokumentacja o tym nie wspomina jest nieco przytłaczający.
Mam nadzieję, że zestaw ten podziała ładnych parę lat...

środa, 31 lipca 2013

Android 4.3 na Nexus 10

Chciałem tylko powiedzieć, że przed chwilą aktualizacja do 4.3 dotarła na mego Nexusa 10. Proces trwał koło 5 minut i tablet już działa. Kilka obrazków:

czwartek, 25 lipca 2013

Rewitalizacja nawigacji TomTom One IQ Routes

Wczoraj odwiedził mnie sąsiad z nawigacją TomTom One IQ Routes w ręce.

źródło: tomtom.nl
Urządzenie odmawiało przyjęcia map przez USB za pomocą aplikacji TomTom HOME.
Kolega był już zdrowo podenerwowany, bo wkrótce wyjeżdża za ocean i nie udało mu się wgrać świeżo zakupionych map amerykańskiego kontynentu. Problem leżał w tym, że urządzenie rozłączało się wciąż w trakcie transferu danych. Jak się okazało był to problem z MS Windows 8, bo u mnie pod Windows XP nie mieliśmy efektu rozłączania.
Krótkie spojrzenie na zawartość pamięci urządzenia, dostępnej przez USB nie pozostawiało wątpliwości, że system plików jest w strzępach. Otrzymaliśmy od producenta procedurę re-instalacji, która okazała się być skuteczna:
  1. Wyłączyć aplikację TomTom HOME
  2. Podłączyć urządzenie
  3. Sformatować* dostępny wolumen w trybie "quickformat" na FAT32 bez zmiany identyfikatora
  4. Odłączyć urządzenie, uruchomić TomTom HOME i podłączyć urządzenie ponownie
  5. Zalogować się na swoje konto TomTom i uruchomić aktualizację
  6. Pojawi się nie-klikalna pozycja aplikacji nawigacyjnej, należy jeszcze dodać tzw. "GPS-fix", wybrany głos i zainstalować.
  7. Zrestartować urządzenie i podłączyć raz jeszcze.
  8. Tym razem instalujemy jedną mapę (najlepiej lokalną) i restart.
  9. Wreszcie instalujemy, co chcemy (dodatkowe mapy, informacje o radarach i inne).
 * - jeśli nie możecie uzyskać wyłącznego dostępu do wolumenu, to użyjcie "chkdsk x: /f", kóry zapyta Was czy wymusić wyłączność. Jak skończy, będziecie mogli formatować.

poniedziałek, 15 lipca 2013

Czas na LTE

Ostatnio bywam co weekend w Warszawie. W niedzielę jak co rano chciałem pobrać bieżące artykuły ze świata i przejrzeć aktualności. Ku memu zdziwieniu dostęp do Internetu w mieszkaniu był fatalny. Speedtest.net wskazywał na roundtrip 130ms, 1Mbps w dół i 0,2Mbps w górę. Oczywiście problem leżał w opóźnieniu i fatalnym uploadzie. Przełączyłem się na transmisję danych w telefonie (Orange Internet1, 100MB na jeden dzień za 1zł) i uzyskałem zdrowe 3,2/2,6Mbps przy 60ms (HSPA+).
Od 2009 korzystamy tam z routera EDIMAX 3g-6200Wg, modemu Huawei (zapomniałem model) i abonamentu Play Online o parametrach 1/0,5Mbps z limitem 3GB miesięcznie za 45zł / mies. Skonstatowałem, że - z wyjątkiem opóźnień - łącze zachowuje się zgodnie ze swoimi teoretycznymi parametrami.
Po co mi jednak dostęp WiFi w mieszkaniu, który bardziej frustrujący niż bardzo niestabilne łącze pakietowe w telefonie?
Nadszedł czas na zmiany.
Po krótkim namyśle i na fali irytacji obecnym rozwiązaniem udałem się do najbliższego przedstawiciela Polkomtela i nabyłem kosztem 400zł przenośny router z modemem LTE - Huawei E5776 w abonamencie Internet 10GB na rok z opłatą miesięczna 50zł.

 
Routerek jest wielkości małego smartphone'a, ma własną baterię, na której może ciągnąc kilka godzin, wbudowane WiFi 802.11n 2.4GHz 2x2 (do 300Mbps). Zysk anten WiFi routerka nie zachwyca, ale w małym mieszkaniu świetnie się sprawdzają.
Pierwszy test wykonałem od razu w sklepie:
Potem już w mieszkaniu uzyskiwałem powtarzalnie 20/20Mbps przy 30-60ms.

Zmiana ta przyniosła nam w mieszkaniu:
  • dwu-krotne zmniejszenie opóźnienia
  • trzykrotne zwiększenie limitu
  • dwudziesto / stu-krotnie wyższe pasmo
przy kosztach inwestycji w router i zwiększeniu kosztu miesięcznego o 5zł.
Dodatkową korzyścią jest możliwość zabrania routerka ze sobą poza mieszkanie, aby cieszyć się dostępem WiFi.
Zdecydowanie polecam to rozwiązanie.

piątek, 12 lipca 2013

Miracast na MK809 (RK3066)

Wczoraj wieczorem wziąłem na warsztat mój TVbox MK809, który dotychczas cieszył się stabilna pracą na Finless ROM 1.8 (4.1.2) z użyciem XBMC 12.2. Na forum Freaktab wyczytałem, że pojawił się całkiem lekki ROM 4.2.2 (datowany na 17 cze 2013) na RikoMagic MK802 III, który (przypadkiem) jest sprzętowo identycznym z mym pudełeczkiem.
Już po pół godzinie śmigałem na czystym Androidzie 4.2.2. Miracast był dostępny za pośrednictwem dedykowanej aplikacji (a nie przez ustawienia), ale działał bez zarzutu.
Sprawdziłem wyświetlanie bezprzewodowe z ZOPO C2 przy 720p 60Hz i 1080p 50Hz w TVbox. Jest około 1 sekundy opóźnienia, ale nie ma jittera, więc można oglądać filmy. Najfajniej się sprawdza wyświetlanie zdjęć w pozycji landscape.
Po weekendzie wrzucę tu parę zdjęć, żeby to pokazać...

czwartek, 4 lipca 2013

Nowy smartphone - ZOPO C2

Właśnie minął mi rok eksploatacji telefonu ZOPO ZP100, który pod wieloma względami się sprawdził wyśmienicie. Przez cały ten czas korzystałem z oryginalnego ROMu z Androidem 4.0.3, który był zupełnie czystym AOSP, bez roota. Z czasem rezygnowałem z kolejnych innych urządzeń elektronicznych i ostatnio prawie wszystko robiłem już na smartphonie. Niestety w miarę coraz intensywniejszego korzystania skracał mi się czas pracy na baterii. W szczycie musiałem zmieniać baterię na zapasową koło 19:00, aby móc nadal z niego korzystać.Niedawna przesiadka na nową aplikację Gmail oraz przesiadki z Talk na Hangout i z Google Reader na Press uświadomiły mi, że daleko już nie zajadę na jednym rdzeniu Cortex-A9 w litografii 40nm.
Naszedł czas na zmiany.
Długo zastanawiałem się nad tym, czego mi trzeba. Zdecydowanie chciałem pozostać przy Dual SIM, ale zależało mi na jak najlepszym wyświetlaczu, długim czasie na baterii, wyższej wydajności i obsłudze Miracast. Obecnie rynek oferuje oszałamiającą mnogość permutacji parametrów w telefonach. Wystarczy zajrzeć do sklepu pandawill, żeby zauważyć, że każdy znajdzie tam coś dla siebie.
Zacząłem od układu SoC, na którym miałby być oparty telefon. MT6589 wykonany w litografii 28nm wydał mi się faworytem od pierwszego strzału, bo mimo względnie niskiej wydajności IPC czterech rdzeni Cortex-A7, prezentuje ponad dwukrotnie niższe zużycie energii. W połączeniu ze żwawym GPU - PowerVR SGX544 - był to dla mnie strzał w dziesiątkę. 
Kolejno rozglądałem się za wyświetlaczem i nie chciałem zejść niżej niź 1280x720, a najchętniej koło 4.5". Kiedy jednak obejrzałem kilkanaście modeli telefonów na żywo, zdałem sobie sprawę, że nic nie przebije 5" ekranu 1920x1080 od AUO, wykonanego w technologii LTPS. Przy wysokiej jasności, kontraście i gęstości rzędu 400ppi zwyczajnie kapcie mi spadły na widok obrazu na tym ekranie.
Tak się złożyło, że podczas odwiedzin zaprzyjaźnionego sklepu w Warszawie, ZOPO C2 (wariant B, 4GB flash) był dostępny w cenie ~1200zł wraz z oryginalną obudową książeczkową. Cedwójka miała już zaserwowany stock-ROM od ZP980 w wersji 4.2.1 i usunięte azjatyckie aplikacje. Tak oto przesiadłem się na nowszy model nie zmieniając "brandu".
 
Nie da się ukryć, że urządzenie jest duże. Co prawda mieści mi się w kieszeni i mogę pisać jedną ręką na klawiaturze, ale sięganie kciukiem do lewego shifta to gimnastyka. Są tez dobre strony - klawisze klawiatury są większe, więc łatwiej w nie trafić. Całość prezentuje się godnie. Tylny aparat ma aż 13 megapikseli, ale sprawdza się zupełnie przyzwoicie.
 

 
Miłym zaskoczeniem były trzy aktualizacje ROMu, które dogoniły mnie w ciągu doby i ustawiły obraz na buildzie z 10 cze 2013. Brawo deweloperzy!
   
Jak na razie mimo intensywnej zabawy nie udaje mi się rozładować C2 do wieczora. Dzisiaj po maratonie kończę na 33%, więc przy oszczędnym korzystaniu jest to aparat dwudniowy.
Jednak prawdziwą ucztą jest sam wyświetlacz:
  
Z moim słabym wzrokiem tylko maksymalne makro w aparacie fotograficznym potrafi pokazać piksele. Jestem w stanie wyświetlić całą stronę A4 na ekranie z czcionką 12 i przeczytać jego zawartość. Coś oszałamiającego!
Ostatnio przesiadłem się na bardzo fajny czytnik RSS - Press. Zobaczcie, jak wyglądają w nich litery w powiększeniu:
 
To jest naprawdę gęsty ekran!
Niestety C2 ma jeden slot SIM normalny, a drugi w rozmiarze mini, więc poszły w ruch nożyczki i karta BASE przeszła kurację odchudzającą:
 
Jak widzicie C2 jest zbudowany prosto, ale solidnie. Większość kubatury pochłania akumulator 2000mAh.

 
Parę słów jeszcze o wydajności interfejsów:
  • WiFi - 2.4GHz 802.11n 1x1, w praktyce negocjuje na ~65Mbps i da się 33Mbps na speedtest.net wykazać, przy lokalnym kopiowaniu dużego pliku z NASa rozpędza się do ~24Mbps
  • Bluetooth - v4.0 bez LE, bez problemu sparowałem z klawiaturą i komputerem auta, zużycie baterii w normie
  • GPS - tu jest nie za dobrze, nieprzyjemny bug w kodzie AOSP dla MT6589 powoduje nieprawidłowe odczyty prędkości (musiałem się przesiąść z Endomondo na Runkeeper), fixa łapie po około 30 sek., Google Maps działa bez zarzutu
  • transmisja danych - z radością korzystam już z WCDMA na obu kartach SIM, testy na Orange w Wawie i na BASE w Brukseli zgodnie pokazują ~6,5Mbps w dół i ~2Mbps w górę. HSPA+ działa więc jak należy.
Co do ogólnej płynności działania, to nie mam zarzutów do CPU i GPU, ale chwilami czekam ułamki sekundy na pamięć flash. Korzystam z wbudowanych 4GB i mam kartę mikroSD 8GB. Całość jest widoczna jako 12GB. Podejrzewam, że wersja premium C2 z 16GB flash poprawia ten aspekt.

Jest też wreszcie funkcjonalność bezprzewodowego wyświetlania ekranu - Miracast - której nie udało mi sie przetestować, bo nie mam odbiornika.
Czytałem jednak, że wszystkie tegoroczne telewizory LG to wspierają, więc wybiorę się do jakiegoś sklepu RTV w okolicy to przetestować. Myślę, że w trybie horyzontalnym lustrzane odbicie obrazu 1080p z tego telefonu może być bardzo ciekawe.

Mijają właśnie dwa tygodnie użytkowania i jestem zadowolony z zakupu. Gdy coś jeszcze ustalę lub zauważę, nie omieszkam tu dopisać.

[UPDATE 2013-07-10]
W niedzielę zaplątałem się do Saturna w Złotych Tarasach i przetestowałem Miracast na napotkanym telewizorze LG 55LA620S. ZOPO C2 bez problemu wykrył odbiornik a telewizor zapytał, czy wyrażam zgodę na przyjęcie obrazu z aparatu. Nie tylko obraz (1080p) i dźwięk  był dostępny w TV, ale również pilot LG z żyroskopem pozwalał na poruszanie się po telefonie. Niestety pierwsza próba połączenia się zakończyła się zawieszeniem C2, ale po restarcie kolejna była już udana. Połaziłem po menu, wyświetliłem zdjęcia z galerii i odtworzyłem filmik testowy (720p) z YouTube. 
Ogólnie - test zaliczony. Mój następny telewizor musi obsługiwać Miracast.

[UPDATE 2013-07-22]
Mam problemy z modemem 3G/H/H+. Nie występuje w trybie GPRS/EDGE. Wyjaśniam ...

[UPDATE 2013-09-07]
Łącznie spędziłem cztery tygodnie obserwując zachowanie modemu 3G, testując różne ustawienia w MTK Engineering Mode i konsultując się z serwisem. Ostatecznie serwis wymienił mój egzemplarz na nowy tydzień temu. Tygodniowe testy potwierdziły idealną pracę W-CDMA zarówno w sieci Orange.PL jak i BASE.BE. Znów mogę spokojnie polecać ten apart. :-)

Najlepszy wynik uzyskałem w trybie HSPA+ w Warszawie na Okęciu osiągając 10,1/3,4 Mbps przy 110ms. W Belgii zwykle mam niższe opóźnienia, rzędu 50ms, ale transfery są rzędu 5-7/1 Mbps. Dla moich zastosowań taka jakość połączeń jest zupełnie wystarczająca. :-)